Resúmenes por Área


Cargando resúmenes...

Área VII: Ingeniería e Industria

Abarca Venegas Mariana, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

FUNCIONALIZACIóN DE LáMINAS DE ALUMINIO PARA ADHESIóN DE MOLéCULAS ORGáNICAS POR MEDIO DE PLASMA


FUNCIONALIZACIóN DE LáMINAS DE ALUMINIO PARA ADHESIóN DE MOLéCULAS ORGáNICAS POR MEDIO DE PLASMA

Abarca Venegas Mariana, Universidad de Guadalajara. Guerra Gómez Carlos Eduardo, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El plasma es materia calentada más allá de su estado gaseoso, la temperatura es tal que los átomos comienzan a eliminar al menos un electrón en sus capas externas, de modo que lo que queda son iones positivos en un mar de electrones libres. La ganancia o pérdida de electrones en los iones hace que estos átomos sean susceptibles a reaccionar químicamente con otras especies. Esta susceptibilidad de los iones para las reacciones químicas, permiten a los reactores de plasma realizar reacciones superficiales sencillas y complejas que en algunas ocasiones no son viables por métodos de química convencional. Lo que se pretende con este enfoque superficial y estas posibilidades que nos da el reactor de plasma, es el intentar la adhesión química de moléculas orgánicas al metal.



METODOLOGÍA

Se realizó el mantenimiento del reactor antes de comenzar las actividades. Éste se llevó a cabo limpiando todas las superficies con fibras y jabones especiales, además se utilizó isopropanol y un tratamiento de plasma de oxígeno. Se decidió que la mejor opción para conseguir nuestro objetivo era mediante la adhesión de grupos hidroxilos a la superficie del aluminio, esto se lograría mediante su modificación superficial. Dicha modificación consistiría en la formación de hidróxido de aluminio, para de esta manera formar un anclaje que reaccione o se adhiera a las moléculas orgánicas de interés. Antes de realizar los tratamientos con aluminio, se hicieron pruebas de oxidación con polietileno.   TRATAMIENTO A POLIETILENO En los experimentos con polietileno se pretendió la adhesión en la superficie de grupos funcionales que contienen oxígeno, lo que aumentaría notablemente su afinidad al agua. Esta adhesión se realizó por dos medios: la exposición directa con plasma de oxígeno puro y la formación de radicales libres con plasma de argón para su posterior exposición a O2 y aire atmosférico. Para los tratamientos, se utilizaron cuadros de aproximadamente 5x5 cm de polietileno limpiados con isopropanol. Tratamientos con plasma de oxígeno. Se trabajó en presiones de 0.3 a 0.4 mBar, variando la potencia en un rango de 25 a 100 watts, por un tiempo de 0.5 a 3 minutos Debido a que los resultados más favorables fueron a 0.3 mBar y a 100 watts, se realizó una serie de experimentos en esas condiciones cada 30 segundos hasta los 3 minutos Tratamientos con plasma de argón Se hizo un acondicionamiento de la cámara con argón. El acondicionamiento fue llevado a cabo a una presión de 0.3 mBar y 100 watts durante 5 minutos Se realizó una serie de experimentos a 0.3 mBar y 100 watts cada 30 segundos hasta los 3 minutos exponiendo el sustrato al aire atmosférico. Se continuó con una serie de experimentos expuestos a una atmósfera de oxígeno puro para comparar, al llegar a 4 mbar se cerró el vacío y el flujo dejando la cámara con el oxígeno durante 15 minutos.   TRATAMIENTO A ALUMINIO Los tratamientos al aluminio fueron enfocados a la formación de grupos hidroxilo en la superficie para posteriores reacciones con moléculas orgánicas. Se cortaron láminas de papel aluminio convencional extrafuerte de 5 x 5 cm y se limpiaron con isopropanol. Cada experimento llevó una cara opaca y una cara brillante del papel. La primer serie de experimentos fue enfocada a la limpieza de la superficie de las láminas con plasma de oxígeno. Se realizaron exposiciones al plasma de oxígeno a las mismas condiciones de tiempo (cada 30 segundos hasta los 3 minutos) y presión de la cámara (0.4 mBar), pero variando la potencia, de 25 a 100 watts. Una vez realizada la prueba hidrofílica a los experimentos de 75 watts, las láminas perdían afinidad con el contacto de películas poliprotectoras antielásticas que se usaban para secar las láminas frotándolas. La investigación se tornó a la búsqueda de cuál método nos ofrecía un mejor tiempo de vida y una mayor resistencia del tratamiento. Se determinó que los pretratamientos óptimos para los experimentos eran a 0.4 mbar, 100 watts y 3 minutos. Plasma de mezcla estequiométrica de agua y oxígeno Para conseguir que en este plasma se favorecería la presencia de grupos hidroxilo, se hizo una mezcla estequiométrica con relación 2:1 de agua bidestilada y oxígeno puro respectivamente. Para comparar el funcionamiento del pretratamiento, se realizaron tratamientos con dos láminas pretratadas y dos láminas sin pretratar por experimento. Los experimentos se trabajaron a una presión de 0.44 mBar con exposiciones de 2.5 minutos modificando las potencias de 25 a 100 watts. Una vez terminados los tratamientos se dejaban dentro del reactor a una exposición de gas de agua durante 5 minutos. Debido a que las láminas con pretratamiento mantuvieron el efecto hidrofílico, se decidió hacer los pretratamientos a las condiciones de 0.5 mBar, 100 watts y 5 minutos. Tratamiento con plasma de etanol Se realizaron tratamientos a las láminas previamente tratadas con oxígeno, a las condiciones de 0.34 mBar durante 2.5 y 5 minutos modificando las potencias siendo de 25 a 100 watts. Tratamiento con plasma de isopropanol Se realizaron tratamientos a las láminas con pretratamiento de oxígeno, a las condiciones de 0.5 mBar, 50 watts y tiempos de 2.5, 5 y 7.5 minutos


CONCLUSIONES

Durante la estancia del verano de investigación se pudieron adquirir habilidades en el manejo y mantenimiento del reactor de plasma frío, además de la funcionalización de materiales con diferentes plasmas. En esta área de investigación resulta importante la modificación y control de las variables para cada tratamiento, ya que, dependiendo del tiempo, la potencia o el flujo, los materiales presentan diferentes características. A pesar de que solamente se hicieron pruebas hidrofílicas para verificar su funcionalización, es necesario en un futuro realizar un análisis a las superficies para comprobar la adhesión de los grupos funcionales. Se espera que los mejores resultados sean los aluminios previamente tratados con oxígeno en un tiempo promedio a una alta potencia, para así garantizar un mayor periodo de activación y/o tiempo de vida.
Abrego Noyola Rui Edwin, Instituto Tecnológico Superior de Puruándiro
Asesor: M.C. Edgardo Abdiel Escoto Sotelo, Universidad Politécnica de Lázaro Cárdenas

DISEñO DE UNA RED DE LOGíSTICA INVERSA PARA RECOLECTAR ACEITE VEHICULAR EN EL ESTADO DE MICHOACáN IMPLEMENTANDO EL ALGORITMO CVRP


DISEñO DE UNA RED DE LOGíSTICA INVERSA PARA RECOLECTAR ACEITE VEHICULAR EN EL ESTADO DE MICHOACáN IMPLEMENTANDO EL ALGORITMO CVRP

Abrego Noyola Rui Edwin, Instituto Tecnológico Superior de Puruándiro. Asesor: M.C. Edgardo Abdiel Escoto Sotelo, Universidad Politécnica de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

El estado de Michoacán presenta un problema que se deriva de los automóviles, camiones de transporte, máquinas industriales, entre otros, que es el aceite vehicular usado, debido al uso excesivo que se le da a este, generando un gran impacto ambiental y económico. También uno de los grandes problemas que se presenta con el aceite usado es la gran contaminación que se genera, llegándose a desembocar en suelos, mares, ríos, etc. Para ello el propósito de este proyecto es el correcto uso y tratamiento de este residuo con la localización de centros autorizados para su buen uso que puede ser: almacenaje, tratamiento y reutilización del mismo para así llegar a reducir la contaminación que existe.  Algunos motivos por los cuales el aceite vehicular usado se considera un residuo peligroso son: Un litro de aceite usado contamina un millón de litros de agua. Un litro de aceite usado derramado afectará el subsuelo volviéndolo infértil por un periodo de cien años. El aceite al flotar sobre la superficie del agua, impide la entrada de rayos solares vitales para la subsistencia de la vida marina rompiendo la cadena alimenticia, de la cual el ser humano forma parte. Con datos obtenidos de la ASEA (Agencia de Seguridad, Energía y Ambiente) y en colaboración con la SEMARNAT (Secretaría de Medio Ambiente y Recursos Naturales) en el año 2017, la generación estimada de residuos peligrosos de los aceites usados en el estado de Michoacán para los aceites usados lubricantes fue de 0.37 ton y para los aceites usados hidráulicos fue de 0.22 ton.



METODOLOGÍA

Para llevar a cabo el proyecto se determinaron los municipios del estado de Michoacán que se consideran grandes generadores de residuos peligrosos (aceites usados), dando un total de 23 municipios en los que destacan Morelia y Lázaro Cárdenas, entre otros. Toda esta información se obtuvo mediante datos oficiales de la Secretaría del Medio Ambiente y Recursos Naturales (SEMARNAT). Posteriormente se dio a la tarea de contactar a las diferentes empresas del estado para determinar aproximadamente cuanto generan de este tipo de residuos y que es lo que hacen con él, para así poder comenzar con el modelo correspondiente a utilizar en el proyecto. El modelo que se utilizará para este proyecto es el modelo heurístico que es considerado como técnicas simples que realizan una exploración limitada del espacio de búsqueda y ofrecen una solución factible en un periodo de tiempo aceptable. Las heurísticas utilizadas en la solución de CVRP, por lo general, se clasifican en métodos constructivos, de dos fases, y de mejoramiento. Para ello el método que aplicamos fue el método de ahorro o también conocido como Clarke y Wright que ha sido uno de los algoritmos más implementados para resolver VRP, el cual consiste en realizar una exploración limitada del espacio de búsqueda y dar una solución de calidad aceptable en un tiempo moderado. Este algoritmo se desarrolló partiendo de una solución con dos rutas (0,.., i,..,0) y  (0,.., j,..,0), las cuales pueden ser combinadas generando asi una sola ruta (0,.., i, j,..,0).


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos teóricos acerca de los diferentes modelos que existen para resolver un problema de ruteo vehicular, sin embargo al ser un trabajo extenso no se pueden mostrar los resultados obtenidos, ya que se tiene que recurrir a las autoridades correspondientes para que ellos determinen si se cuenta con el presupuesto para la correcta instalación de una planta tratadora de aceite vehicular. 
Acero Casildo Emmanuel, Universidad de Guadalajara
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

REDES NEURONALES CONVOLUCIONALES EXPLICATIVAS


REDES NEURONALES CONVOLUCIONALES EXPLICATIVAS

Acero Casildo Emmanuel, Universidad de Guadalajara. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Una Red Neuronal Convolucional (CNN) es parte de la inteligencia artificial que mediante aprendizaje supervisado procesa imágenes para identificar características y clasificar objetos. Sin embargo, en algunas aplicaciones se requiere saber cuales fueron los pixeles importantes para la clasificación tomada por la red neuronal, para ello se cuentan con los métodos explicativos que permiten ver de forma gráfica (heatmaps), los pixeles relevantes para la CNN en de la imagen. El proceso de implementación de una red neuronal de este tipo es un proceso largo que va desde el diseñode la red, la creación de una base de datos de entrenamiento y prueba con suficiente información para el  aprendizaje adecuado de la CNN, este proceso puede demorar bastante tiempo. En nuestro caso, ya se cuenta con dos redes neuronales convolucionales estructuradas y entrenadas para detectar  la presencia de personas mediante dos cámaras en el espectro electromagnético visible y térmico, así mismo tienen implementado el método explicativo Layer-wise Relevance Propagation para generar el heatmap de cada red neuronal.  El propósito de este proyecto, es crear una base de datos que permita evaluar el desempeño de la identificación de las redes neuronales y analizar los resultados obtenidos por el método explicativo, con estas pruebas.



METODOLOGÍA

Las primeras semanas de esta estancia de investigación fueron dedicadas a un estudio intensivo teórico y practico acerca de redes neuronales convolucionales, los métodos explicativos y el trabajo tesis titulado Identificación de peatones en imágenes aéreas con redes neuronales explicativas y fusión de sensores. En la primera parte se obtuvieron, a partir de la base de datos KAIST, recortes de imágenes con personas y sin personas contenidas, en donde tenían que coincidir la misma captura tanto para el canal RGB como para el canal LWIR. Para los recortes sin personas se realizó en cada una de las imágenes de la base un recorte aleatorio que luego fueron revisados uno por uno para corroborar la ausencia de personas. Los recortes con personas la base de datos ya los contenía las coordenadas de cada una de las imágenes en donde se ubicaban las personas, por lo que se seleccionaron aquellos cuya altura y anchura fuera mayor a 45 pixeles, así como eliminar los que se encontrarán ocluidos o en los que no tuvieran más 80% de la persona.    En seguida, se realizó las bases de datos que se utilizará para entrenar y probar la red neuronal. Se tenían obtuvieron en total 6 bases de datos, 3 para el canal RGB y 3 para LWIR. El procedimiento fue elegir aleatoriamente de las imágenes clasificadas 11554 recortes con personas y 11554 recortes sin personas, en donde la mitad de ambas categorías fueran capturas de día y la otra mitad de noche, 20,000 recortes serán para el set de entrenamiento y 3108 para el set de prueba. Por consiguiente, a cada uno de los recortes se modificó a escala de grises, se modificó el tamaño a 32x32 pixeles se convirtió a un vector de 1x1024 pixeles. Cada vector se ordenó de manera descendente hasta obtener una matriz de 20000x1024 para el set de entrenamiento y otra de 3108x1024 para el set de prueba. La primera mitad de cada set fueron recortes de personas, mientras que la segunda mitad sin personas la mitad, cada categoría conformadas capturas de día y de noche proporcionales. También se creó el archivo de etiquetas correspondiente en donde la etiqueta ‘2’ corresponde a recorte con persona mientas que la etiqueta ‘1’ sin persona para todos los sets. Así pues, para los sets de entrenamiento resultaba un vector columna 20000x1 y para los de prueba 3108x1. Finalmente se procedió a la parte del entrenamiento de la red neuronal, usando las bases de datos creadas. Se tiene que generarán una red neuronal por cada canal, por lo que al final se obtendrán 6 redes neuronales, 3 para el canal RGB y 3 para LWIR donde se espera alcanzar un nivel de exactitud superior a 97% en cada una de ellas. Finalizado el entrenamiento, se aplicará la matriz de confusión y el método explicativo Layer-wise Propagation para lograr la explicación de cada red.


CONCLUSIONES

El proceso de la creación de las bases de datos fue exitoso, obteniendo así las bases de datos adecuadas y debidamente ordenadas para usarlas en la red neuronal. Hasta este momento aun se sigue ejecutando el entrenamiento de la redes neuronales de cada una base de datos, en donde se aspira a obtener un porcentaje de exactitud mayor al 97% para obtener buenos resultados. Finalizados este proceso, se aplicarán operaciones estadísticas señaladas y el método explicativo, con lo que se obtendrán los resultados finales aptos para presentarlos en el próximo congreso Delfín.
Acosta Castro Salvador, Instituto Politécnico Nacional
Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

CREACIóN DE MEDIOS AUDIOVISUALES PARA EL APRENDIZAJE DE REACCIONES óXIDO-REDUCCIóN A NIVEL SECUNDARIA.


CREACIóN DE MEDIOS AUDIOVISUALES PARA EL APRENDIZAJE DE REACCIONES óXIDO-REDUCCIóN A NIVEL SECUNDARIA.

Acosta Castro Salvador, Instituto Politécnico Nacional. Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Con base en los resultados obtenidos en la prueba PISA 2015 por México, donde en materia de ciencias se obtuvo el lugar 58 de 72 y lo más preocupante, un 83% de la muestra tuvo un nivel 2 o menor (nivel mínimo necesario establecido por PISA para que un estudiante pueda desempeñarse adecuadamente y aspirar a hacer estudios superiores); se hace evidente la necesidad de implementar nuevas estrategias y tecnologías para que el alumno comprenda en su totalidad aquellos temas que se le dificultan. Uno de los principales problemas a los que se enfrentan los chicos del tercer año de secundaria, en el bloque VI del programa académico de la SEP, que lleva por título Formación de nuevos materiales, es el tema referente a estudiar la importancia de las reacciones óxido-reducción. La dificultad de este tema reside en: *El desconocimiento acerca de lo que es el número de oxidación. *El no conocer las reglas para poder asignar números de oxidación a las moléculas. *Tener el criterio para decidir cuando un átomo, en una reacción redox, al pasar de lado de los reactivos, al lado de los productos, se oxida o se reduce. Con base en lo anterior, y así mismo para poder dar cumplimiento a los aprendizajes esperados que marca el programa, entre los que están: *Identificar el cambio químico en algunos ejemplos de reacciones de óxido-reducción en actividades experimentales y en el entorno. *Relacionar el número de oxidación de algunos elementos con su ubicación en la tabla periódica. *Analizar los procesos de transferencia de electrones en algunas reacciones sencillas de óxido-reducción en la vida diaria y en la industria. Se optó por crear medios audiovisuales explicando los aprendizajes esperados por el programa, básicamente con dos intenciones: la primera es que el alumno tenga un recurso tecnológico para que lo pueda consultar las veces que quiera en caso de no comprender en su totalidad el tema y la segunda es que profesores de química de tercer año de secundaria, cuenten con una herramienta más, para poder enseñar a sus alumnos, el tema de reacciones redox, que muchas veces es conocimiento de difícil comprensión para el alumno.



METODOLOGÍA

Primeramente, se describe el procedimiento seguido para poder crear cada uno de los medios audiovisuales que conforman el recurso educativo. En segundo lugar se procederá a explicar con detenimiento, el contenido de cada uno de los videos. Procedimiento 1) Se crea la propuesta de guión, utilizando el programa Microsoft Office Word, para su posterior revisión y corrección por el experto en materia, el M. en T. Guillermo Emmanuel Pech Torres. 2) Con la aplicación que viene instalada por default en el celular, se graba en modo video, la voz en off que acompañará a cada uno de los videos. 3) Con ayuda del programa Adobe Illustrator Creative Suite 6, se crean todas las imágenes que hacen alusión a lo que dice el guion. 4) Para integrar todos los medios creados, se hace uso del programa Adobe Premiere Pro, mismo que permite exportar en video de alta calidad. 5) Haciendo uso de la plataforma en línea YouTube, se creó un canal intitulado Easy RedOx, en donde se sube el video. 6) El experto en materia visualiza el recurso audiovisual y procede a dar indicaciones acerca de las acciones correctivas, en caso de haberlas. Contenido La estructura de los videos y la descripción de los temas que se abordan en cada uno de ellos, se enlistan a continuación. Números de oxidación. Se explica el concepto de número de oxidación. Regla 1. Átomos sin combinar. Se explica la primer regla para asignar números de oxidación. Regla 2. Hidrógeno. Se explica la segunda regla para asignar números de oxidación. Regla 3. Oxígeno. Se aborda la tercer regla para asignar números de oxidación. Regla 4. Tabla periódica. Se ve la relación que guarda cada uno de los elementos con su ubicación dentro de la tabla periódica y su número de oxidación. Regla 5. Molécula neutra. Se explica la quinta regla para asignar números de oxidación. Moléculas con dos átomos. Se presenta la forma en que se asignan los números de oxidación al amoniaco  y al óxido de hierro tres. Moléculas con tres átomos. Se presenta la forma en que se asignan los números de oxidación al fosfato tripotásico  y al carbonato de calcio. Ecuaciones óxido-reducción. Se introducen al alumno los conceptos de oxidación y reducción con el ejemplo: 4Fe + 3O2 → 2Fe2O3 Recta numérica. Se le explica al estudiante como utilizar la recta numérica con el ejemplo: 2K + Cl2 → 2KCl Reacción óxido-reducción 1. Se resuelve el primer ejercicio completo, con la siguiente ecuación química: SiO2 + 2C → Si + 2CO Reacción óxido-reducción 2. Se resuelve el segundo ejercicio completo, con  la siguiente ecuación química: HNO3 + H2S → NO + S + H2O Reacción óxido-reducción 3. Se resuelve el tercer ejercicio completo, con la siguiente ecuación química: PbO2 + Sb + KOH → Pb + KSbO2 + H2O


CONCLUSIONES

Con base en el programa académico propuesto por la SEP para los alumnos de química del tercer año de secundaria, con los medios audiovisuales creados, se puede apreciar que se intentó dar cumplimiento a todos y cada uno de los aprendizajes esperados: *Identificar el cambio químico en algunos ejemplos de reacciones de óxido-reducción en actividades experimentales y en el entorno. *Relacionar el número de oxidación de algunos elementos con su ubicación en la tabla periódica. *Analizar los procesos de transferencia de electrones en algunas reacciones sencillas de óxido-reducción en la vida diaria y en la industria. Con el objetivo de darle seguimiento al proyecto y probar la eficacia del recurso audiovisual creado que lleva por nombre Easy RedOx el M. en T. Guillermo Emmanuel Pech Torres quien reside en Jalisco y es profesor de química a ese nivel educativo, realizará una prueba piloto con sus estudiantes, misma que documentará en un artículo científico.
Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara

LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA


LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA

Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo. Avila Valencia Ana Claudette, Universidad de Sonora. Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora. Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El interés por impulsar el desarrollo de las Micro, Pequeñas y Medianas Empresas (MIPYMES), ha sido cada vez mayor en los últimos años, no sólo en México, sino también en casi todos los países desarrollados o en proceso de desarrollo. En los últimos años se ha incrementado la localización industrial en la área metropolitana, principalmente en algunas ramas de punta como la electrónica, automotriz, zapatera y la cibernética, lo que ha impreso un nuevo sello a la estructura productiva y a la fisonomía de los suburbios tapatíos. Jalisco es la cuarta economía más importante de México en base a su contribución del 11.9% al Producto Interno Bruto Nacional (PIB); por sectores de actividad económica, los porcentajes de aportación al PIB estatal en el año 2015 fueron los siguientes: agricultura, ganadería, aprovechamiento forestal, pesca y caza, 6%; las industrias manufactureras aportaron el 23%; el comercio, restaurantes y hoteles, 25%; los servicios financieros e inmobiliarios, 12%, y los servicios educativos y médicos, 8%. (INEGI, 2015). Para impulsar un negocio no sólo se requiere interés, inversión y tiempo, ya que esto no garantiza su permanencia. De acuerdo con una investigación efectuada en el Centro Universitario de la Costa (CUCosta), 75 por ciento de microempresas del sector comercio en Puerto Vallarta no sobreviven los primeros cinco años a partir de su creación. Para México, las PYMES son un eslabón fundamental, indispensable para el crecimiento del país. Contamos con una importante base de Micro, Pequeñas y Medianas empresas, claramente más sólida que muchos otros países del mundo, debemos aprovecharla para hacer de eso una fortaleza que haga competitivo al país, que se convierta en una ventaja real para atraer nuevas inversiones y fortalecer la presencia de productos mexicanos tanto dentro como fuera de nuestra nación.



METODOLOGÍA

La investigación a realizar es una investigación mixta, cualitativa y de campo,  en un primer momento de alcance descriptivo, para soportar la observación, revisión de documentos y aplicación de cuestionarios. La unidad de análisis del proyecto de investigación descrito se enfocará a las microempresas de comercio del municipio de la ciudad de Puerto Vallarta. La recolección de la información se realizará por medio de una muestra probabilística estratificada de forma proporcional, esto es, conforme al giro comercial de la microempresa, proporcional a la cantidad de estas en el registro de licencias y en un periodo determinado, para de forma analítico-sintético se analizarán los indicadores de las empresas del municipio de Puerto Vallarta y dar respuesta a las interrogantes y objetivos de la investigación. Como primera actividad de investigación se realiza la recolección documental o información de soporte de la investigación la cual en parte se desarrolla con el acceso a biblioteca digital de la Universidad de Guadalajara, proporcionada por nuestro investigador, maestro José Luis López, además del acceso a la biblioteca del Centro Universitario de la Costa. Con acceso a un basta base de información gracias a estos recursos, además del sitios en Internet, en donde pudimos expandir la investigación gracias a sitios del INEGI como el DENUE, Secretaría de Economía, etc.


CONCLUSIONES

Las tecnologías de la información y comunicación han sido fundamentales para el desarrollo de las actuales empresas de comercio, no sólo en Puerto Vallarta, sino en el mundo. En la actividad de investigación colaboramos principalmente en el trabajo de recolección y revisión de información, como parte de los aspectos fundamentales de esta y hasta los principios de la realización y desarrollo del instrumento de investigación. Con el trabajo realizado podemos concluir que: Un 75% de las microempresas no duran más de 5 años por falta de conocimientos de las TICs. De acuerdo con un estudio realizado por el INEGI en el año 2014, logramos identificar que hay un total de 4 millones 926 mil 061 pymes en México. (INEGI, 2014). Según la revista expansión, las Pymes generan 81% del empleo en México. Existen 4.2 millones de unidades económicas en México. De ese universo, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), esta publicación fue hecha por la revista Forbes. (INEGI, 2014)   Hemos culminado este proyecto con gran satisfacción. Obtuvimos muy buena atención por el maestro, fue directo, nos explicaba cualquier duda.
Acosta Reyes David, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE ANDAMIOS PARA REGENERACIóN DE TEJIDO óSEO


DESARROLLO DE ANDAMIOS PARA REGENERACIóN DE TEJIDO óSEO

Acosta Reyes David, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen personas en todo el mundo con problemas para regenerar hueso naturalmente, como debería de realizarse en una persona sana, esto debido a  problemas como: la edad, fracturas o traumas, enfermedades como cáncer o descalcificación. Debido a esto en medicina y odontología se utilizan una gran cantidad de sustancias y dispositivos médicos para la sustitución de tejido vivo, en particular, los materiales bioactivos. En este proyecto se busca realizar andamios de tres composiciones diferentes, los cuales son: poliuretano, poliuretano con 10 % de hidroxiapatita y poliuretano con 20 % de hidroxiapatita, que servirán para la regeneración ósea de manera guiada.



METODOLOGÍA

La metodología es igual para los 3 tipos de componentes. Se pesa el componente a utilizar en la báscula grabataria (en gramos). En un vaso precipitado de coloca el solvente a utilizar (en este caso de utiliza Tetrahidrofurano), el cual se ocupará 4 ml por cada gramo del material a utilizar. Se coloca el agitador magnético dentro de vaso y se coloca el vaso en la parrilla, la cual tiene como función agitar. Se dispone a colocar en el vaso precipitado (que contiene el solvente) el componente a utilizar, el cual se colocará poco a poco, mientras este agitando el solvente en la parrilla. Después de colocar todo el componente, se deja agitando por un poco más.. Se pesa el cloruro de sodio, el cual se pesarán 6 gramos por cada gramo del componente a utilizar. Los moldes a utilizar para la creación de los andamios, se limpian con acetona, toda la superficie y los orificios. Después de que se acabe de agitar, se coloca los gramos pesados de cloruro de sodio dentro del vaso de precipitado (el cual tiene la solución del componente con el solvente). Con una espátula se continúa revolviendo toda la solución, la cual se le agrego el cloruro de sodio. Después con la espátula se prosigue a colocar la sustancia en los orificios de los moldes, quedando completamente llenos cada uno de los moldes. Se dejan secando a temperatura ambiente 48 horas. Después con el removedor, se sacan todos los andamios de los moldes, los cuales se colocarán en un vaso precipitado y se dejarán en el horno durante 48 horas a una temperatura de 35 grados centígrados. Después de sacar los andamios del horno, se continua con el lavado, el cual se ocupará agua desionizada para lavar los andamios para retirar el exceso de sal, esto se hará durante varias veces mientras no se noten residuos de sal en la superficie del agua. Después de lavarlos, se dejan 48 horas secando los andamios en el horno.. Por último, se retiran de horno y se guardan en recipientes especiales, para que continúen con pruebas con células. Nota: las pruebas en células no me tocaron realizarlas por el tiempo, ya que mi tiempo en la estancia de verano era de un mes con tres semanas, y para realizar las pruebas se necesitan algunos meses para obtener resultados confiables.


CONCLUSIONES

Al desarrollar los andamios de los diferentes tipos de composiciones, se llegó a ver que la mezcla esta viscosa, como se pide en los protocolos de desarrollo. Al colocar la mezcla en los moldes y dejar pasar todo el proceso de secado y lavado, se concluyó que los andamios obtenidos en este proceso presentaban las características necesarias para la regeneración ósea; como porosidad, elasticidad, resistencia a la compresión, entre otros. Este trabajo es muy extenso, ya que después de realizar los andamios, se prosigue con las pruebas en células, en este caso, por el corto tiempo que se da en la estancia de verano, no participare en las pruebas. En esas pruebas, se verá si los andamios de los diferentes componentes son viables para la regeneración ósea o no, por lo que se ocupan de varios meses para llegar a ese resultado. Personalmente, esta estancia de verano es una oportunidad maravillosa para aprender más cosas sobre nuestras carreras, en mi caso, aprender más sobre la utilización de diferentes biomateriales en el campo de la salud y en la ingeniería.
Acosta Sanchez Paola, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

ANáLISIS DE LITERATURA PARA EL PATENTAMIENTO DE PRODUCTO: CASO PISTOLA DE LLENADO


ANáLISIS DE LITERATURA PARA EL PATENTAMIENTO DE PRODUCTO: CASO PISTOLA DE LLENADO

Acosta Sanchez Paola, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La necesidad de patentantar un invento es una de las actividades primordiales cuando se crea o se innova alguno, en este caso se tiene la necesidad de patentar una pistola neumática para el llenado de cilindros de gas LP (Licuado de Petróleo) la cual logar mejorar la productividad en el llenado de cilindros y reduce el desperdicio de gas. Se sabe que existen diferentes patentes ya aprobadas de inventos similares a este y eso trae consigo problemas legales y demandas de parte de los inventores si los dos inventos son iguales, además al contar con una parentación se genera un derecho exclusivo sobre el uso del producto, consolidándose en el mercado como innovador en tecnologías y adquiriendo poder de negociar con terceros el uso del producto. La pistola de llenado de gas LP debe poseer diferencias técnicas a los inventos ya registrados para poder ser patentada como nueva o innovadora. Esta facilita la labor de llenado ya que la fijación al cilindro y el accionamiento de la válvula de gas se hace simultáneamente con solo presionar un botón. Ayuda a disminuir el personal para el llenado de cilindros, donde un solo operario puede atender más básculas ya que el proceso de conexión y desconexión es muy rápido. Dicho producto ayuda a reducir de manera considerable el desperdicio de gas LP presentado a la hora de desconexión de la válvula de llenado con la pistola de llenado



METODOLOGÍA

Para realizar la búsqueda y análisis de existencias relacionadas con el invento ya mencionado o modelos similares, se inició una investigación de diferentes patentes ya registradas en los distintos institutos de propiedad industrial que entraran al área de llenado con Gas LP, donde se fueron comparando y descartando aquellas que no tenían relación alguna con el producto, luego se especificaron las ventajas y diferencias técnicas que este producto tiene con los competidores, haciendo hincapié en la aplicación de la norma; NOM-EM-004-ASEA-2017, la cual menciona que cualquier accesorio usado en el llenado de cilindros con Gas LP tiene que cumplir con una certificación UL (Underwriters Laboratories).


CONCLUSIONES

Como resultado de la presente investigación se obtuvo la información necesaria para hacer la comparación correcta entre productos y generar un adecuado documento donde se exprese el producto con claridad, así como sus especificaciones, ventajas para el cliente, restricciones y normativas.
Acosta Valdelamar Ana Laura, Instituto Politécnico Nacional
Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

DESARROLLO DE DISPOSITIVOS AVANZADOS PARA EL ALMACENAMIENTO DE ENERGíA.


DESARROLLO DE DISPOSITIVOS AVANZADOS PARA EL ALMACENAMIENTO DE ENERGíA.

Acosta Valdelamar Ana Laura, Instituto Politécnico Nacional. Hurtado Gomez Misael de Jesus, Instituto Politécnico Nacional. Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

Las investigaciones y experimentos con fines académicos e industriales están relacionadas y en algunos casos dependen de espacios en donde es necesarios que se cuente con equipos y materiales de laboratorio que sirven de durante el proceso de investigación. La implementación de ciertos equipos de laboratorio facilita la determinación de ciertos parámetros que poseen las muestras y que son importantes para que el trabajo se lleve a cabo. La operación de algunos de los equipos de laboratorio debe de hacerse con el conocimiento adquirido durante la capacitación para un uso adecuado de dichos equipos. El problema se encuentra en que existe un limitado número de personas que saben operarlos y como consecuencia el análisis de algunas muestras a veces puede verse limitado. Por esta razón es necesario tener evidencia escrita sobre el funcionamiento correcto de los equipos que serán utilizados durante el proceso de investigación y con ello poder obtener que el número de personas que puedan operar los equipos aumenten con ayuda de manuales prácticos para que cualquier usuario que requiera utilizarlos lo haga de manera adecuada y eficiente el proceso de investigación.



METODOLOGÍA

En el proyecto Desarrollo de dispositivos avanzados para el almacenamiento de energía, se recibió adiestramiento sobre la operación de algunos equipos de laboratorio como un analizador elemental, un analizador termogravimétrico, un espectrómetro de masas y cromatógrafo de gases que serán utilizados durante la estadía. La función de un analizador elemental es poder determinar el contenido total de carbono, hidrógeno, nitrógeno, y azufre presentes en las muestras en donde era necesario conocer las cantidades de estos elementos. Esto sucede gracias a que la muestra se oxida completa e instantáneamente mediante una combustión con oxígeno y a una temperatura alta, donde después los productos de la combustión son transportados a un tubo de reacción con ayuda de un gas y finalmente son separados por un detector de conductividad térmica. Mientras que un analizador termogavimétrico permite conocer la estabilidad térmica de una muestra, se observa la pérdida de peso al aumentar la temperatura. En el proyecto está información aporta conocimiento básico de la muestra sobre la resistencia de los materiales que serán utilizados en las celdas de almacenamiento de energía. Con un espectrómetro de masas es posible obtener información acerca de la masa molecular de los compuestos de la muestra o de ser así también su información estructural, detectar su presencia o cuantificar su concentración. Y finalmente el cromatógrafo de gases cuya función es la de separar y analizar los componentes que tiene una muestra. Después de conocer la función de cada equipo fue necesario revisar y leer manuales de uso básico para la operación adecuada de los equipos  y con esto fuera posible presenciar el uso de cada uno, y así poder manipularlos con algunas muestras y al final poder interpretar algunos resultados.


CONCLUSIONES

Durante la estancia de verano fue posible adquirir conocimiento sobre la función y operación de equipos de laboratorio e interpretación de algunos resultados, como lo son el analizador elemental, analizador termogavimetrico, espectrómetro de masas y cromatografo de gases; esto gracias al uso de manuales. Se caracterizaron algunas muestras del proyecto de investigación, con el fin de poner en práctica la operación de los equipos.
Aguayo Cázares Lizeth Alejandra, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

FPGA


FPGA

Aguayo Cázares Lizeth Alejandra, Instituto Tecnológico de Ciudad Juárez. Palomares Barragán Ludwin Felipe, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Un FPGA (field-programmable gate array) es un dispositivo que está formado por bloques lógicos cuya interconexión y funcionalidad puede ser configurada mediante un lenguaje especializado HDL (hardware description language). Dicha configuración puede ser en el momento, lo cual hace que las aplicaciones sean directas. Además, estos dispositivos manejan velocidades muy altas de adquisición y procesamiento y, a diferencia de los microcontroladores, el procesamiento puede ser paralelo en vez de secuencial. Actualmente los aparatos electrónicos como los celulares suelen tener uno o más FPGA’s para realizar las operaciones de alto consumo de energía e incrementar la vida de la batería. Las aplicaciones de estos dispositivos son numerosas y necesarias para la industria electrónica, pero el configurar un FPGA puede resultar difícil para aquellos que no se dediquen a la rama de ingeniería en software. Adicionalmente, muchos de los recursos de las tarjetas se pueden desperdiciar por un direccionamiento deficiente a la hora de configurar los circuitos que se requieren para una aplicación en específico. Por ello, es de gran utilidad gestionar los recursos con los que cuenta el FPGA de manera eficiente, y una manera adecuada para realizar esto es direccionando desde el diseño para la aplicación que se requiera; desarrollando una IP (Intellectual Property) específica.



METODOLOGÍA

Metodología Como objetivo final, se busca desarrollar una IP sencilla para adquisición y procesamiento de señales analógicas, para lo cual se debe iniciar con las bases para llegar hasta dicho desarrollo. Primero se realizará la búsqueda de información, hoja de datos, configuración y funcionamiento del FPGA (DE1-SoC, que es con el que se estará trabajando). Seguido a esto, se estudiará dicho FPGA, así como su entorno y el software para su configuración (Quartus). Después, se desarrollarán prácticas que incluyan el uso del procesador del FPGA para entender cómo realizar la comunicación con el HPS (Hard Processor System). A la par, se estudiarán las bases del procesador del FPGA. Añadido a esto, se realizará la comunicación ARM-FPGA-Computadora Host, mediante una imagen cargada del sistema operativo Linux LXDE en el FPGA. Se va a interactuar con el entorno del FPGA con el sistema operativo cargado, utilizando periféricos. Después se probarán algoritmos para adquisición de datos en el FPGA, experimentando con distintos diseños y procedimientos que se propondrán. Se continuará con la prueba y experimentación de algoritmos. Finalmente, se realizará la implementación de algoritmos para la adquisición y procesamiento de datos, y se documentarán los resultados.


CONCLUSIONES

Conclusiones (resultados obtenidos o por obtener). Los resultados obtenidos hasta el momento se mencionarán a continuación en forma de lista: Comunicación en puerto serial con la tarjeta de desarrollo Ejecutar una aplicación desde una computadora host Elaboración las practicas propuestas por Intel para el uso del ARM Implementación de descripción ADC-DAC para aplicar una transformación de señal trifásica a plano estacionario.
Aguayo de la Cruz Mayra Dolores, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO


CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO

Aguayo de la Cruz Mayra Dolores, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un problema de gran envergadura que con el paso del tiempo ha ido incrementando. Actualmente los estudios realizados a ríos en diferentes zonas del mundo dejan entrever que las principales razones que provocan la contaminación de éstos son agentes químicos, urbanos e industriales así como material sólido (disuelto o en suspensión) generado por acción del hombre, que afectan negativamente los procesos naturales de respiración y fotosíntesis de todo organismo que los habitan, ocasionando su muerte prematura. En el caso del río Querétaro se ha detectado un aumento significativo de desechos, esto como consecuencia de acuerdos establecidos entre empresas y organismos gubernamentales que les permiten depositarlos en el río, para posteriormente en plantas de tratamiento reducir sus índices de contaminación. El mal estado del río es tan grande, que para poder recuperarlo se necesita un alto costo de inversión. Los estudios que se realizan al río no determinan un método para disminuir los efectos provocados por la contaminación, por tal motivo es necesario proponer un sistema capaz de clarificar el agua del rio con material disponible en la región a un costo accesible.



METODOLOGÍA

El objetivo primordial es establecer y comparar diferentes sistemas de biofiltración que permitan clarificar muestras de agua obtenidas del Río Querétaro con ayuda de materiales pétreos y la presencia de Papiro (Cyperus papyrus), que en conjunto reducirán los índices de contaminación de las muestras. Para llevar a cabo el proyecto, se decidió muestrear 3 puntos específicos del río Querétaro: aguas arriba (La cañada localidad de El Marqués), aguas abajo (Las Adjuntas, cerca de los límites entre Querétaro y Guanajuato) y un punto intermedio dentro de la ciudad de Santiago de Querétaro (Avenida universidad, cerca de la UAQ C.U.); a fin de establecer condiciones iniciales (muestras de control). Las muestras obtenidas en cada uno de los puntos, se depositan en un prototipo de biofiltración que previamente se armó para el tratamiento de aguas; el cual consta de columnas horizontales con presencia de materiales como tezontle y piedra pómez de diferentes granulometrías; así como Papiro (Cyperus papyrus) con el fin de cuantificar y aumentar la remoción de partículas suspendidas presentes en el agua muestreada por medio de la filtración. La filtración (proceso desarrollado en los prototipos de columnas horizontales) no es el único método utilizado para el proceso de clarificación de las muestras obtenidas de diferentes puntos del río, se pueden utilizar otros como lo son la floculación (proceso cuyo principal componen es el yeso en cantidades especificas), la oxidación (mismo proceso que la floculación solo que aquí el componente principal es el agua oxigenada) y la combinación de ambas, buscando obtener resultados óptimos utilizando la cantidad mínima de material. Para establecer conclusiones es necesario tener parámetros a evaluar, los cuales se obtendrán de los resultados arrojados de las pruebas de pH, turbidez y solidos totales aplicadas a las muestras, ya sea de entrada (control) y a las que ya se les ha aplicado el método de clarificación.


CONCLUSIONES

Una vez comparados los resultados obtenidos de las pruebas realizadas, se determinó que con las muestras clarificadas se obtuvieron mejores índices de pH, turbidez y sólidos totales que con las muestras de control; aun así, estos índices no cumplen con lo establecido en la norma NOM-127-SSAI-1994, por lo que se seguirán realizando pruebas para encontrar una solución eficaz y eficiente al proceso de clarificación.
Aguayo Tut Oscar Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango

SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE


SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE

Aguayo Tut Oscar Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Barzalobre Cruz Ulises, Instituto Tecnológico Superior de Huauchinango. Castro Sánchez María Luisa, Corporación Universitaria del Caribe (Colombia). Ventura Ahumada Víctor Manuel, Universidad de Colima. Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diversos dispositivos que le ayudan a las personas con discapacidad visual a utilizar el sistema Braille, un ejemplo de ello son las distintas impresoras y máquinas de escribir que atañen la estructura de éste sistema, pero dichos dispositivos solo suplen la necesidad básica de comunicación e intercambio de conocimiento y en estos tiempos de tecnología e innovación eso ya no es suficiente, puesto que ahora la preocupación tiene una trascendencia más avanzada y enfocada a la comodidad de las personas que utilizan este sistema y por ende los dispositivos, además de lo expuesto anteriormente hoy por hoy no existe un sistema ergonómico que integre los sistemas de escritura, lectura e impresión para el sistema Braille, que le permita a la persona con discapacidad visual escribir de forma cómoda, leer lo que está escribiendo, tener la oportunidad de corregir si tuvo algún error y luego imprimir lo escrito.



METODOLOGÍA

Para el diseño del sistema de tracción se tomó en cuenta el funcionamiento que debe obedecer en el dispositivo y con base a eso se diseñaron los componentes de éste sistema que son dos pares de rodillos que se encuentran unidos por un eje, 4 micro rodillos, una rampa y un chasis en el que se encontraran todos los sistemas. En este mismo sentido y para el diseño del sistema de impresión se tomó el mismo criterio que para el primer sistema y con base a ello se diseñaron cada una de las estructuras del sistema las cuales son el diseño del recorrido que va a realizar los punzones, los punzones que se integraron a los solenoides y por último la estructura de soporte de los solenoides. Basándose en los diseños descritos anteriormente, se procedió a la manufactura de cada uno de los componentes de cada sistema, tomando en cuenta que no todos son maquinables y por ende solo se realizaron aquellos que si cumplían con la condición, recalcando que éste proceso se dividió en dos partes, una que fue realizada en la impresora 3D y la segunda en el CNC, para la primera solo fue necesario el diseño de las piezas los cuales se realizaron en el software SolidWork, luego de esto se imprimieron las siguientes piezas: los rodillos, los micro rodillos, las estructuras de soportes de los micro rodillos, la camisa de soporte de  los solenoides, los rodillos de tracción para la banda y los rodillos de riel para la banda. Para la segunda parte se apoyó en el software MastercamX5, en el cual se estableció el tipo de maquinado de cada pieza, el tipo de cortador o broca a utilizar para la fabricación y se obtuvo el código G, el cual fue introducido en el CNC, para la fabricación de las piezas, es importante mencionar que las piezas maquinadas en el CNC fueron: las bases laterales del chasis, las bases laterales de la rampa, el chasis, la base de soporte para el motor NEMA y la base de soporte para el motor de 5V, luego de la fabricación de las piezas se integró todas las piezas de los sistemas. En éste mismo sentido se procedió con el dimensionamiento del sistema eléctrico, estructurando un circuito de alimentación con batería de respaldo el cual lo integran diversos componentes como resistencias, condensador, diodo, SCR, su funcionamiento se encuentra fundamentado en la conmutación entre la energía eléctrica proporcionada por la red y la fuente de respaldo, éste se puede analizar en dos momentos, uno cuando existe alimentación por parte de red eléctrica y otro cuando existe una interrupción en éste flujo, la primera parte permite el suministro de energía para los diversos componentes del sistema y de la misma manera cargar a la batería de respaldo, cabe destacar que cuando se encuentra en este estado el circuito el tiristor se encuentra por un pase de cero, esto es causado por la respuesta positiva que existe del ánodo con respecto al cátodo denominado como polarización inversa. En el segundo momento se alimentará el circuito por medio de la batería de respaldo, ocasionando que en el SCR exista una polarización directa y de forma simultanea exista una corriente suficiente a través de la compuerta que lo active permitiendo el flujo de corriente hacía todos los componentes del sistema. Tomando en consideración cada uno de los sistemas que se diseñaron se procedió con el diseño ergonómico del dispositivo en el que por una parte se tomó en cuenta la ubicación espacial de la integración de todos los sistemas y por la otra se enfocó en el control de escritura del dispositivo, cabe destacar que para poder diseñar éste control se realizó un estudio  sobre las dimensiones de la mano de una muestra de 30 personas y sobre la cual se tomaron medidas basándose en la medidas antropométricas las cuales fueron la largura de la mano, la largura de la palma y la altura de ésta misma, el diámetro de agarre, la distancia del final del pulgar hasta el final del dedo índice y la largura del dedo índice, medio, anular y pulgar, y a partir de éstos se estructuró la forma del control y la ubicación de los botones de escritura.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir diversos conocimientos relacionados al diseño, la manufactura, el sistema eléctrico, la ergonomía y el manejo de varios software de diseño y manufactura como Solidwork y MastercamX5, en los que se realizaron los diferentes diseños de la conformación mecánica del dispositivo y sobre el cual se puede decir que si se quiere obtener una propuesta eficiente se debe realizar múltiples pruebas para así encontrar la manera más óptima, posterior a ello y basándose en lo aprendido cabe destacar que para ampliar los conocimientos adquiridos se aprendió a utilizar la máquina CNC, para realizar el maquinado de las piezas. Por otra parte, en el sistema eléctrico se puede decir que si se desea garantizar un flujo eléctrico continuo y confiable en todos los sistemas mencionados anteriormente en caso de que exista de una interrupción en el suministro de energía proporcionada por la red eléctrica se hace necesario la implementación de una batería de respaldo en el que el circuito se fundamente en la implementación de un tiristor SCR.
Aguiar Bernal Perla Denise, Universidad Autónoma de Occidente
Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente

ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO


ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO

Aguiar Bernal Perla Denise, Universidad Autónoma de Occidente. Garcia Valenzuela Siria Alejandra, Universidad Autónoma de Occidente. Guardado Cano Gloria Paulina, Universidad Autónoma de Occidente. Lopez Moreno Lorenicela, Universidad Autónoma de Occidente. Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El Fuerte es el único municipio en el noroeste de México en producción de arándano y Sinaloa es el principal productor de maíz en el país, registrando una producción anual superior a 6 millones de toneladas en las cosechas. Sin embargo más del 50% de la materia prima se exporta a otros lugares sin ser transformada en otros productos, por lo que se decidió hacer mermelada a base de arándano azul con elote debido al gran número de producción de estos que hay en la región.



METODOLOGÍA

Se elaboró una mermelada nueva, hecha de elote y arándano azul, ya que estos alimentos son considerados originarios de la región, en el estado de Sinaloa. Se realizó una mermelada en el laboratorio de alimentos de la Universidad Autónoma de Occidente unidad Los Mochis, de acuerdo a la norma CODEX para las frutas jaleas y mermeladas (CODEX STAN-296-2009), de acuerdo a la descripción de mermelada de agrios. Para esto se realizó un diseño de mezclas hasta encontrar los parámetros ideales de la mermelada como color, olor, sabor, pH, °Bx, actividad de agua, entre otros.


CONCLUSIONES

RESULTADOS PRUEBA 1  pH:3,°Bx:59, % humedad:2.6 %,temperatura: 28°C,  Actividad de agua: 0.858aw / 25.9°C PRUEBA 2 pH:3,°Bx:64, % humedad:2.8 %,temperatura: 28.2°C,  Actividad de agua: 0.742aw / 25.3°C CONCLUSIÓN Se logró cumplir con el objetivo de la investigación el cual fue elaborar una mermelada a base de elote y arándano (Blueberry) con amaranto. El diseño de mezclas de los parámetros ideales de la mermelada fue la prueba 1. Fue una estancia que nos dejó un aprendizaje significativo ya que conocimos materiales y técnicas en el laboratorio de alimentos, reforzando los conocimientos adquiridos durante la carrera.  
Aguilar Álvarez Noé, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato

ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO


ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO

Aguilar Álvarez Noé, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Chávez Galván Aurea Lizeth, Instituto Tecnológico de Jiquilpan. Chávez Martínez Diana Laura, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las características exigidas por el cuerpo humano para una articulación artificial exigen que los materiales utilizados  para este propósito deben tener alta resistencia a la corrosión y tener alta dureza, por tanto en este estudio se planea el tratamiento de borurado sobre una aleación AISI 316 LVM (ASTM F-138) para estudiar el efecto de este sobre su dureza y la resistencia a la corrosión, este tratamiento termoquímico se lleva a cabo empleando diferentes temperaturas y periodos de tiempo.



METODOLOGÍA

El procedimiento experimental de las muestras se llevó a cabo en 3 etapas: 1. Preparación de las muestras. 2. Boronización de la pasta. 3. Análisis de la dureza y corrosión.   Se utilizaron barras de acero AISI 316 LVM (ASTM F-138), con una composición química de criolita 5%, carburo de silicio 90-95% y carburo de boro 5%. En las cuales fueron obtenidas 7 muestras con un diámetro de 12.7mm x 4mm, cortadas por una segueta mecánica y posteriormente el lado a tratar de cario con un torno tradicional empleando un avance de 600 Rev/seg; cada una de estas muestras se pulieron manualmente con papel de lija SiC de 1500, 2000, 2500, 3000, 5000. 7000 y 10000, hasta lograr un acabado espejo. Cabe resaltar que usamos 2 muestras para cada estudio (2hrs., 4hrs. y 6hrs.) y una virgen. Posteriormente para limpiar la superficie, las muestras se lavaron consecutivamente con un baño ultrasónico con acetona para  quitar suciedad y contaminación durante 3 min. Enseguida se depositaron las muestras en un horno de secado a 90°C durante 2 horas sobre una lámina de metal para quitarle restos de agua. El proceso de boronización de la pasta se realizó extendiendo la pasta de boro sobre la muestra de acero para  depositar una capa con espesor de 2 gramos. Las muestras se colocaron dentro del horno previamente calentado a 900°C con ayuda de unas pinzas. Al pasar las primeras 2 horas fue sacada la primera lámina que contenía dos muestras, e igualmente con las de 4 y 6 horas, dejándolas enfriar naturalmente hasta el día siguiente. Fue retirado el exceso de material carbonizado para no dañar la capa endurecida con ayuda de unas lijas SiC de 400, 500, 600, 2500, 3000, 5000, 7000 y 10000, fueron llevadas a la toma de muestra de dureza en un micro identador mmt-x con un software modelo ciemex; utilizando solamente una muestra de cada uno de los estudios, realizando 5 lecturas a estas 3 muestras y  también a la virgen, basándonos en la norma E384-10E1 (Método de prueba estándar para Knoop y Vickers). La prueba de dureza se realizó bajo la norma ASTM E384, mediante el ensayo de Microdureza Vickers (HV). Las mediciones se obtuvieron aplicando una carga de 500 g. El estudio de corrosión se realizó utilizando la técnica de polarización (Tafel) y la espectroscopia de impedancia electroquímica (EIS). Para realizar este estudio es importante que todas las piezas a usar estén limpias de cualquier residuo, por lo tanto; las probetas, la celda y las herramientas se les aplicaron un baño ultrasónico con alcohol etílico, acetona, propílico y agua destilada, cada baño con una duración de 10 min. Finalmente metimos las probetas a la celda electroquímica anteriormente lavada y armada, se le añadió 35 ml de solución de Hank a temperatura ambiente, se utilizaron un electrodo de plata y una malla de platino como electrodo de referencia y contraelectrodo, respectivamente. Se usó un área de 12.7mm x 4mm de sustrato de acero borurado como electrodo de trabajo. Antes de las mediciones, se aplicó un potencial de circuito abierto (OCP) durante 60 min. Para la prueba de impedancia, se usó una señal de CA sinusoidal de 10mV (RMS) de amplitud y barrido de 0.1 Hertz a 10000 Hertz. Para obtener los diagramas de Tafel de nuevo se realizó un potencial de circuito abierto (OPC) durante 60 min y después se hizo el escaneo de -250mV frente al potencial de corrosión, Ecorr(grafico de Tafel catódico) y el escaneo continuo a +250 mVfrente a Ecorr (grafico de Tafel anódico). Se usó un paso de 1 mV cada 2S (0.5 mVis). La curva resultante es una gráfica del potencial aplicado frente al algoritmo de la corriente medida. Para determinar la corriente de corrosión (Icor) se superpuso una línea recta a lo largo de la porción lineal de la curva anódica o catódica y se extrapola a las condiciones ideales de EarrUnder. El grafico de Tafel catódica es lineal en un rango de potenciales. Para una gráfica de Tafel catódica esto ocurre entre -500 mV y -250 mV. ¿Cómo se comporta la corrosión ante materiales inoxidables? Estos materiales tienen una zona de comportamiento catódico de bajo potencial y potencial alto a la zona anódica. Si aumenta el potencial se comporta como un ánodo y se oxida, la intensidad de corriente mide la velocidad de corrosión.


CONCLUSIONES

En el proyecto presentado anteriormente se observó la aplicación del borurado a 6 probetas de acero AISI 316 LVM (ASTM F-138), estas fueron tratadas a diferentes condiciones tanto de tiempo como de temperatura, en la búsqueda con respecto a la dureza antes y después del tratamiento se llegó a la conclusión de que en un tiempo intermedio, como una temperatura media es favorable para los resultados de dureza ideales. El estudio arrojo que la dureza fue aumentando según las horas que estuvieron dentro del horno, por lo tanto se puede observar que la dureza menor (virgen) fue de 388.8± 21.3 HV y la mayor dureza final con 796.3± 76.2 HV (6hrs) a diferencia de las demás probetas con mayor o menor temperatura y tiempo. En ambientes corrosivos, las muestras no boronizadas exhiben una resistencia a la corrosión mayor en comparación con las muestras boronizadas.  Es por tanto que llegamos a la conclusión de que este tratamiento no se recomienda para el uso de una prótesis, sin en embargo sí podrían usarse para uso alimentario e instrumentos quirúrgicos, ya que la dureza si aumento significativamente.
Aguilar Apolinar Monserrat, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.


INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.

Aguilar Apolinar Monserrat, Tecnológico de Estudios Superiores de Jocotitlán. Lázaro Buenrrostro José Luis, Instituto Tecnológico Superior de Apatzingán. Peñaflor Ruiz Jessica Lizbeth, Instituto Politécnico Nacional. Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Siendo Uruapan Michoacán, México la capital mundial del aguacate por la comercialización a nivel nacional e internacional, se identificó que la contaminación atmosférica, de agua y suelo son aspectos que generan un impacto negativo en el proceso de cultivo de la fruta por lo que, se requiere dar solución inmediata que asegure la calidad de la misma para el consumidor, usuario o cliente.



METODOLOGÍA

Se considera la investigación de tipo documental: Su objetivo es el desarrollo de las capacidades reflexivas y críticas a través del análisis, interpretación y confrontación de la información recogida. Para ello, se desarrollará la fundamentación teórica como apoyo al proceso de investigativo. La investigación tipo descriptivo: Constituyen una "mera descripción de algunos fenómenos", para lo cual, se identifica una problemática donde el fenómeno a investigar es el efecto negativo de la contaminación atmosférica, de agua y sobre todo en el proceso del cultivo de aguacate. El tipo de investigación de  campo: También conocida como investigación in situ ya que se realiza en el propio sitio donde se encuentra el objeto de estudio, el cual es el proceso del cultivo de aguacate en una huerta determinada en la ciudad de Uruapan, Mich. Desarrollo del protocolo de investigación. Diseño para  la presentación del protocolo de investigación y la Wix. Entrega del CD de la investigación.


CONCLUSIONES

Tomando como base la metodología de la investigación, se detectó la realidad que se vive en la ciudad de Uruapan, Michoacán respecto al impacto negativo en el medio ambiente. Así mismo, el manejo de los conocimientos adquiridos sobre la Ingeniería Ambiental respecto a la contaminación atmosférica, de agua y suelo que ayudó a identificar las causas por las que el proceso de cultivo de aguacate se ve afectado por este fenómeno que son: la quema descontrolada de árboles, la alteración del ciclo hidrológico y el abuso de  uso de agroquímicos. Por lo que, el desarrollo de un protocolo de investigación es el parte aguas para presentar un abanico de alternativas de solución que disminuya los niveles de contaminación para tener una tierra y frutos sanos.
Aguilar Burgoin Hector Alfredo, Universidad Autónoma de Baja California Sur
Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)

DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.


DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.

Aguilar Burgoin Hector Alfredo, Universidad Autónoma de Baja California Sur. Castro Gaytán Oscar, Universidad de La Salle Bajío. Toledo Cornejo José Alexis, Universidad Autónoma de Baja California Sur. Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Existen distintas formas de generación de energia eléctrica, la forma más común es por medio de combustibles fósiles. Los cuales son caros y contaminantes; ya que representan alrededor del 60% de las emisiones mundiales de gases de efecto invernadero. El aumento en la necesidad de energía, y la necesidad de la reducción de emisiones; están provocando numerosas investigaciones en fuentes de energía alternativas o diversas maneras de reducir la liberación de partículas contaminantes. Pese a que Colombia genera cerca del 80% de su electricidad por medio de hidroeléctricas, aún tiene dependencia de combustibles finitos y perjudiciales para el medio ambiente. Añadamos a esto, que tiene un gran potencial solar que puede ser aprovechado mediante sistemas solares fotovoltaicos, sobre todo en la zona del Atlántico, justo donde se encuentra la institución a estudio.



METODOLOGÍA

De manera general, este trabajo estimará el número de paneles fotovoltaicos que podrán ser instalados en el área disponible del Politécnico de la Costa Atlántica. Posteriormente, utilizando el software Sketchup, se realizará un modelo 3D de la zona junto con los paneles fotovoltaicos y sus dimensiones reales. Con el software PVsyst se procederá a efectuar la simulación del sistema, con esto se obtendrá la generación total de energía además de las perdidas en eficiencia por sombreado. Asimismo, se estimará la reducción de emisiones de gases de efecto invernadero que se evitaran al instalar el sistema fotovoltaico. Finalmente, se realizará el analisis financiero para ver la rentabilidad del proyecto.


CONCLUSIONES

Se espera que la rentabilidad del proyecto fotovoltaico sea favorable debido a los altos precios de las tarifas eléctricas en Colombia. Además, en este país se aportan bonos financieros a instituciones o empresas que generen energia limpia y renovable. Por otra parte, se espera que la reducción de emisiones contaminantes sea pequeña, ya que al generar cerca del 80% de la electricidad de Colombia por medio de centrales hidroeléctricas el factor de emisiones para partículas contaminantes se mantiene bajo en comparación de países como México
Aguilar Cardona Mario, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Marco Vinicio Félix Lerma, Instituto Tecnológico José Mario Molina Pasquel y Henriquez

DISEñO, SíNTESIS Y CARACTERIZACIóN DE MATERIALES BASADOS EN MADERA PLáSTICA OBTENIDA POR EL RECICLAJE DE RESIDUOS MADEREROS.


DISEñO, SíNTESIS Y CARACTERIZACIóN DE MATERIALES BASADOS EN MADERA PLáSTICA OBTENIDA POR EL RECICLAJE DE RESIDUOS MADEREROS.

Aguilar Cardona Mario, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Donato de la Cruz Diana Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Marco Vinicio Félix Lerma, Instituto Tecnológico José Mario Molina Pasquel y Henriquez



PLANTEAMIENTO DEL PROBLEMA

En la actualidad nuestro planeta sufre una serie de problemas medio ambientales que nacen con el proceso de globalización e industrialización en el mundo, donde tales métodos han generado efectos que ponen en riesgo la salud humana y la permanencia de una serie de ecosistemas, y como país no quedamos exceptos de aquellos. Por estos motivos distintos gobiernos apuntan a la necesidad de contener la contaminación que se genera producto de las malas prácticas que se originan en distintas industrias. En México se desechan 10 mil 350 toneladas de residuos plásticos al día, existen muchos tipos de plásticos, aunque el mercado está dominado por cuatro tipos principales:  Polietileno (PE): Bolsas de plástico, láminas y películas de plástico, contenedores (incluyendo botellas), microesferas de cosméticos y productos abrasivos.  Polyester (PET): Botellas, envases, prendas de ropa, películas de rayos X, etc.  Polipropileno (PP): Electrodomésticos, muebles de jardín, componentes de vehículos, etc.  Cloruro de polivinilo (PVC): Tuberías y accesorios, válvulas, ventanas, etc. La mayor parte de los plásticos se emplean en la fabricación de envases, es decir, en productos de un solo uso. (Greenpeace 2019) Hoy en día se han descubierto varias formas de aprovechamiento de este recurso en colaboración con otros, dando oportunidad al reaprovechamiento. Entre esas formas de reciclaje se encuentra el WPC (Wood plastic composites), materiales híbridos formados básicamente de una matriz y de un refuerzo, como matriz es el plástico y como refuerzo por sus propiedades serial un fibra natural, utilizando como principal los residuos de la madera o mejor conocido como aserrín que muchas empresas madereras consideran como un desecho. Sus propiedades tales como resistencia a la humedad, resistencia a la flexión lo hace un material con muchísimas aplicaciones dentro de la industria de la construcción. Con estos conocimientos surge la idea de investigar más a fondo este tipo de material y hacer una recopilación de las investigaciones más importantes ya que es un campo muy amplio con muchas oportunidades.



METODOLOGÍA

En el presente trabajo de investigación Diseño, síntesis y caracterización de materiales basados en madera plástica obtenida por el reciclaje de residuos madereros corresponde a un proyecto de desarrollo por cuanto está encaminado a resolver ciertos problemas planteados.  En México se tiran muchos polímeros los cuales afectan al planeta alrededor de 20,000 millones de botellas al año de los cuales tan solo el 58% de este se recicla generando una gran cantidad de desperdició que se presentan aun siendo una cantidad significativa la que se recicla, al igual la madera genera una gran cantidad de basura alrededor de 600 toneladas anuales en la región sierra-occidental. Al nosotros reciclar la fibra de madera y el polímero se presente utilizar este para poder realizar un nuevo producto llamado compuesto de madera plástica. WPC que consiste en fundir el plástico (preferentemente HDPE, LDPE Y PP) y fibras (MADERA, BAMBÚ, AGAVE, LECHUGUILLA, COCO, CELULOSA, ETC.) en conjunto de algún agente de acoplamiento que estos aparte de ser más usuales en el consumo diario se funden antes de los 200°c que esta es la temperatura límite para que la madera reciba calor ya que después pierde sus propiedades. Al igual también se realizaron diversas pruebas de las propiedades físicas cómo: Resistencia a:  IMPACTO  TRACCIÓN  FLEXIÓN  COMPRESIÓN  REACCIONES IGNÍFUGAS La meta final de esta metodología es establecer unas bases científicas para diseñar y mejorar las actividades de diseño, dotando al diseñador de una fundamentación teórica, basada en las herramientas y procesos de la lógica y el pensamiento racional.   DISEÑO DE LA INVESTIGACIÓN La metodología con la cual se llevó a cabo este proceso se presenta por una serie de fases que estas son: Selección de la materia prima Material compuesto homogéneo Obtención del pelet por medio de extrusión Pelet trabajado con inyección Probeta estándar Materia prima


CONCLUSIONES

Este desarrollo tecnológico ha permitido elaborar un material compuesto, amigable con el medio ambiente, con materiales de reuso, a través de una tecnología de procesamiento disponible y sencilla y ha producido un material de costo atractivo, con propiedades mecánicas suficientes para pensar en  una serie de posibles aplicaciones y que puede cubrir un nicho de mercado, especialmente apropiado para sectores de bajos recursos y para productos de uso doméstico. Es recomendable que los materiales reciclados que se producen en el país, se consideraren para buscar su reutilización y con ello apoyar el entorno del mejoramiento ambiental vinculado directamente a la ingeniería. El postconsumo en materiales de tipo polimérico es un elemento a favor en este proyecto con beneficios en la reducción de costos al obtener el material compuesto desarrollado. Este trabajo promueve el aprovechamiento del aserrín de pino extraído de la madera que es el tipo que se utiliza más en este país permitiendo hacer atractivo su uso, como ya se había mencionado, para apoyar el medio ambiente y evitar que este material vaya directamente a los desechos. Es importante considerar algunos otros materiales plásticos para el desarrollo de nuevos compuestos, entre ellos el polietileno de alta y baja densidad y el PET.  En este desarrollo se logró observar que al realizar la separación del aserrín las partículas de éste,  de forma fibrilar, presentan un arreglo casi lineal y la geometría se conserva, en cuanto a sus dimensiones, en todas y cada una de las mallas.  Con las investigaciones realizadas hasta el momento se pretende, en un futuro, ampliar el panorama de los materiales compuestos generados con productos o materia prima, de origen reciclado.
Aguilar Ortiz Jatzin Armando, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

OPTIMIZACIóN DE UN ROBOT DE SERVICIO AUTóNOMO


OPTIMIZACIóN DE UN ROBOT DE SERVICIO AUTóNOMO

Aguilar Ortiz Jatzin Armando, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El Proyecto consiste en un robot de servicio acotado a una tarea específica: detectar, mediante una cámara, pelotas azules y rojas, tomarlas con su pinza y llevarlas a una cesta del mismo color.



METODOLOGÍA

Se revisó el robot y se hicieron pruebas para detectar la falla. Una vez detectada la falla se procedió a las reparaciones. Posterior a eso se adquirieron conocimientos acerca de la biblioteca libre de visión computacional OpenCV, la cual es la encargada del procesamiento de las imágenes de la cámara; y se analizó el algoritmo utilizado anteriormente en el robot. Se realizaron pruebas para analizar el funcionamiento del robot. El algoritmo original para la detección de pelotas utilizaba un método en el que se detectan los bordes de los objetos en las imágenes, mediante el algoritmo de Canny, para posteriormente aplicarle la transformada de Hough para circunferencias. La transformada de Hough sirve para detectar figuras geométricas simples en las imágenes, en este caso circunferencias. Debido a la iluminación y a la sombra de las mismas pelotas los bordes de las pelotas detectados por el algoritmo de Canny no siempre eran exactamente circulares y por lo tanto no se detectaba ninguna circunferencia en la imagen. Se realizaron modificaciones en el algoritmo original y se probó. Dichas modificaciones consistieron en cambiar los parámetros del algoritmo de Canny y la transformada de Hough. Los resultados obtenidos fueron desfavorables. Las modificaciones hicieron al algoritmo menos eficiente. Debido a esto se buscó una alternativa al método de identificación de pelotas usado anteriormente. Una vez con el nuevo algoritmo terminado, al momento de realizar la prueba surgió otro problema: los motores de las llantas ya no funcionaban. Después de unas pruebas se concluyó que el problema era causado debido a que los controladores de dichos motores estaban dañados. Se consiguieron controladores nuevos y se reemplazaron los dañados. Hecho esto, logramos realizar pruebas del nuevo algoritmo. Los resultados fueron que las pelotas eran detectadas con mayor frecuencia, sin embargo, el robot al momento de ir por las pelotas avanzaba tanto que las empujaba, la distancia calculada era mucho mayor a la distancia real. Se hicieron pruebas y se ajustó la fórmula que calcula la distancia para corregir el problema. El robot ya no empujaba las pelotas, pero al momento de las pruebas se detectó otro problema: cuando el robot toma una pelota con la pinza tiene que verificar si efectivamente tomó una pelota. Para esto hace un promedio de los valores R, G, B de los pixeles donde se supone está la pelota; con los promedios determina si esa porción de la imagen es roja, azul, negra o de cualquier otro color diferente a los tres anteriores. Si es roja o azul significa que tiene una pelota en la pinza; por el contrario, si es negra o de un color indeterminado significa que no logró tomar la pelota y tiene que volverlo a intentar. Este algoritmo no funcionaba de manera correcta y se procedió a modificarlo.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos sobre visión computacional y procesamiento de imágenes y ponerlos en práctica en el robot. El nuevo algoritmo de detección de pelotas demostró ser más eficiente que anterior, logrando detectar pelotas casi en un 100%, debido a que es mucho menos susceptible a la iluminación y las sombras. A lo largo del proyecto surgieron varios problemas que retrasaron el trabajo: corto circuitos en la tarjeta y fallos de los componentes electrónicos. Debido a esto no sólo se trabajó en el software, sino también en el hardware. Se espera que los nuevos algoritmos para la detección de las cestas y para comprobar si el robot agarró una pelota o no, funcionen mejor que sus contrapartes anteriores. 
Aguilar Pacheco Perla Lizbeth, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan

LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA


LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA

Aguilar Pacheco Perla Lizbeth, Instituto Tecnológico Superior de Uruapan. Arroyo Campos Indhira Sayani, Instituto Tecnológico Superior de Uruapan. Corona Madrigal José Francisco, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La Tablaroca consiste en una placa de yeso laminado entre dos capas de cartón, el sistema de ensamblado de una tablaroca (muro) consiste en canales de aluminio sirven como base o marcos del sistema; posteriormente la placa de yeso es atornillada en una de las caras del muro sobre las bases y postes metálicos, una vez teniendo una cara del muro se coloca el aislante de fibra de vidrio (colchoneta), finalmente se coloca la otra cara del muro. Este sistema presenta múltiples ventajas, algunas de ellas son: aislante térmico; aislante acústico; ligero, entre otras. Es un sistema con gran demanda en la construcción como muros divisorios. Tal como lo indica la Secretaria de Economía de la República Mexicana, en nuestro país se extraen anualmente 3.6 toneladas de yeso, de las cuales 3.2 toneladas son utilizadas en el ámbito de la construcción, de las cuales se producen aglomerantes y paneles de yeso. Por tanto, con esta investigación se busca sustituir la fibra de vidrio (colchoneta) por fibras naturales (fibra de hoja de pino) integrado en las láminas de yeso, ya que si la fibra de vidrio se encuentra en perfecto estado no representa riesgos para la salud; pero cuando su integridad se ve perturbada por la humedad o algún agente externo que deteriore su estructura, las fibras de vidrio se fraccionan en pequeñas partículas y este desprendimiento provoca una contaminación al ambiente, es decir se mantienen en suspensión por un periodo prolongado causando irritación en los ojos, molestias de irritación del tracto respiratorio superior (nariz, boca y garganta) entre otras, a diferencia de las fibras naturales (fibra de hoja de pino) puesto que este material es biodegradable y así mismo evitar posibles daños de salud, pero sin dejar de lado las ventajas de un muro de tablaroca.



METODOLOGÍA

Se realizaron 9 muestras en moldes hechos en bases de madera de 30.5 cm x 30.5 cm con un espesor de ½, se utiliza como desmoldante aceite para motor para que la extracción de las muestras sea más sencilla y evitar que estás sufran algún daño y además para que los moldes puedan ser reutilizados. Se requiere cortar las fibras de hoja de pino (huinomu)  a 2 de largo. Las mezclas se dosificaron con distintos porcentajes de fibras al  2%, 3% y 5% en yeso con un porcentaje de agua al 75%;  . Una vez hecha la mezcla de los materiales se vierte en el molde se le da un acabado lo más posible liso y se lleva a un lugar seco donde se dejará fraguar, posteriormente se curarán estas muestras. Las muestras cumplirán el tiempo necesario después de 26 días esto con el fin de alcanzar su máxima resistencia.   Ya terminadas las muestras, se corta una parte de una Tablaroca con las mismas dimensiones de estás y son llevadas al laboratorio para realizar las pruebas térmicas, después de esta prueba de deben cortar las muestras y el fragmento de Tablaroca en círculos de distintos diámetros para realizar la prueba de sonoridad.


CONCLUSIONES

Se puede concluir que las muestras hechas durante la estancia superaron las expectativas esperadas; pues nuestras muestras superaron el porcentaje óptimo de conductividad térmica de 0.13 variando de 0.15 a 0.18, sin embargo estas resultaron ser más pesadas, por tanto se mejoró la mezcla agregando un material más; baba de nopal esto con el fin de generar burbujas o huecos de aire en las láminas, lamentablemente los resultados no se pueden dar a conocer ya que estas últimas muestras están en proceso de curado.
Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla

SENSOR DE POLVO SHARP GP2Y1014AU0F EN AMBIENTE DE OFICINA Y SU COMPORTAMIENTO


SENSOR DE POLVO SHARP GP2Y1014AU0F EN AMBIENTE DE OFICINA Y SU COMPORTAMIENTO

Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La contaminación atmosférica es el principal riesgo ambiental para la salud en las Américas. La Organización Mundial de la Salud estimó que una de cada nueve muertes en todo el mundo es el resultado de condiciones relacionadas con la contaminación atmosférica. Los contaminantes atmosféricos más relevantes para la salud son material particulado (PM) con un diámetro de 10 micras o menos, que pueden penetrar profundamente en los pulmones e inducir la reacción de la superficie y las células de defensa. La mayoría de estos contaminantes son el producto de la quema de combustibles fósiles, pero su composición puede variar según sus fuentes. Las directrices de la OMS sobre la calidad del aire recomiendan una exposición máxima de 20 ug/m3 para las PM10 y una exposición máxima de 10 ug/m3 para las PM2.5 basado en las evidencias de los efectos sobre la salud de la exposición a la contaminación del aire ambiente. Considerando la importancia de conocer los niveles de densidad de polvo en lugares a los que dedicamos una gran cantidad de tiempo en nuestro día a día, es necesario monitorear dichos niveles y en caso de ser necesario tomar las medidas necesarias para mejor la calidad del aire para vivir en condiciones óptimas.



METODOLOGÍA

Para el desarrollo del proyecto se utilizó un sensor de polvo Sharp GP2Y1014AU0F, una tarjeta de desarrollo Arduino MEGA 2560 y un pequeño ventilador de 5V para incrementar el flujo de aire y lograr una mejor respuesta del sensor. Utilizando la hoja de especificaciones del sensor se utilizó el programa Arduino 1.8.9 para programar el correcto funcionamiento para realizar 100 mediciones por segundo, obtener un promedio y calcular la densidad de polvo en ug/m3. Con el sensor funcionando se agregó un ventilador para proporcionar un mejor flujo de aire y tiempo de respuesta. Para poder realizar un análisis de la gran cantidad de datos obtenidos por el sensor se ocupó un programa externo al de Arduino para almacenar los datos en un archivo, se utilizó CoolTerm 1.6 conectando el puerto designado para el Arduino MEGA 2560 y agregando una etiqueta de tiempo en cada dato recibido a la terminal en formato SQL. Teniendo ahora una base de datos que se actualiza automáticamente se tenía lo necesario para realizar un análisis y poder observar el comportamiento de la densidad de aire a lo largo del día. Para eso se utilizó el programa Wolfram Mathematica 10 para separar los datos obtenidos por hora y así visualizar los puntos máximos en los que la densidad de polvo tiene mayor concentración.


CONCLUSIONES

Durante la estancia de verano logré adquirir conocimientos en microcontroladores como la utilización de software para controlar tarjetas de desarrollo, en concreto el uso de un sensor y programar su correcto funcionamiento, además de investigar distintos métodos para lograr un almacenamiento de datos de forma segura y confiable. Finalmente a utilizar el programa Wolfram Mathematica para analizar información de la forma específica que se necesite. Los resultados del análisis de densidad de polvo mostraron patrones en su cambio a lo largo del día y un nivel promedio un poco por encima de los recomendados, sin embargo se necesitan comparar varias semanas para encontrar las causas del incremento durante el transcurso del día y seguir obteniendo datos para un mejor análisis.
Aguilar Rosas Leonardo Adrián, Instituto Politécnico Nacional
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA


IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA

Aguilar Rosas Leonardo Adrián, Instituto Politécnico Nacional. Cancino Escobar Manuel de Jesús, Instituto Tecnológico de Tuxtla Gutiérrez. Palma Alvarez Miguel Arturo, Instituto Tecnológico Superior de Los Ríos. Sánchez Sánchez Orlando Miguel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Hoy en día resulta una tarea algo compleja el conocer con exactitud el momento adecuado para cambiar un rebaño de un terreno, pero, ¿Por qué decimos eso? Bueno, se entiende que para mantener un rebaño en un determinado terreno se debe contar con una pastura en cantidad y calidad, para que así el rebaño tenga el alimento suficiente, y en buen estado, ¿En qué momento se requiere cambiar el rebaño de terreno? La respuesta es cuando ya no existe la pastura suficiente para alimentarse, y, ¿Qué me puede ayudar a saber eso?, como una solución surge este proyecto que consiste en realizar un sistema digital encargado de analizar la pastura del terreno a través de imágenes, así es, estamos hablando del procesamiento de imágenes ¿Por qué usarlo? Con el sistema se podrá obtener la información necesaria para determinar la cantidad de pastura buena que queda en el terreno y esa información podrá ayudar a tomar la decisión de cambiar al rebaño en el momento correcto.



METODOLOGÍA

Obtención de imágenes Las imágenes son obtenidas con la ayuda de un teléfono celular, el cual se coloca a los borregos en el cuello, el teléfono cuenta con una aplicación previamente programada para tomar una cantidad de 30 imágenes con un lapso de tiempo entre la captura de cada imagen de 2 minutos aproximadamente. El proceso de la toma de las imágenes tiene un tiempo estimado de 1 hora, al finalizar el proceso una persona encargada recogerá los teléfonos para extraer las imágenes en un ordenador para realizar el procesamiento de las imágenes.   Procesamiento y Análisis de las imágenes Cuando de procesamiento de imágenes se trata, estamos hablando de un sistema o programa lo bastante complejo para dicha tarea, en la actualidad hay lenguajes de programación que permiten hacer este tipo de actividades, un ejemplo de ellos lo es Matlab, Python, entre otros; en este proyecto se está utilizando Python debido a que brinda herramientas más adecuadas para las tareas que se necesitan realizar en el proyecto. Las imágenes se someten a un programa realizado en Python que se encarga de obtener la ubicación GPS de donde fueron tomadas, de igual forma analiza las imágenes y las divide por canal RGB, posteriormente realiza un análisis estadístico para determinar la tonalidad de cada canal/color y con ello se establece un rango con el que se puede determinar el estado de la pastura. Como parte final, el código guarda la información en archivos TXT para ser enviados a la nube.


CONCLUSIONES

Contando con las herramientas necesarias para la culminación del proyecto, se realizaron una serie de pruebas tomando las fotos directamente desde el teléfono sujetado al cuello del borrego para poder observar la calidad de las imágenes tomadas. De la misma manera se llevó a cabo el análisis de las imágenes mediante el sistema realizado donde se obtuvieron resultados dando la ubicación geográfica de la imagen, el estado de la pastura, y mediante estos datos se pudo calcular de manera porcentual el estado de la muestra de terreno que se ocupó para realizar una primera prueba de este proyecto donde los datos obtenidos fueron enviados a la nube para ser consultados por el usuario y tomar mejores decisiones.  
Aguilar Sanchez Jose Manuel, Universidad Autónoma de Guerrero
Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato

CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.


CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.

Aguilar Sanchez Jose Manuel, Universidad Autónoma de Guerrero. Alcocer Morales Diana Laura, Universidad Autónoma de Guerrero. Álvarez Jiménez Julio César, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Navarro Miranda José Luis, Universidad de Sonora. Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Guanajuato tiene un legado arquitectónico único, el cual ha despertado interés sobre su Arquitectura en especial sobre los Sistemas Constructivos de las viviendas de los barrios tradicionales del Centro Histórico. Existen características singulares que permanecen en las construcciones, los cuales no han sido documentados y analizados en cuanto a su trazo, estereotomía y materiales.  Por lo anterior se revisarán los cerramientos de viviendas del siglo XIX y principios del XX encontradas en el centro de la ciudad. Estos destacan por su diversidad en soluciones dentro de la lógica estructural constructiva y formal. En el estado no hay este tipo de trabajos ya que la gran mayoría de las investigaciones están enfocadas a los aspectos estéticos de los edificios históricos.



METODOLOGÍA

Asistimos a fiestas Tradicionales y recorrimos por la ciudad como parte del Patrimonio Cultural de Guanajuato. Se investigó y analizó la Geohistoria de la Ciudad de Guanajuato para poder comprender los diferentes cambios que ha sufrido la ciudad. Se Seleccionaron y analizaron conceptos teóricos - conceptuales, con los cuales se investigaron los tipos de arcos que se encuentran y la estructura que los conforman. Se establecieron los antecedentes y planteamientos históricos para entender la importancia que tiene Guanajuato y cada uno de los inmuebles históricos que hasta la fecha se conservan. Se realizó trabajo de campo en la ciudad de Guanajuato, mediante levantamiento fotográfico y revisiones oculares. Se diseñaron fichas de catalogación para hacer más fácil sistematización de la información de cada cerramiento. Se dibujaron los trazos en 2D y 3D de los cerramientos elegidos. Determinamos las características generales de los cerramientos y su estado de conservación. Para finalizar el trabajo de investigación se redactó un informe técnico final.


CONCLUSIONES

Como resultado elaboramos una ficha de catalogación, en el cual anexábamos los datos de cada uno de los arcos seleccionados, que presenta la siguiente información: Datos de la institución donde se desarrolla la Investigación, Materiales, Localización, Observaciones, Descripción del arco (con una foto real del arco y sus elementos), Procedimientos del Trazo (acompañado de gráficos), Perspectivas del Arco realizado en 3D, y Datos del Autor. Para poder facilitar la realización de este trabajo se utilizaron a las siguientes herramientas; Software como AutoCAD, Revit, SketchUp, V-ray. Flexómetro y Cámara Fotográfica. Con lo mencionado anteriormente se logró cumplir el objetivo de entender y conocer diferentes tipos de cerramientos de viviendas históricas de la ciudad de Guanajuato, que se dividen desde su función, forma, estilo, entre otros. Conociendo el sistema constructivo de las casas históricas se tienen mejores posibilidades de tener una intervención más adecuada.                                                                                                              En algunos casos de los cerramientos que quedaron en hipótesis, y por lo tanto fueron modelados en 3D con medidas proporcionales ya que fue imposible acceder a las instalaciones y poder obtener las medidas reales. A través de los trazos con la ayuda de la geometría descriptiva y la estereotomía logramos entender el sistema constructivo y estructural. En la época en que fueron edificadas estas construcciones no se utilizaban herramientas y elementos constructivos actuales, como hoy en día el acero, concreto armado, y tampoco la utilización de softwares para poder visualizar y calcular la resistencia adecuada de los materiales.
Aguirre Franco Luisa Fernanda, Universidad de Sonora
Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla

TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.


TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.

Aguirre Franco Luisa Fernanda, Universidad de Sonora. Organis Rebolledo Emmanuel, Universidad Autónoma de Guerrero. Vega Ortiz Rocio Esmeralda, Instituto Tecnológico de Reynosa. Venzor Nava Enya, Universidad de Sonora. Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los hornos que se utilizan en la comunidad de San Diego Cuachayotla para la producción de ladrillo artesanal son abiertos. La elaboración de estos materiales cerámicos involucra procesos artesanales de fabricación tales como la extracción manual de arcillas y la cocción ineficiente, tampoco hay una selección de materiales y el control de calidad es prácticamente nulo. El principal producto que se fabrica es el ladrillo macizo de arcilla cocida. Desde el punto de vista socioeconómico muchas de estas unidades de producción están conformadas por familias que ven esta actividad como el único medio de sustento y laboran en condiciones de trabajo mínimas, donde los servicios básicos son insuficientes y de baja calidad. El sistema de trabajo es familiar y la contratación de operarios es a ‘destajo’, es decir, sin una vinculación laboral permanente ya que se hace de acuerdo con los requerimientos que marca la demanda del producto y al trabajador se le paga por actividad y/o cantidad de producción realizada. Las principales afectaciones al medio ambiente que se generan en este tipo de unidades productivas tienen relación con la extracción no apropiada de las arcillas, ocasionando taludes inestables y desorden en las explotaciones, lo que se refleja en la presencia de áreas extensas sujetas a erosión laminar, en surcos y cárcavas. Como efecto del bajo rendimiento térmico de los hornos se produce contaminación atmosférica por emisión de CO, CO2, azufre, nitrosos y partículas en suspensión, como lo es el carbono negro. El carbono negro (hollín) es considerado un problema para la salud humana ya que ocasiona a corto o largo plazos, enfermedades respiratorias, cardiovasculares, daños en la piel, entre otras.



METODOLOGÍA

Se llevó a cabo investigación documental, esto con el fin de recopilar la información necesaria para diseñar y realizar los talleres donde se presentaron a la comunidad de ladrilleros alternativas para mejorar su calidad de vida y producción de ladrillo. Una vez procesada la información documental, se llevaron a cabo entrevistas con las autoridades municipales de San Pedro Cholula, entre ellas la Regidora de Hacienda, la Secretaria del Medio Ambiente y un maestro expresidente de la Junta Auxiliar de San Diego Cuachayotla, quienes aprobaron la propuesta. Se mencionó que primeramente había que realizar un taller introductorio donde se hablara acerca de las condiciones en las que se vive y de las acciones inmediatas que pueden mejorar su calidad de vida, específicamente la calidad del aire. Es así como se preparó el primer taller: “El aire que respiras”. Tomando como prioridad la calidad de vida de la junta auxiliar, se les presentaron las afectaciones y repercusiones que se derivan del hecho de respirar el humo negro de sus hornos, en su salud en la de su familia y en su entorno. Enfermedades respiratorias, enfermedades cardiovasculares, impacto ambiental negativo y calentamiento global, crisis ambiental, gases contaminantes, hollín, entre otros, fueron algunas de las problemáticas expuestas a los integrantes de la comunidad. Se presentaron propuestas tanto para mejorar la calidad del aire que respiran directamente, como para el ordenamiento del espacio separando las áreas de trabajo de la vivienda con la intención de un mejor aprovechamiento del terreno y mayor funcionalidad de este. Producto del primer taller, una vez terminada la presentación, se hizo una invitación para unirse al proyecto de manera voluntaria. Solo un productor se interesó por lo que se realizó el levantamiento de su predio para situar el horno y destinar áreas de trabajo, se situaron las barreras vegetales que ayudarán a mejorar la calidad de aire e impedirán que el hollín llegue a la zona de vivienda y a las edificaciones vecinas. El estudio se realizó con base en los datos proporcionados por el productor voluntario y de acuerdo con las características de las superficies disponibles para la producción de ladrillo artesanal, considerando la implementación del Horno Ecológico MK2. Para el diseño de las barreras vegetales, se generó una lista de 20 árboles que crecen en la región, posteriormente se elaboraron fichas técnicas de cada uno de estos árboles para después realizar la evaluación que determinó la capacidad de las distintas especies para filtrar el carbono negro y absorber el CO2, funciones principales que deben tener las barreras vegetales en esta comunidad ladrillera.


CONCLUSIONES

A lo largo de la estancia dentro del verano de investigación se trabajaron diferentes aspectos e investigaron diversas áreas enfocadas todas a desarrollar un taller de inducción para lograr implementar los hornos MK2 en la comunidad de San Diego Cuachayotla. Se recabaron datos tanto de impactos ambientales como afectaciones a la salud de los integrantes de esta junta auxiliar. Mediante estrategias y métodos investigados se estructuró el taller, los productos de esta investigación se llevaron a cabo con una mirada centrada en el beneficio social, económico y ambiental a la comunidad productora de ladrillo artesanal. Se logró captar únicamente un voluntario debido a la desconfianza de la comunidad hacia los cambios tecnológicos en sus procesos de producción. Mismo que se trabaja con los talleres de concientización esperando aminorar la situación y plantear un panorama positivo para el proyecto.
Aguirre Guerrero Marisol, Universidad Autónoma de Guerrero
Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara

MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS


MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS

Aguirre Guerrero Marisol, Universidad Autónoma de Guerrero. Ruiz Rodríguez Yadir Alejandro, Instituto Tecnológico Superior de Ciudad Acuña. Sollano Valdes Alicia, Universidad Autónoma de Guerrero. Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, en México ocho de cada 10 negocios quiebran antes de cumplir dos años, sin embargo, bajo el modelo de franquicia, hasta el 85% de quienes participan sobrevive más de cinco años, incluso cabe señalar, que hace 29 años, cerca del 90% de las franquicias establecidas en México eran extranjeras; hoy en día, el 85% son nacionales y el 15% de otros países. El modelo de franquicias ha sido apoyado por la Feria Internacional de Franquicias, donde invitan a los emprendedores a formar parte de las grandes cadenas restauranteras, el problema en esto es que los restaurantes típicos están siendo rezagados, debido a que éstos no cuentan con una estructura administrativa definida, un modelo que les permita ser competitivos, productivos y puedan posicionarse en el mercado frente a esos grandes competidores. El crecimiento de las Franquicias y grandes cadenas restauranteras ha producido que los restaurantes desestructurados denominados típicos se encuentren cerca de su desaparición definitiva, por lo cual ésta investigación ayuda a conocer las deficiencia adminisitrativa y poder así crear un modelo administrativo estratégico que permita fortalecer éste ámbito y hacer de éstos más competitivos.



METODOLOGÍA

Primero que todo, se llevó a cabo una actualización de datos estadísticos y conceptos generales, los cuales sirvieron como sustento de la investigación, tomando en cuenta fuentes confiables como páginas oficiales, revistas y libros, buscando datos recientes sobre las Franquicias en México y también sobre restaurantes típicos de Jalisco y Puerto Vallarta. Para llevar a cabo la investigación de mercado, se tomó como muestra a 2 restaurantes típicos de Puerto Vallarta, los cuales tienen por nombre River Café y El Andariego, con quienes se trabajó a lo largo de la estancia. Se aplicaron 50 encuestas en cada uno de los restaurantes dirigidas a los comensales y 3 encuestas para los directivos, con la finalidad de conocer tanto el punto de vista de los clientes como las habilidades administrativas con las que cuentan los gerentes.   Después de recaudar la información, se almacenó en una base de datos utilizando el programa estadístico IBM SPSS, el cual facilitó la agrupación de datos por categorías por medio de tablas y presentación a través de gráficas, posteriormente, se elaboró la interpretación de éstos y descripción de resultados obtenidos.


CONCLUSIONES

Gracias al buen trabajo en equipo, este análisis permitió conocer la calidad del servicio y de los productos que ofrece el restaurante, la higiene y además del posicionamiento del mismo en el mercado, además, se lograron obtener resultados claros acerca de la necesidad que tienen los restaurantes típicos de trabajar bajo un Modelo de Administración Estratégica adecuado para lograr hacer frente a las grandes cadenas de restaurantes que están teniendo una gran presencia en México.  Se encontró que los restaurantes típicos deben trabajar más en la divulgación en medios publicitarios digitales, debido que en la actualidad es muy útil el hacerse presente en redes sociales y páginas web para poder incrementar su número de clientes frecuentes y lograr una mayor satisfacción ofreciendo promociones atractivas para ellos. Por otro lado, se pudo conocer que los directivos se están ocupando en adquirir conocimientos básicos necesarios sobre administración, liderazgo, competitividad, satisfacción al cliente, lo cual es muy bueno, pero no solo deben ser adquiridos, sino que también deben ser aplicados para la obtención de una mejor posición en el mercado.  
Aguirre Marín Francisco Javier, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac

ANÁLISIS DE DESGASTE DE MATERIAL POR EROSIÓN DE PARTÍCULAS SÓLIDAS


ANÁLISIS DE DESGASTE DE MATERIAL POR EROSIÓN DE PARTÍCULAS SÓLIDAS

Aguirre Marín Francisco Javier, Instituto Tecnológico Superior de Huauchinango. Perez Miramar Yareli Jaqueline, Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Los álabes de un motor de turbina aeronáutica son equipos en diversos casos del mundo aeronáutico ha contribuido a estos buenos resultados, la alta exigencia técnica a los equipos que componen una aeronave, contribuye positivamente la estrategia de mantenimiento en este tipo de equipos, que se basa en una parada periódica para sustituir muchos de sus componentes de desgaste, las turbinas sufren averías, unas de poca importancia y frecuentes, y otras de carácter catastrófico que destruyen completamente el equipo. El contaminante de los álabes del compresor se produce por la entrada de partículas, cuanto menor sea la suciedad ambiental en la superficie en los álabes provoca pequeñas turbulencias en el aire de admisión que hacen que éste no avance. La mayor parte de los fallos en turbinas están relacionados debido a la presencia de polvos industriales, óxidos, arenas, cenizas volcánicas llamadas partículas abrasivas. El impacto constante y repetitivo de dichas partículas, provoca un desgaste de erosión ocasionando daños superficiales, cuando es más severa conduce un adelgazamiento de material, bordes irregulares y deterioro, en otros casos puede hacer un recubrimiento en el material ocasionando aumento de masa y dureza. Por ende, es importante realizar trabajos experimentales que proporcione información acerca del comportamiento. JUSTIFICACIÓN El presente trabajo pretende aportar información con relación al desgaste de materiales por erosión de partículas sólidas. Las referencias descritas en los siguientes párrafos y el estudio sobre el desgaste en materiales férricos, así como darán sustento al planteamiento del problema de la investigación.



METODOLOGÍA

METODOLOGÍA Se realizó un estudio de investigación previa sobre la erosión, partículas abrasivas, corrosión y metales; La mayor parte de la cual suponen un peligro para estructuras o materiales que a paso del tiempo, fuerza, temperatura o distancia se realiza un desgaste sobre este, haciendo que disminuya o gane masa según sea el caso. Por ende, es importante la realización experimental acerca del comportamiento en diferentes materiales y recubrimientos con fin de evaluar su resistencia a este comportamiento. Llevando a cabo un análisis de tasa de desgaste en la probeta de material, para la obtención de resultados estadísticos. Posteriormente las piezas a estudiar son partes de un alabe de turbina de un motor de avión, se enumerarán para realizarse varias pruebas a cada una y obtener resultados diferentes, estas se limpiaron con paño para remover polvo contaminante que contenían para después colocarle la etiqueta enumerada estas fueron del 1-6, se realizó la preparación del material. A dos de las piezas de prueba se le efectuaron un pulido como acabado final para realizarle un estudio de dureza en el Durómetro. El análisis realizado en la pieza fue en una escala Rockwell C que efectuó una carga de 150 kg, tomando en cuenta puntos que se le aplicaron a la pieza, obteniendo un promedio de dureza. Como consiguiente se realizó un diseño en el software SolidWorks donde se realizó la demostración y simulación del flujo de partículas desde la entrada de aire, el conducto que llega a la arena hasta donde sale disparadas contra el material. Posteriormente se pesaron las piezas para saber su masa y obtener datos exactos se utilizó una báscula. Se asumió que este recubrimiento que se hallaba en la parte superficial del material tenía un incremento mínimo de masa y dureza. La primera pieza expuesta a un desgaste por erosión fue la pieza #6 y fue erosionada con recubrimiento utilizando arena cerámica como partícula abrasiva, con una presión de aire aproximadamente de 80 psi durante 1 minuto. Como subsiguiente a esta se le realizó un corte transversal con un esmeril para someterla a una espectrometría de rayos x y ver la caracterización del material. Con base a la pieza erosionada se pudo obtener resultados y realizando una tabulación para diferenciar entre las demas piez,  se asintió que la pieza con recubrimiento después de ser erosionada disminuye su dureza al igual que su masa, esto dado que la pieza fue sometida al desgaste con el abrasivo en polvo. Existe una probabilidad de que este fenómeno repercuta en sus propiedades, para ratificar se necesitará la ayuda del espectrómetro de rayos x para comprender los elementos que conforman este material, observando sus propiedades por las cuales este conformado.


CONCLUSIONES

CONCLUSIONES La mayor parte de estos análisis que se llevaron a cabo en esta investigación, son enfocados a la experimentación las cuales tienen un sustento teórico Acertando que concurren variaciones que arrojaron los datos experimentales se declara que la pérdida de masa y dureza se debe a que la pieza es erosionada con las partículas abrasivas. Se comprobó que hay pérdida de dureza así mismo como su masa, en un periodo de corto tiempo (1minuto aprox), con esto se puede deducir que, incrementando el tiempo, la abrasión del material será mayor y severo haciendo que este afecté sus propiedades físicas disminuyendo su grosor.
Alamilla Gutiérrez Alejandro, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

DISEÑO DE UN SISTEMA ACUAPÓNICO CON TECNOLOGÍAS IOT.


DISEÑO DE UN SISTEMA ACUAPÓNICO CON TECNOLOGÍAS IOT.

Alamilla Gutiérrez Alejandro, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas que se presenta la agricultura de la ciudad de Tuxtla Gutiérrez, Chiapas, es el poder producir y tener una vida sustentable, ya que las áreas para la agricultura las trabajan empresas agroquímicas, ocasionando un problema a la gente de comunidades aledañas que sus recursos para sobrevivir es la producción de alimentos para consumo propio. El espacio para que estas personas puedan producir y cultivar sus alimentos, es muy limitado, ya que ellos trabajan son zonas rocosas con poca tierra fértil y óptima para la producción de alimentos como el tomate, lechuga, espinaca, zanahoria entre otros. Por lo que se plantea una propuesta de un sistema de cultivo por acuaponía utilizando energías renovables, teniendo un modelo estructurado, pero para esto se llevaran etapas, por lo que la primera fase del proyecto es realizar la investigación profunda de un sistema acuapónico con producción de lechugas utilizando nutrientes de fuentes renovables como el amoniaco que produce la tilapia, humus de lombriz por composta, gallinaza de aves, y así poder obtener un programa que calcule la cantidad de insumos renovables necesario para nutrir la lechuga.



METODOLOGÍA

En el proceso de cumplir los la primera fase del proyecto se dividió en etapas, para poder tener los datos exactos del programa calculador de insumo de la primera fase. Etapa 1 Se contempla un estudio profundo del estado del arte sobre la producción mediante uso de acuaponía, en este caso en el cultivo de lechuga. Etapa 2 Se contempla un estudio profundo del estado del arte sobre la producción de gallinaza (estiércol) de gallina, así como los componentes químicos y como pueden ser utilizados en la composta. Etapa 3 Se contempla un estudio profundo del estado del arte sobre la producción de humus de lombriz californiana, y como procesarla en humus líquido, así como los veneficios que están traen. Etapa 4 Se contempla un estudio profundo del estado del arte sobre la producción de tilapia, para utilizar el amoniaco que produce y poder utilizarla como nutriente en la producción de lechuga. Etapa 5 Realizar en programa que calcule el insumo necesario para producir los nutrientes que se necesitan para el sistema de riego acuapónico, en este caso se utilizo el software de calculo de Microsoft Excel, ya que es amigable y fácil de utilizar para las personas con poco conocimiento en usos de sistemas inteligentes.


CONCLUSIONES

Durante la estancia del verano, se logró adquirir conocimientos teóricos para realizar un sistema de riego con tecnologías IoT, recabando los datos necesarios y calcular el insumo para producir el nutriente que se necesita. El sistema de riego brinda la posibilidad a las familias agricultoras de contar con un sistema de reducido costo de adquisición y con sistemas que promueven la eficiencia energética, aportando grandes avances hacia el desarrollo sustentable. La eficiencia energética, involucra la eficiencia económica y la protección ambiental. A su vez optimando las prestaciones, dichas familias agricultoras tendrán la oportunidad de construir una red productiva en donde tengan la capacidad de autoabastecerse, intercambiar productos entre ellas e introducirse como principales distribuidores de productos orgánicos a los grandes mercados. El control inteligente, el sistema acuapónico y las energías alternativas implementados ofrecen una significativa reducción de costos de operación, protección al medio ambiente minimizando el uso ineficiente de recursos como el agua y el suelo, y finalmente un valioso aporte al mejoramiento de la calidad de vida de las familias agricultoras.
Alamilla López Cynthia, Instituto Tecnológico de Pachuca
Asesor: Dr. Cristina Inés Alvarez Barreto, Universidad de Caldas (Colombia)

MATRICES ALIMENTARIAS: CARACTERIZACIóN FISICOQUíMICA DE CAFé CEREZA; SECADO POR ASPERSIóN PARA LA MICROENCAPSULACIóN DE ANTOCIANINAS EN ALMIDóN MODIFICADO DE PLáTANO


MATRICES ALIMENTARIAS: CARACTERIZACIóN FISICOQUíMICA DE CAFé CEREZA; SECADO POR ASPERSIóN PARA LA MICROENCAPSULACIóN DE ANTOCIANINAS EN ALMIDóN MODIFICADO DE PLáTANO

Alamilla López Cynthia, Instituto Tecnológico de Pachuca. Asesor: Dr. Cristina Inés Alvarez Barreto, Universidad de Caldas (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Un amplio conocimiento sobre las características de cualquier tipo de materia prima juega un papel fundamental tanto en una correcta gestión de sus cultivos, como los procesos de transformación y su actuar dentro del organismo de quien la consume. Los estudios sobre los que se tiene registro en el eje cafetero sobre el café, se componen básicamente de la caracterización física sobre café pergamino, mientras que sobre café verde posteriormente sometido a un proceso de tostión para preparar una bebida, fue caracterizado de forma fisicoquímica y organoléptica, respectivamente. La mayor problemática que se enfrenta en la mayoría de los cultivos de dicha zona geográfica, es que, al ser de herencia familiar y empírica, las técnicas empleadas en la obtención del fruto para su posterior venta o transformación, no se rigen por términos cuantitativos sino de simple percepción aprendida de generación en generación. Por otro lado, la microencapsulación de componentes bioactivos con miras a su aplicación en alimentos funcionales, podría ser una herramienta que facilite la lucha por mitigar deficiencias nutricionales alrededor del mundo. Dicho esto, existen trabajos sobre microencapsulación de antocianinas procedentes de diferentes fuentes, incluyendo la mora Rubus glaucus benth, sin embargo, no ha sido evaluada la capacidad del almidón químicamente modificado de plátano como material pared.



METODOLOGÍA

Se caracterizó fisicoquímicamente al café cereza y las pruebas se llevaron a cabo en el laboratorio de calidad de la Universidad de Caldas siguiendo algunos métodos establecidos por la AOAC. Fueron seis las muestras de tres estados de madurez, divididas en dos grupos, uno sin aplicación de nitrógeno y el otro, con dicho tratamiento.  El análisis de parámetros fisicoquímicos se realizó por duplicado para comparar la variabilidad dentro de cada muestra. Para determinar la cantidad de sólidos solubles totales (° Brix) se empleó un refractómetro BRIXCO Instruments basándose en el método 932.12, observando un aumento en los valores de lectura a medida que aumentaba el estado de madurez. En el caso del pH, se siguieron los pasos del método 981.12/90 empleando el equipo Lab 850 de la marca SCHOTT Instruments. En esta evaluación el pH de las disoluciones con proporción 1:10, tuvo una relación lineal negativa respecto a los tres estados de madurez. Las mismas muestras sirvieron para que, con el método 942.05, se procediera al cálculo del porcentaje de acidez llevando la solución a un pH cercano a 8 al titular con NaOH 0.1N y tomando como referente al ácido cítrico. Los valores obtenidos en las muestras con nitrógeno hacen suponer que dicho material ayuda a mantener relativamente estable al fruto, pues en los resultados de las muestras sin nitrógeno, no se observó consistencia ni relación alguna. Para dar una idea del color característico de cada estado de madurez, se decidió obtener coordenadas CIE L*a*b* con ayuda de un espectrofotómetro KONICA MINOLTA modelo CM-5. En L*, de manera genérica, se registraron valores en rango 16-21, valores entre 5 y 10 para a* y de 3 a 10 para b*, disminuyendo cada lectura al aumentar el estado de madurez para las tres coordenadas. En la parte de microencapsulación, mediante experimentación se pretende determinar las condiciones óptimas de operación.


CONCLUSIONES

La estancia de investigación permitió una refinación en las habilidades propias de trabajo en laboratorio con alimentos, implicando una capacitación en el uso de equipos y métodos antes desconocidos. Este fue un trabajo preliminar, puesto que para poder establecer cuantitativamente los parámetros que permitan estandarizar el corte del café y así poder eficientar la productividad en las fincas, es necesario analizar, de ser posible, toda variedad de cultivo. Una vez establecidas las variables correspondientes y sus valores, se considera necesario llevar a cabo otro tipo de estudios para evaluar la posible influencia de otros factores sobre dichos valores, por ejemplo, el tipo de suelo, variedad de cultivos cercanos, condiciones climáticas específicas regionales y prácticas de cultivo, por mencionar algunas. En el caso del microencapsulado, se realizó una prueba en el laboratorio de Granja Tesorito, localizada a 11 kilómetros vía Magdalena, parque industrial, sin embargo, el secador sufrió daños y no fue posible continuar con las pruebas experimentales que condujeran a determinar las condiciones de operación óptimas. Pese a esto, se espera culminar el trabajo en la última semana de estancia.
Alarcon Gomez Lizbeth Esmeralda, Instituto Tecnológico de Culiacán
Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez

SISTEMAS DE CONTROL AUTOMáTICO PARA DIVERSAS APLICACIONES


SISTEMAS DE CONTROL AUTOMáTICO PARA DIVERSAS APLICACIONES

Alarcon Gomez Lizbeth Esmeralda, Instituto Tecnológico de Culiacán. Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

El control automático de los procesos ha sido cada vez más frecuente y necesario, por lo que algunos llaman a esto la segunda revolución industrial, dado que tiene como objetivo la evolución de las tecnologías de medición y control aplicadas al ambiente industrial. Es fundamental porque reduce costos de bienes y servicios, incrementa la calidad y cantidad de producción, esto conlleva a una optimización, que es la meta principal de un ingeniero industrial, sin dejar de lado la importancia de ligarlo con temas como ergonomía y seguridad industrial. La investigación sistemas de control automático para diversas aplicaciones, trató de un estudio practico laboral de la utilización de máquinas CNC (control numérico computarizado) que conlleva a la manipulación, control y monitoreo de las maquinas-herramientas mediante computadoras.



METODOLOGÍA

En esta ocasión se trabajó con máquinas de corte láser, estas máquinas pueden cortar materiales como: madera MDF (tablero de densidad media elaborado con fibras de madera, aglutinadas con resinas sintéticas mediante fuerte presión y calor en seco), madera Macocel (tablero de fibra de madera de alta densidad fabricada a partir de elementos fibrosos básicos de madera prensados con un adhesivo de resina), unicel, acetato, así como también puede hacer grabados sobre madera. En cuestiones de madera MDF y Macocel los parámetros de corte son: espesor 2mm con una potencia de 15% a una velocidad de 30 mm/s, espesor de 2.5 mm con una potencia de 20% a una velocidad de 35 mm/s, espesor de 3 mm con una potencia del 35%  a una velocidad de 20 mm/s, espesor de 4.5 mm a una potencia de 55% a una velocidad de 30mm/s, espesor 6 mm con una potencia de 55% con una velocidad de 20 mm/s.- Para los grabados se usa una velocidad de 80 mm/s a un potencia del 10%. Para poder realizar un trabajo con estas máquinas de corte laser, antes se debe realizar el diseño del objeto mediante los software SolidWorks, Autocad y Corel Draw, después se exporta a la extensión PLT que es el lenguaje que puede leer las máquinas láser. Cada máquina utiliza el software SmartCarve en el cual se colocan los parámetros de potencia, velocidad, si será un vector de corte o un vector de grabado. Cada máquina tiene un espacio determinado de trabajo, así como los cañones de láser, hay maquinas con 1, 2 y hasta 4 cañones, por lo cual cada diseño se debe adaptar a la medida de la mesa de trabajo y del tamaño de la tabla a colocar, posteriormente se manda la orden a la computadora con las especificaciones necesarias. El resultado es muy preciso pero depende del buen control del ingeniero a cargo en modificar correctamente los parámetros, también cada máquina debe ser calibrada. La investigación se enfocó al estudio del proceso de elaboración de estos productos, mediante trabajo de campo, el cual solo es el primer paso del proceso ya que posteriormente conlleva otros pasos como los procesos de doblado, ranurado, lijado, pegado, reforzamiento para dar forma al producto final.


CONCLUSIONES

Cada producto tiene su proceso, pero sin duda las máquinas de corte láser tiene un lugar fundamental, y lo más importante es la optimización que proporciona a la producción como ventaja a la empresa en las cuales se encuentra la producción en masa de diversos productos que se distribuye en la región. Además que estar en el ámbito laboral, se puede observar más a detalle la organización de la empresa, aprender prácticamente lo que es estar ya adentro de ella, tratar con el personal, aplicar conocimientos previos como ingeniero industrial, y proporcionar una propuesta de mejora general.  
Alarcón Ortíz Oscar Amauri, Instituto Tecnológico de Pachuca
Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO-MáQUINA RECONFIGURABLE


MICRO-MáQUINA RECONFIGURABLE

Alarcón Ortíz Oscar Amauri, Instituto Tecnológico de Pachuca. López Montes Karla Yukie, Instituto Tecnológico de Culiacán. Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En una era de mayor competencia global, las tendencias sugieren que las ventajas competitivas en la nueva economía global pertenecerán a empresas capaces de desarrollar productos altamente personalizados. Para competir, las compañías requieren el desarrollo de Programas de Desarrollo de Nuevos Productos con una fuerza laboral capacitada y con conocimientos, y estructuras de gestión flexibles que estimulen las iniciativas cooperativas dentro y entre las empresas. La incorporación de los conceptos de Desarrollo de Nuevo Producto (NPD) contribuirá al crecimiento de la empresa y su impacto y beneficios esperados crearán una industria más competitiva y empleos de mayor valor agregado.



METODOLOGÍA

El proyecto micro-máquina reconfigurable ha sido una herramienta utilizada en el Tecnológico de Monterrey en años recientes, con el propósito de crear prácticas interactivas y llevar a la realidad proyectos que involucran principalmente la conceptualización de sistemas de manufactura. Se ha utilizado como estudio de caso para observar el comportamiento de equipos multidisciplinarios y responde tanto a la educación colaborativa como educación activa; dónde el docente provee las herramientas y guías para canalizar el aprendizaje de los estudiantes, quiénes a través de investigación y posteriormente aplicación del conocimiento pueden diseñar sus productos, procesos y sistemas de manufactura. Por lo tanto, la micro-máquina reconfigurable es un sistema de manufactura capaz de ser adaptado a diferentes configuraciones para efectuar distintos procesos, involucra la participación de equipos multidisciplinarios y da cabida a la generación de productos novedosos. Durante el tiempo de estancia se otorgaron como objetivos particulares para la estancia de investigación: • Proveer una metodología a los candidatos para el desarrollo de productos, procesos y sistemas de manufactura. • Desarrollar módulos funcionales de la micro-máquina reconfigurable Para el desarrollo del proyecto, los siguientes marcos de referencia fueron utilizados: Integrated Product, Process and Manufacturing System Development (IPPMD) Smart, Sensing and Sustainable (S3) approach Para el desarrollo del proyecto, se llevaron cabo las siguientes actividades: Definir el módulo a desarrollar. Introducción a la metodología de trabajo por medio del curso en línea Desarrollo rápido de productos innovadores para mercados emergentes en la plataforma de Coursera. https://www.coursera.org/learn/innovacion Realizar el prototipo funcional del módulo definido.  Plan de mediciones del proyecto  Fase de construcción 1. Concepción: la fase de concepción del producto, así como las actividades de diseño serán previas a la estancia del Verano de Investigación. 2. Desarrollo: El desarrollo del prototipo funcional del módulo para la máquina reconfigurable se llevará a cabo durante la estancia de los candidatos en los laboratorios del Tecnológico de Monterrey, Campus Ciudad de México. Para la elaboración de los prototipos funcionales se dispone de instalaciones en CEDETEC dónde podrán llevar a cabo las actividades necesarias para su desarrollo.  Conformidad 1. Pruebas: El desarrollo del módulo será evaluado directamente con la micromáquina reconfigurable, por lo tanto, deberán realizarse pruebas de funcionamiento en la misma. 2. Entregable: En el periodo de tiempo que comprende la estancia deberá desarrollarse el prototipo funcional, siguiendo la metodología antes expuesta, y con un enfoque S3.


CONCLUSIONES

Ofrecer una solución como la micro máquina reconfigurable al problema de capacitación práctica de máquinas para los estudiantes de las carreras de ingeniería debe ser complementada con la adecuada inducción ya que por sí sola presenta nuevas áreas de oportunidad como el manejo de softwares de uso abierto que limitan en cierto punto la comunicación del lenguaje entre el diseño que se planea con los movimientos que debe realizar la máquina, el mejorable cambio de herramientas para que estas sean más seguras, aprendizaje de Código G exclusivo para los softwares de uso abierto y la limitada área de trabajo con las que cuentan. Que al contrastar las ventajas que posee como la fácil adquisición de piezas en caso de que se estropee por el uso algún componente , al uso de software de uso gratuito, el bajo costo a diferencia de máquinas de uso industrial y a un entorno de aprendizaje más seguro aunado al bajo costo de adquisición para las instituciones de educación hace de la micro máquina micro configurable un elemento de educación beneficiosa en un entorno de práctica para que los estudiantes tengan un primer acercamiento a los conocimientos que deberán requerir para desempeñar una labor más preparada en la industria
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

CHATBOT:CREADO EN DIALOGFLOW


CHATBOT:CREADO EN DIALOGFLOW

Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Maldonado Tarelo Adrián, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Desarrollamos en Dialogflow un ChatBot que es capaz de responder dudas que el alumno tenga sobre su curso de programación, pero al inicio de todo para saber el nivel que el alumno tiene se le aplica un examen diagnóstico (que se desarrolló en otro chatbot) que nos ayuda a saber el tipo de nivel de conocimiento que tiene el alumno y el estilo de aprendizaje, en este caso el nivel principiante, nivel intermedio y nivel avanzado que se desglosan varios temas respecto al nivel. El ChatBot se creo con el fin de resolver dudas de programacion las 24 hrs. del dia y los 7 dias de la semana, respondiendo de una forma mas humana. Donde también cabe destacar el estilo de aprendizaje de este ChatBot es:  visual- auditivo visual-textual



METODOLOGÍA

El objetivo de este proyecto es resolver las dudas del alumno de su cruso de programcion, de distintos tipos de lenguajes por ejemplo: php, pascal, c++, java, etc... en esta herramientas abarcamos los mas utilizados en el que desarrollamos los siguientes temas: 1.- Evaluación (Nivel de conocimiento y Estilo de aprendizaje). 2.- Nivel básico. En este nivel se desarrolló: CONCEPTOS BÁSICOS: Algoritmo Diagrama de Flujo  Lenguajes de programación Entornos de programación  Tipos de variables TIPOS DE OPERADORES: Operadores de asignación Operadores Aritméticos Operadores relacionales o de comparación Operadores lógicos CONDICIONALES: Sentencia if Sentencia switch CICLOS: Ciclo for Ciclo while Ciclo do while 3.-Nivel intermedio  ¿Qué es una función? Sintaxis Tipos de Funciones Paso de parámetros Programación Orientada a Objetos Clase y Objetos Métodos Constructores Encapsulamiento Herencia  Polimorfismo 4.- nivel avanzado LENGUAJES HTML y HTML5: Etiquetas y estructura 


CONCLUSIONES

La conclusion de este proyecto es que el alumno desempeñe de manera eficaz sus conocimientos en su curso de programacion, asi como se que vuelva autodependiente al momento de realizar sus actividades educativas. Con esta herramienta se le facilitara al alumno su apredendizaje ya que se le resolveran sus dudas de manera inmediata.
Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Alcauter Flores Javier, Instituto Tecnológico de Morelia
Asesor: Dr. Carlos Rodríguez Doñate, Universidad de Guanajuato

ESTIMACIóN DE LOS PARáMETROS QUE DEFINEN LA DINáMICA DE MOVIMIENTO UTILIZANDO MORFOLOGíA MATEMáTICA


ESTIMACIóN DE LOS PARáMETROS QUE DEFINEN LA DINáMICA DE MOVIMIENTO UTILIZANDO MORFOLOGíA MATEMáTICA

Alcauter Flores Javier, Instituto Tecnológico de Morelia. Asesor: Dr. Carlos Rodríguez Doñate, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Cuando nos interesa explicar las causas del movimiento mecánico de un cuerpo es necesario utilizar la dinámica del movimiento, la cual explica y modela las causas del movimiento mecánico a partir del concepto de fuerza y las tres leyes del movimiento de Newton. Al aplicar el enfoque dinámico del análisis de un movimiento a un robot se pueden determinar los parámetros que definen la dinámica de movimiento como es posición, velocidad, aceleración y el jaloneo; los cuales están directamente relacionados con el desempeño del robot. Como es conocido, la velocidad se estima a partir de la primera derivada de una señal de posición, la aceleración es la segunda derivada de la señal de posición y con la tercera derivada de la señal de posición se estima el parámetro de jaloneo. En un robot o maquina CNC se puede estimada la señal de posición utilizando un encoder; no obstante, esto implica que la señal continua de posición se discretizara lo cual genera ruido de cuantización, que impedirán poder estimar con precisión cada uno de los parámetros que definen la dinámica de movimiento. Con este trabajo se propone una metodología basada en la morfología matemática para poder estimar los parámetros que definen la dinámica de movimiento, la cual demanda muy bajo consumo de recurso computacionales.



METODOLOGÍA

Para estimar los parámetros de velocidad, aceleración y jaloneo es necesario calcular la primera, la segunda y la tercera derivada de la función de posición. Una manera de obtener todos los parámetros es mediante la aplicación de diferencias finitas las cuales son una aproximación de la derivada mediante la diferencia entre un punto futuro de la funcion menos el actual entre un incremento. Lamentablemente, el solo aplicar las diferencias finitas para obtener los parámetros que definen la dinámica de movimiento no es suficiente, ya que el ruido de cuantización y externo de la señal no es atenuado, lo que provoca un error en la estimación de los parámetros. Existen varios métodos para la atenuación del ruido entre los cuales se encuentra los filtros digitales; sin embargo, para esta aplicación, el orden del filtro tiene que ser de un orden muy grande lo que implica una alta demanda de recursos computacionales y tiempo de ejecución. Otro método utilizado para la atenuación del ruido es la transformada wavelet no obstante esta herramienta requiere de cálculos complejos. Debido a la demanda excesiva de recursos computacionales y tiempo de ejecución, presentada en diferentes metodologías propuestas. Es necesario un método de bajo consumo de recursos computacionales y tiempo de ejecución para estimar con precisión los parámetros que definen la dinámica de movimiento. Por lo cual, en este trabajo se propone el uso del procesamiento morfológico que consiste en la extracción de estructuras geométricas en los conjuntos sobre los que se opera, mediante la utilización de otro conjunto de forma conocida, al que se le denomina elemento estructurante. El tamaño y forma del elemento estructurante se elige, a priori, de acuerdo con la morfología sobre la que va a interseccionar y en función de la obtención de formas que se desea extraer. Las transformaciones morfológicas utilizadas en este proceso son: Erosión: consiste en obtener los valores mínimos de todos los presentes en base al elemento estructural. Dilatación: consiste en obtener los valores máximos de todos los presentes en base al elemento estructural. Con estas transformaciones básicas es posible realizar cosas más complejas al combinarlas como es el caso de la transformada Top-hat por cierre, la cual consiste en descubrir el contorno de una señal. Con la elección de un elemento estructurante de forma, tamaño y orientación adecuada, es posible filtrar señales y eliminar determinados elementos en la señal original. La transformación de top-hat por cierre es el residuo entre la Cerradura morfológica y la identidad (señal original). Donde a su vez es el resultado de aplicar una dilatación a la identidad seguida de una erosión al conjunto resultante, dan como resultado una cerradura morfológica. Una vez estimada la señal de posición mediante las cuentas de encoder, el procedimiento para calcular la velocidad consiste en obtener la cerradura que se obtiene al aplicar la dilatación a la señal de posición, seguida de la erosión con lo cual se reduce el ruido de la señal, a partir de la cerradura de la señal, se aplica la transformada top-hat por cerradura, la cual consiste en restar la cerradura de la señal con la señal original. Para obtener la velocidad, se repite el proceso anterior pero ahora utilizando la señal de velocidad; finalmente el jaloneo se estima a partir de la señal de aceleración. De esta forma utilizando la transformada tob-hat se pueden obtener todos los parámetros que definen la dinámica de movimiento a partir de la señal de posición, con lo cual se puede monitorear el desempeño del robot.


CONCLUSIONES

En base a los resultados obtenidos, es posible monitorear la trayectoria de un robot para comprobar su correcto funcionamiento con lo cual se podría prevenir posibles fallas que afecten su desempeño. Además, se propuso una metodología simple para estimar los parámetros que definen la dinámica de movimiento, la cual se basa en la transformada top-hat por cierre, a diferencia de otras propuestas el consumo de recursos computacionales es mucho menor ya que esta metodología solo se basa en comparaciones, sumas y restas.
Alcocer Morales Diana Laura, Universidad Autónoma de Guerrero
Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato

CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.


CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.

Aguilar Sanchez Jose Manuel, Universidad Autónoma de Guerrero. Alcocer Morales Diana Laura, Universidad Autónoma de Guerrero. Álvarez Jiménez Julio César, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Navarro Miranda José Luis, Universidad de Sonora. Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Guanajuato tiene un legado arquitectónico único, el cual ha despertado interés sobre su Arquitectura en especial sobre los Sistemas Constructivos de las viviendas de los barrios tradicionales del Centro Histórico. Existen características singulares que permanecen en las construcciones, los cuales no han sido documentados y analizados en cuanto a su trazo, estereotomía y materiales.  Por lo anterior se revisarán los cerramientos de viviendas del siglo XIX y principios del XX encontradas en el centro de la ciudad. Estos destacan por su diversidad en soluciones dentro de la lógica estructural constructiva y formal. En el estado no hay este tipo de trabajos ya que la gran mayoría de las investigaciones están enfocadas a los aspectos estéticos de los edificios históricos.



METODOLOGÍA

Asistimos a fiestas Tradicionales y recorrimos por la ciudad como parte del Patrimonio Cultural de Guanajuato. Se investigó y analizó la Geohistoria de la Ciudad de Guanajuato para poder comprender los diferentes cambios que ha sufrido la ciudad. Se Seleccionaron y analizaron conceptos teóricos - conceptuales, con los cuales se investigaron los tipos de arcos que se encuentran y la estructura que los conforman. Se establecieron los antecedentes y planteamientos históricos para entender la importancia que tiene Guanajuato y cada uno de los inmuebles históricos que hasta la fecha se conservan. Se realizó trabajo de campo en la ciudad de Guanajuato, mediante levantamiento fotográfico y revisiones oculares. Se diseñaron fichas de catalogación para hacer más fácil sistematización de la información de cada cerramiento. Se dibujaron los trazos en 2D y 3D de los cerramientos elegidos. Determinamos las características generales de los cerramientos y su estado de conservación. Para finalizar el trabajo de investigación se redactó un informe técnico final.


CONCLUSIONES

Como resultado elaboramos una ficha de catalogación, en el cual anexábamos los datos de cada uno de los arcos seleccionados, que presenta la siguiente información: Datos de la institución donde se desarrolla la Investigación, Materiales, Localización, Observaciones, Descripción del arco (con una foto real del arco y sus elementos), Procedimientos del Trazo (acompañado de gráficos), Perspectivas del Arco realizado en 3D, y Datos del Autor. Para poder facilitar la realización de este trabajo se utilizaron a las siguientes herramientas; Software como AutoCAD, Revit, SketchUp, V-ray. Flexómetro y Cámara Fotográfica. Con lo mencionado anteriormente se logró cumplir el objetivo de entender y conocer diferentes tipos de cerramientos de viviendas históricas de la ciudad de Guanajuato, que se dividen desde su función, forma, estilo, entre otros. Conociendo el sistema constructivo de las casas históricas se tienen mejores posibilidades de tener una intervención más adecuada.                                                                                                              En algunos casos de los cerramientos que quedaron en hipótesis, y por lo tanto fueron modelados en 3D con medidas proporcionales ya que fue imposible acceder a las instalaciones y poder obtener las medidas reales. A través de los trazos con la ayuda de la geometría descriptiva y la estereotomía logramos entender el sistema constructivo y estructural. En la época en que fueron edificadas estas construcciones no se utilizaban herramientas y elementos constructivos actuales, como hoy en día el acero, concreto armado, y tampoco la utilización de softwares para poder visualizar y calcular la resistencia adecuada de los materiales.
Aldana Alfaro Luis Gerardo, Instituto Tecnológico de Pachuca
Asesor: M.C. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás (Colombia)

NORMATIVIDAD, REGULACIÓN Y BUENAS PRÁCTICAS DE MANUFACTURA DE DISPOSITIVOS MÉDICOS EN COLOMBIA: REVISIÓN BIBLIOGRÁFICA


NORMATIVIDAD, REGULACIÓN Y BUENAS PRÁCTICAS DE MANUFACTURA DE DISPOSITIVOS MÉDICOS EN COLOMBIA: REVISIÓN BIBLIOGRÁFICA

Aldana Alfaro Luis Gerardo, Instituto Tecnológico de Pachuca. Asesor: M.C. Ingrid Carolina Moreno Rodriguez, Universidad Santo Tomás (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de una revisión bibliográfica forma una fase primordial de todo proyecto de investigación y debe asegurar la obtención de la información más relevante en el campo de estudio, de un universo de documentos que puede ser muy extenso. (González de Dios et al., 2013). Para el proceso de investigación bibliográfica se debe contar con material informativo como libros, revistas de divulgación o de investigación científica, sitios Web y demás información necesaria para iniciar la búsqueda y en este sentido, generar una base de datos que abone en el proceso de investigación, se busca indagar la mayor cantidad de información de un tema en específico, con el objetivo de identificar lo que se va a investigar, para emprenderlo y comprenderlo en sus distintas fases (Bolaños, 2012). El trabajo tiene como objetivo, realizar una revisión bibliográfica de la normatividad y Buenas Prácticas de Manufactura (BPM), respecto a los dispositivos médicos en Colombia, analizando la Norma NTC 13485; norma que juega un papel importante en este país para  el cumplimiento de todos los requisitos normativos y del cliente, la gestión del riesgo y el mantenimiento de procesos eficientes, específicos al diseño de la fabricación y la distribución segura de los dispositivos médicos. (Enos & Swanson, 2015) por lo anterior se genera la pregunta de investigación ¿Cómo construir una revisión bibliográfica orientada a investigaciones de normatividad y buenas prácticas de manufactura en dispositivos médicos en Colombia?    



METODOLOGÍA

La presente investigación, consistió en una revisión bibliográfica basada en la metodología propuesta por (Gómez, Fernando, Aponte, & Betancourt, 2014) compuesta por 4 etapas: 1. Definición del problema, 2. Búsqueda de la información, 3. Organización de la información y  4. Análisis de la información.   1. Definición del problema El problema se orientó a la consulta y búsqueda de investigaciones asociadas a dispositivos médicos basadas en la NTC ISO 13485 y en la Guía de Buenas Prácticas de Manufactura en Colombia.  2. Búsqueda de la información Una vez determinado el tema, se consultaron distintas fuentes de información, entre ellas: normas, reportes técnicos, patentes, revistas especializadas, memorias de conferencias, proyectos de grado y tesis. Para llevar a cabo esta búsqueda de información, fue necesario hacer uso de las palabras clave que permitieran un desarrollo más eficiente, dentro de ellas: Dispositivos Médicos, Reglamentación y Normatividad, Buenas Prácticas de Manufactura, NTC 13485, Sistemas de Gestión de Calidad. Cabe aclarar que se realizó la búsqueda de las temáticas en Inglés y español, con el objetivo de ampliar el espacio de información.  3. Organización de la información Para efecto de este proyecto la información se agrupó en matrices, hojas de cálculo, que permitieron generar una base de datos para la organización del material consultado Este proceso se llevó a cabo con la ayuda de diversas plataformas como: Scimago Journal & Country Rank, ¿dónde lo publico?, dialnet, scopus y redalyc.org. Para mayor análisis de la información se construye una matriz, a partir de la cual se identifican las diferentes fuentes de información, asociadas a la temática de interés, se incluyen factores claves como: categoría, factor de impacto, país, editorial, frecuencia de publicación, así como el link de cada una, para consultar la información pertinente en cada temática de la investigación 4. Análisis de la información En esta etapa se registró la información en la plataforma Mendeley, se identifica el porcentaje de publicaciones por país en revistas científicas referentes al tema de interés, con el objetivo de tomar como referente las investigaciones desarrolladas en los países con mayor porcentaje.


CONCLUSIONES

En este artículo se presentó el desarrollo de una revisión bibliográfica sobre la Normatividad y BPM de los Dispositivos médicos en Colombia. Mediante una macro búsqueda se generó una base de datos compuesta por 38 documentos que contiene Normatividad, Guías de BPM y Documentación Legal permitiendo el sustento para futuras investigaciones en el tema.  Se generó una matriz de 15 revistas indexadas que permiten el acceso a la información publicada o en dado caso, ser un referente para próximas publicaciones de acuerdo a la temática abordada. Mediante la Herramienta Mendeley se sistematizo la información de una manera  ordenada, eficiente y accesible, esto permite el acceso a la información en cualquier momento. Como resultado del análisis de los países potenciales que generan publicaciones de dispositivos médicos, se identifica que Estados Unidos lidera el tema con 56%, seguido de Reino Unido con 22% y el único país representado Latinoamérica es Cuba con 7%, denotando que los países latinos aun no figuran en las publicaciones. A pesar de que desde el año 2011 el tema ha tenido un crecimiento interesante, las publicaciones que aborden la importancia de la normatividad y las BPM de los dispositivos médicos en Latinoamérica son escazas. A pesar de que Colombia es el tercer país latinoamericano con el mercado más grande de dispositivos médicos luego de Brasil y México y que este sector aporta el 2,7% del PIB colombiano según un estudio realizado por (Global Health Intelligence, 2017), como se muestra en la Figura 5, Colombia no figura entre los países que cuentan con trabajos de Investigación de esta temática, denotando deficiencia de investigaciones asociadas, que si bien existen algunos trabajos de grado en universidades, no existen artículos o documentos de carácter científico que permitan conocer a fondo el contenido. Por último se puede concluir que se cumplió el objetivo del trabajo, resaltando la importancia de la revisión bibliográfica ante cualquier tema de interés.
Alegría Palacios Mariana, Instituto Politécnico Nacional
Asesor: Dr. Juan Gabriel Aviña Cervantes, Universidad de Guanajuato

PROCESAMIENTO DIGITAL DE IMáGENES DEL FONDO DEL OJO PARA LA IDENTIFICACIóN DE VASOS SANGUíNEOS PRESENTES EN LA RETINA EMPLEANDO EL FILTRO DE FRANGI.


PROCESAMIENTO DIGITAL DE IMáGENES DEL FONDO DEL OJO PARA LA IDENTIFICACIóN DE VASOS SANGUíNEOS PRESENTES EN LA RETINA EMPLEANDO EL FILTRO DE FRANGI.

Alegría Palacios Mariana, Instituto Politécnico Nacional. Asesor: Dr. Juan Gabriel Aviña Cervantes, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La retinografía es la prueba diagnóstica que permite guardar imágenes digitales a color del fondo del ojo con el uso de un retinógrafo ocular conformado por un sistema de lentes al que se le acopló una cámara fotográfica y una computadora para el almacenamiento de las imágenes adquiridas; la realización de esta prueba es posible gracias a la transparencia de la córnea, el cristalino y el humor vítreo que permiten observar de forma directa las estructuras de la retina. Con la exploración del fondo del ojo, porción posterior del interior del globo ocular, es posible estudiar la retina, los vasos sanguíneos, el disco óptico, la mácula y la fóvea para el diagnóstico de enfermedades oculares e incluso de enfermedades como hipertensión arterial. El estudio de los vasos sanguíneos presentes en la retina es esencial en el diagnóstico médico de enfermedades oculares, ya que es posible identificar obstrucciones y filtraciones, vasos sanguíneos nuevos y anormales, observar la evolución de enfermedades como la diabetes (retinopatía diabética) y el glaucoma, además es de gran importancia en el seguimiento de lesiones retinianas. Gracias a la linealidad y conectividad de los vasos sanguíneos retinianos es posible realizar su segmentación, sin embargo, existen factores que dificultan la segmentación como el tamaño, el color y la forma.



METODOLOGÍA

Para la detección de vasos sanguíneos presentes en la retina se hizo uso de la base de datos High-Resolution Fundus (HRF) Image Database que proporciona 45 imágenes del fondo del ojo, tanto de pacientes sanos como de pacientes con glaucoma y diabetes, además proporciona el ground truth de cada imagen. Una vez adquirida la base de datos y haciendo uso del software MATLAB se realizó la adquisición de cada imagen para su análisis.   Uno de los obstáculos para la segmentación de los vasos sanguíneos es la presencia del disco óptico, ya que por sus características tiende a ser la zona más brillante de la imagen, por lo que al extraerlo se facilita la segmentación de los vasos sanguíneos. Al trabajar con la imagen en el modelo YIQ con la capa Q se observa que el disco óptico ya no representa un problema y a la vez se resaltan los vasos sanguíneos. Para mejorar el contraste en la imagen se realiza una operación en la que se satura el 1% inferior y el 1% superior de todos los valores de los píxeles para después trabajar con el negativo de esta imagen.   Con el filtro desarrollado por Frangi para estructuras y fibras similares a vasos o tubos, se obtiene una imagen en donde se observan las ramas principales, pero al especificar el grueso de las estructuras tubulares, el umbral para diferenciar la estructura tubular del fondo y la polaridad de las estructuras tubulares con el fondo se obtiene otra imagen en la que se observan las ramas exteriores de la red vascular pero se observa un ruido de sal y pimienta; ambas imágenes se binarizaron con un umbral obtenido de acuerdo al histograma acumulado de cada una. Ya que ambas imágenes tienen ruido se extraen los objetos más grandes a 20 pixeles para después realizar una operación lógica OR.   Es necesario crear una máscara para extraer el contorno de las imágenes, por lo que se realizó un filtrado con la primera derivada para detectar los bordes de la imagen, este filtro se aplica a la imagen en el modelo RGB, con un 29.9% de la capa R, 29.9% G y 11.4 % de la capa B, después se binariza la imagen con un umbral calculado de acuerdo al histograma acumulado , se extraen los objetos mayores a 1 píxel y se aplican operaciones morfológicas de cierre y dilatación con un elemento de estructuración cuadrado con lados de 12 píxeles.   Una vez obtenida la máscara se realiza una operación AND entre la imagen obtenida con el filtro de Frangi y la NOT de la máscara, a esta nueva imagen se le aplican operaciones morfológicas de cierre y dilatación con un elemento de estructuración cuadrado con lados de 2 píxeles. Por último, se aplica un filtrado de mediana con una ventana de 11x11 para eliminar ruido dando como resultado la identificación de los vasos sanguíneos presentes en la retina. Para realizar la medición de los resultados obtenidos, se realizó la evaluación de la identificación realizada calculando métricas binarias para lo que se calcularon los verdaderos positivos, falsos positivos, verdaderos negativos y los falsos negativos.


CONCLUSIONES

Durante la estancia de verano se logró desarrollar un algoritmo para la identificación de los vasos sanguíneos presentes en la retina con una exactitud del 93.92 ± 0.78, una sensibilidad del 76.04% ± 6.28, una especificidad del 95.48% ± 1.11 y un índice de Jaccard del 48.55 % ± 6.22. Se plantea la posibilidad de desarrollar un clasificador que permita identificar lesiones o estructuras biológicas extrañas en la red vascular retiniana como una siguiente etapa del proyecto.
Alejandrez Palacios Cristian Leonel, Universidad de Colima
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

CAPTACIóN SOSTENIBLE DE AGUAS GRISES TRATADAS Y SU GESTIóN INTEGRAL EN EL METROPOLITANO DE LA ESTACIóN EL NARANJAL, LIMA –PERú, 2019.


CAPTACIóN SOSTENIBLE DE AGUAS GRISES TRATADAS Y SU GESTIóN INTEGRAL EN EL METROPOLITANO DE LA ESTACIóN EL NARANJAL, LIMA –PERú, 2019.

Alejandrez Palacios Cristian Leonel, Universidad de Colima. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

El Metropolitano de la ciudad de Lima es el transporte público más utilizado entre los ciudadanos, dando 650mil personas al día como estimado de usuarios. La estación El Naranjal sirve a la comunidad los siete (07) días de la semana de 5:00 a 23:00, de lunes a viernes (18 horas)  y los sábados y domingos (17 horas). Es una de las estaciones más congestionadas del Metropolitano debido a la afluencia de usuarios finales que llegan, habiendo en horas punta hasta 20mil ciudadanos utilizando dicho medio de trasporte. El uso de los servicios higiénicos dentro de la estación tiene un flujo constante donde encontramos una necesidad en la estación El Naranjal, ya que según comentan los usuarios su rutina desde casa a trabajo, escuela, etc. y viceversa dura en promedio 2 horas, además de eso, cualquier lugar que tenga un flujo de personas abundante como la que hay en el  metropolitano es necesario tener las correctas instalaciones con una funcionalidad óptima, desafortunadamente según los censos realizados hemos encontrado hasta 800 personas entrando por hora a hacer uso de los servicios higiénicos, habiendo hasta un promedio 15 personas por minuto, siendo que las instalaciones de los servicios de la estación El Naranjal tiene un gran déficit en la capacidad de abastecimiento ya que no da ni siquiera para la mitad de personas que ingresan en un minuto, existiendo solo 3 inodoros y 3 mingitorios en un estado inaceptable por la falta de mantenimiento, higiene entre otras cosas. Y provocando largas filas dentro de las instalaciones, lo que no da seguridad, higiene y la privacidad que unos servicios higiénicos deberían de otorgar. El uso de los servicios higiénicos dentro de la estación El Naranjal da como resultado 750m3 de aguas negras al mes, de las cuales se trabajará con el 43.76% que cumple a la parte de las aguas grises que da como resultado 328.1m3 al mes, de las cuales, el proceso de tratamiento de aguas grises nos arrojaría 246m3 de agua para su reutilización dentro de la misma estación, teniendo un ahorro de S/1195 mensual. (S/4.858 por m3 según SEDAPAL) Según la Viceministra de Gestión Ambiental del Ministerio del Ambiente del Perú. En Perú el 70 por ciento de aguas residuales industriales y domésticas se vierte a los cursos de agua sin tratamiento, a diferencia de otros países que ya superaron ese problema  (González del Valle Ana María, 2017, Andina).



METODOLOGÍA

Se comenzó analizando las instalaciones de los servicios higiénicos, donde nos pudimos dar cuenta que el volumen diario aproximado que se utiliza al día era una cantidad impresionante y que podía ser de gran auge al ser reutilizable en muchas actividades.             Una vez analizado el problema en general y concluyendo que es viable comenzamos a realizar el proyecto.             Primero se hizo un censo de entrada a los servicios higiénicos, separando en hombres y mujeres  día debido al distinto uso de agua, encontrando un máximo de 4060 hombres y 2130 mujeres. Así como separar en días y horas de la semana, teniendo como día crítico el viernes con un ingreso de 6190 máximas diarias debido a la distinta demanda. Esto para encontrar los volúmenes críticos al día.             Encontrado el ingreso de hombres y mujeres ya mencionado, se indagó en los servicios higiénicos para estudiar el organismo de aguas residuales y logística hidráulica donde encontramos los inodoros con una descarga de 4.8lpf y los mingitorios de 3.8lpf. dentro de los servicios higiénicos de la estación El Naranjal esto con la intención de mediante un cálculo encontrar el volumen total diario y así comenzar a proponer los tanques de almacenamiento y procesamiento.             Una vez obtenido el volumen crítico, comenzamos con lo principal el diseño de las dimensiones de los tanques de almacenamiento y procesamiento. En donde según los cálculos antes realizados nos da un tanque de 14m2 (4mx2.5mx1.4m).


CONCLUSIONES

Al finalizar este proyecto podemos concluir que debido a la problemática que hay a nivel local, nacional y mundial es necesario y urgente comenzar a hacer algo al respecto, para ello, esta opción de tratamiento de aguas grises es una opción viable, donde encontramos más de 350m3 al mes, lo equivalente a 82820 descargas en los inodoros de los sanitarios higiénicos tratados, también es importante mencionar que llegamos a un producto tecnológico y sostenible, debido al auge ecológico y ambiental con el que fue diseñado. En la cual nos da la oportunidad de conocer directamente el agua tratada con el que se cuenta, con el fin de desarrollar y utilizar este recurso importante al inmediato. Es importante también mencionar que lo importante del tratamiento de aguas es el ciclo que se puede generar con determinada cantidad de agua, para lograr el desarrollo sostenible que nos marca la ONU en sus objetivos, Agua limpia y saneamiento donde nos dice claramente que se quiere reducir reduciendo a la mitad el porcentaje de aguas residuales sin tratar y aumentando considerablemente el reciclado y la reutilización sin riesgos a nivel mundial, donde nos damos cuenta del auge que se puede alcanzar con algo tan sencillo. Por último es importante mencionar que el tratamiento de aguas grises no es el fin del ahorro del agua, es necesario encontrar nuevas maneras de tratar el agua, aplicarlos en donde todos los rincones del mundo, pero sobre todo encontrar maneras de remplazar el uso de este recurso tan importante para la vida.
Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Alemón Pérez Alejandro, Instituto Politécnico Nacional
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT


CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT

Alemón Pérez Alejandro, Instituto Politécnico Nacional. de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. López Hernández Omar, Instituto Tecnológico de Estudios Superiores de Zamora. Saavedra González David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial está cada vez más acercado hacia nuestra realidad, como parte de los próximos sistemas que interactúen con nuestro mundo. Como parte de estos sistemas se encuentran los chatbots, que son sistemas con los que podemos llevar una conversación e interactuar. No obstante, el desarrollo actual de los chatbots no llega a permitir una interacción más natural ya que no cuenta con el suficiente procesamiento del lenguaje natural con el usuario que necesita de ellos, además de que en el país se cuentan con pocos que cubran necesidades y las hagan más sencillas. Por lo que se pretende crear un sistema conversacional el cual sea inteligente y que ayude en ciertas tareas cotidianas donde pueda comunicarse de manera hablada para mejorar la manera en la que se relaciona el usuario y el sistema, para introducir cada vez más con tecnología de este tipo y sentar las bases para otros nuevos proyectos.



METODOLOGÍA

Para poder comenzar a trabajar con un chatbot los elementos de un chatbot, nos familiarizamos con el tema e interactuamos con chatbots ya creados para conocer su funcionamiento. Como primer punto de partida en programación trabajamos en realizar ejemplos de chatbots en servicio web, creando nuestra propia inteligencia usando el lenguaje AIML y fueron puestos a prueba por varios usuarios, la temática fue muy fácil para el usuario donde el objetivo principal era comprar frutas. Posteriormente realizamos ejemplos de chatbots usando chatvoice, decidimos programar varios temas de chatbot, después de una evaluación de 30 ideas iniciales solo elegimos dos los cuales se describirán a continuación: HAUNTER Haunter es un Chatbot diseñado en las personas que buscan una herramienta que les facilite conseguir un empleo, pero que aun tengan dudas de como realizar su currículum vitae, Haunter le realiza una serie de preguntas en cuanto a sus datos personales, historial académico, historial de empleos, aptitudes y habilidades técnicas. Cuando termina la conversación Haunter genera el documento dando un diseño del currículum donde el usuario solo tiene que introducir su fotografiá. Haunter también pregunta si desea realizar una simulación sobre una entrevista de trabajo, en esta simulación Haunter tiene una charla con el usuario como si fuera cuestionado por un reclutador, es por ello que fue diseñado para adquirir experiencia en cuanto realice una entrevista real. DenunciaBot La inseguridad cada vez es mas común para muchas personas en la ciudad de México y la mayoría de los robos realizados no tienen ninguna denuncia es por ello y estando consciente de ello se decidió realizar un chatbot para ayudar a las personas a realizar una denuncia. DenunciaBot a través de un pequeño cuestionario donde el usuario narra los hechos y dependiendo lo robado da recomendaciones para que el usuario este informado de lo que tiene que hacer en caso de un asalto o robo. Fueron desarrollados en el lenguaje de programación Python ya que es un lenguaje de programación procedural con una sintaxis muy limpia. Además tiene una gran cantidad de recursos que lo han convertido en uno de los lenguajes de programación predilecto entre programadores. También esta desarrollado YAML que contiene un formato para guardar objetos con estructura de árbol; nos familiarizamos con el lenguaje de programación conociendo primeramente aspectos generales como tipos de datos, declaración de variables, estructuras de datos, ejecución, formas de control, módulos, funciones, archivos de texto para lectura y escritura, excepciones y algunas funciones extras. Los chatbots estan funcionando en Linux y Anaconda como entorno de desarrollo en Windows.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del chatbot y chatvoice. Se cumplieron los objetivos propuestos al iniciar la estancia de investigación. Se administró correctamente el tiempo para su realización. El material de apoyo proporcionado por el profesor fueron de gran utilidad. Se aplicaron y reafirmaron los conocimientos adquiridos en nuestras respectivas universidades.
Alfaro Aleman Alejandro Salvador, Instituto Tecnológico de Pachuca
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

TRATAMIENTOS TÉRMICOS PARA LA MODIFICACIÓN DE LAS PROPIEDADES MECÁNICAS DE UN ACERO AISI 9840.


TRATAMIENTOS TÉRMICOS PARA LA MODIFICACIÓN DE LAS PROPIEDADES MECÁNICAS DE UN ACERO AISI 9840.

Alfaro Aleman Alejandro Salvador, Instituto Tecnológico de Pachuca. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Las propiedades mecánicas son muy importantes para la industria en general, por lo que es necesario saber cómo se pueden modificar y si esas modificaciones son buenas o malas. El presente trabajo pretende aportar a la comunidad como se modifica la microestructura del acero grado maquinaria AISI 9840, sometiéndolo a diferentes tratamientos térmicos como recocido globulizado, templado, bonificado, normalizado y relevado de esfuerzos, de esta forma se buscara analizar las propiedades mecánicas adquiridas, determinando la importancia de cada una. Así mismo poder darse cuenta de la importancia de los tratamientos térmicos y como son estos la mejor herramienta para la modificación de dichas propiedades.



METODOLOGÍA

El proceso  de la investigación para la elaboración de los tratamientos que modificaran las propiedades mecánicas de un acero AISI 9840 estuvo compuesto por 12 actividades las cuales serán mencionadas a continuación.   Actividad 1: Se selecciona y se cortar el material indicado (acero AISI 9840), seleccionando un acero redondo de ¾ de pulgada de diámetro, y para fines de probeta se cortó con un espesor de 1cm  (2.54 in). Se elaboraron 6 probetas de este acero, una  para que fuera observada en condición de suministro y las otras cinco para realizarles tratamientos térmicos. Actividad 2: Se realizar un análisis de dureza a la probeta que está en condición de suministro, ya que es primordial que se observe el material como viene de fábrica para poder ver los cambios o las modificaciones que este tiene  cuando se le expone a un tratamiento térmico.  Actividad 3: Se empieza con la caracterización metalográfica para poder observar la microestructura que tiene este acero en condición de suministro, y así poder notar los cambios cuando ya se haya tratado térmicamente. El primer paso es el desbaste grueso, esto se logra lijando la probeta transversalmente y longitudinalmente. El desbaste grueso se realiza con distintas lijas desde la 80 hasta la 1500. Actividad 4: Continuando con la caracterización se realiza el pulido fino. El pulido fino se lleva a cabo en la máquina de pulido, esto se realiza colocando la cara de la probeta que va a ser pulida  sobre el paño que está girando, pero antes se le debe de añadir alúmina. La alúmina se prepara con 100ml de agua y 10gr de alúmina calcinada. Actividad 5: Se lleva a cabo el microataque, esto es para que se pueda observar con facilidad los granos y las fases que conforman este acero. El microataque se hizo con el reactivo nital a 3%; este reactivo se compone de 100ml de alcohol y 3ml de ácido nítrico. Actividad 6: Se realiza el análisis metalográfico, que técnicamente es observar nuestra probeta en el microscopio, aquí vamos a poder observar la microestructura de nuestra probeta a distintitos aumentos. Actividad 7: Se empieza a crear los diseños de los tratamientos térmicos, para poder determinar la temperatura de calentamiento para cada tratamiento, de igual manera se calcula el tiempo de permanencia que la probeta debe de estar en el horno; e igual se determina la velocidad y el método de enfriamiento. Actividad 8: se empieza a realizar los primeros tratamientos térmicos: recocido globulizado, temple y bonificado. Actividad 9: Se debe realiza un cordón de soldadura, para las dos probetas que restan, para después llevarlas a sus correspondientes tratamientos térmicos, los cuales son normalizado y relevado de esfuerzos. Actividad 10: Una vez que se ha concluido con los tratamientos térmicos, se empieza con la caracterización metalográfica (desbaste grueso, pulido fino, microataque y observación en el microscopio) de las probetas en condición de tratamientos térmicos. Actividad 11: Se analiza las durezas de las probetas en condición de tratamiento térmico. Actividad 12: Se analizaran todos los resultados comparando las probetas, y se determinan las conclusiones a las que se llegan con esta investigación.


CONCLUSIONES

Los resultados encontrados son los siguientes. Se logró diseñar perfectamente cada ciclo de tratamiento térmico. Encontrando su temperatura de calentamiento, tiempo de permanencia y velocidad de enfriamiento para cada tratamiento, con ayuda de las temperaturas criticas encontradas en el diagrama CCT de este acero las cuales fueron: critica inferior de 750 º C y la crítica superior de 800 ºC. Resulto que hubo cambios en la dureza de las probetas tratadas térmicamente con respecto a la probeta en condición de suministro, unas bajaron y otras aumentaron su dureza, dependiendo su tratamiento térmico. Hablando metalográficamente, se logró cambiar la microestructura con cada tratamiento, ya que inicialmente se tenía una microestructura con matriz bainita. Pero posteriormente se llegó a modificar obteniendo en algunos casos martensita aumentando su dureza y en otros casos un poco de ferrita disminuyendo la dureza, dependiendo el tratamiento que se les haya aplicado. Conclusión: En esta investigación se logró el objetivo principal que era modificar las propiedades mecánicas con los tratamientos térmicos. Observando que los tratamientos térmicos son  muy importantes, puesto que cada tratamiento nos ayuda a modificar las propiedades y la microestructura que más nos convenga  para  el trabajo o uso, que este destinado este material. Además es buena herramienta para arreglar las modificaciones no deseadas de otros procesos; por ejemplo el de la soldadura, ya que este, hace modificaciones que no se tiene planeadas por su calentamiento sin controlar, y como en el tratamiento térmico su calentamiento es perfectamente controlado nos ayuda a modificar nuevamente pero ahora con lo que nosotros necesitamos. Para concluir puedo afirmar que  los tratamientos térmicos son una herramienta muy difundida en la industria, debido a que los procesos  exigen que los materiales tengan ciertas propiedades mecánicas, en especial de dureza, es ahí cuando los tratamientos térmicos encuentran su papel.
Alomía Hernández José Ramón, Universidad Veracruzana
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA


SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA

Alomía Hernández José Ramón, Universidad Veracruzana. Ayala Padilla Abraham, Instituto Tecnológico Superior de Ciudad Hidalgo. Cardona Martínez Salvador, Universidad de Guadalajara. García Carbajal Yasmín, Instituto Tecnológico de Morelia. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la identificación por radiofrecuencia (RFID) es una de las tecnologías con mayor crecimiento dentro de la industria de las tecnologías de la información y las comunicaciones (TIC) y de la identificación automática. En este contexto, RFID es una tecnología que puede utilizarse en un amplio espectro de aplicaciones, tales como control de acceso, seguimiento, seguridad, control de inventario, logística, entre otros. El objetivo es optimizar el control de acceso a los servidores garantizando la estadía de los equipos en el área de trabajo mediante el monitoreo constante, utilizando la tecnología RFID    para administrar eficientemente horario de entradas y salidas del personal.



METODOLOGÍA

El acceso por RFID se llevará a cabo a través de un Arduino Nano usando los siguientes componentes: • Módulo RFID RC522. • ESP8266-01. • Buzzer. • Led. • Reguladores de voltaje para 5V y 3.3V. • Cerradura eléctrica /Motor DC. • Sensor magnético. Se pretende desarrollar el módulo de acceso haciendo uso de ESP8266 debido a su bajo coste potencia de conexión y transmisión de datos, por lo que no es necesario hacer uso de una Raspberry Pi para la transmisión y evolución de datos de los usuarios. Una vez finalizadas las pruebas de funcionamiento y conexión en Protoboard se pasará a hacer el diseño de circuito impreso o PCB, se conseguirá o creará una carcasa para el circuito para finalmente realizar la conexión eléctrica-electrónica del circuito. El ESP8266 es la parte esencial de el modelo de acceso ya que a través de el el sistema RFID puede acceder al servidor y consultar el tag que se está leyendo en el momento y permitir el acceso. El sistema cuenta con las siguientes características: Comunicación Serial entre Arduino Nano y ESP8266 lo que permite tener una comunicación a internet. Comunicación I2C para LCD lo que permite ahorrar gran cantidad de pines y sólo utilizar los destinados a I2C Sensor magnético para mandar una notificación cuando la puerta haya sido abierta o cerrada, no basta con tener el acceso permitido desde el identificador RFID. Generalizando el funcionamiento de software y comunicación se encuentran los siguientes pasos para hacer la autenticación. El sistema está en espera de una lectura de tarjeta. El usuario acerca la tarjeta de identificación al sistema y este envía una señal hacia el ESP8266 a través de sus puertos seriales para así realizar una petición al servidor del tag. Se comprueba el acceso realizando una conexión con la API en la raspberry, verificando si el tag se encuentra entre los usuarios registrados dentro de la dirección URL. De ser así se manda un pulso eléctrico a la cerradura y esta debe ser desbloqueada. Una vez abierta la puerta el campo magnético del sensor desaparecerá y notificará al servidor que la puerta ha sido abierta. El sistema tendrá una espera de 7 segundos después de que el campo magnético del sensor de abra para dar tiempo al usuario para que cierre la puerta, de no ser así el buzzer emitirá un sonido constante y no permitirá que se ingrese otro tag hasta que el sensor magnético detecte que la puerta ha sido cerrada correctamente. De esta manera se puede implementar fácilmente una aplicación móvil o web de análisis de datos para monitorear qué es lo que está ocurriendo con los módulos en distintos puntos así como poder hacer la autenticación a través de las aplicaciones, sin necesidad de tener una tarjeta magnética, sólo la autenticación escolar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los componentes y equipos necesarios para el monitoreo constante de los servidores, sin embargo, al ser un extenso trabajo sólo se logró llegar a un prototipo funcional con la contrachapa. Los diseños de los PCBs están listos para ser enviados a maquilar para que después se les suelden los componentes y por último ser instalado en la puerta.
Alonso Aguirre Alfredo, Instituto Tecnológico de Acapulco
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

CARACTERIZACIóN MECáNICA PARA EVALUAR LA FUERZA DE ADHESIóN DE UN RECUBRIMIENTO BASE POLIMETILMETACRILATO REFORZADO CON NANOPARTíCULAS DE SíLICE


CARACTERIZACIóN MECáNICA PARA EVALUAR LA FUERZA DE ADHESIóN DE UN RECUBRIMIENTO BASE POLIMETILMETACRILATO REFORZADO CON NANOPARTíCULAS DE SíLICE

Alonso Aguirre Alfredo, Instituto Tecnológico de Acapulco. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los metales en mayor parte se pueden encontrar en la naturaleza, aunque difícilmente en estado puro ya que estos generalmente se encuentran unidos a otros formando variedad de minerales. Al estar de forma pura quedan propensos a especies químicas oxidantes y la corrosión entonces tiene lugar. Esta última es una interacción entre el metal y el ambiente en el que se encuentra lo cual es una problemática de suma importancia por resolver. Particularmente en el acero tiene una amplia gama de usos, uno de ellos es para las estructuras que se encuentran océanos así como los barcos siendo estos los primeros en sufrir el tema de la corrosión. Los recubrimientos son parte de la solución o disminución de este problema ya que protegerán al metal en cuestión de interactuar con el medio ambiente, por otro lado la adhesividad al momento de adherir dos piezas de acero con un pegamento industrial también se vería beneficiada del uso de estos recubrimientos. En el CFATA se ha desarrollado un recubrimiento base PMMA reforzado con Nps de sílice el cuál podría ser parte de las soluciones a las problemáticas antes mencionadas, el cuál será caracterizado mecánicamente para evaluar la fuerza de adhesión.



METODOLOGÍA

Se utilizaron como muestras sustratos de acero inoxidable con dimensiones de 3cm x 2 cm y 1 cm de espesor los cuales fueron previamente tratados con el recubrimiento base polimetilmetacrilato reforzado con nanopartículas de sílice. Las muestras preparadas fueron suministradas por el Centro de Física Aplicada y Tecnología Avanzada de la Universidad Nacional Autónoma de México campus Juriquilla. Cabe destacar que los sustratos antes de ser recubiertos con el polímero fueron tratados mediante 2 tipos de limpieza (con Na2HPO4 y electrolimpieza) con el fin de mejorar la adherencia del sustrato al polímero, eliminar impurezas, presencia de grasa o cualquier desperfecto con el fin de evaluar también si hay diferencias en los resultados entre un tratamiento y otro. Se adaptaron al equipo de tensión y pruebas mecánicas unos aditamentos cilíndricos de acero desmontables para poder ejecutar varios ensayos a la vez y optimizar el tiempo de ejecución de pruebas el cual anteriormente debía ser realizado uno a la vez con un tiempo de curado del pegamento de 24 hrs entre cada ensayo. Se aplicó a cada sustrato pegamento industrial marca JB Clearweld con el fin de comparar los resultados en base a un adhesivo comercial ampliamente utilizado en el ámbito naval, se unió el sustrato con cada aditamento desmontable del equipo y se dejó un tiempo de curado de 24 hrs para garantizar que este haya fijado correctamente. Para evitar que el material del pegamento se relajara e hiciera un falso pegado se colocó un contrapeso por encima de las muestras durante todo el tiempo de cura. Una vez pasado el tiempo de cura se realizaron las pruebas mecánicas para evaluar la fuerza de adhesión. Se colocó cada muestra en el equipo y a su vez fue sujetada de la parte inferior (de los sustratos de acero) por un par de mordazas. Entonces se ejecutó el ensayo y el equipo comienza a ejercer fuerza hacia arriba con el fin de desprender el recubrimiento del sustrato o en su defecto si el pegamento sufre una falla y este se desprende antes. En cualquier escenario el equipo registró la fuerza necesaria para que ocurriera este desprendimiento así como arrojar un gráfico que permite evaluar el comportamiento del adhesivo y el recubrimiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre diversos tipos de polímeros y nanopartículas así como distintos métodos de síntesis de los mismos. Se pusieron a prueba sustratos tratados química y eléctricamente recubiertos con un polímero base PMMA el cual fue reforzado con Nps de Si con el fin de evaluar mecánicamente su fuerza de adhesión al utilizarse en él un pegamento de carácter industrial. Debido a que los ensayos mecánicos se siguen ejecutando no es posible mostrar resultados aún pero se espera que ambas limpiezas de los sustratos así como el recubrimiento en si puedan mejorar la adhesión con el pegamento. Ésta tan solo fue la parte mecánica de la caracterización de este polímero reforzado con nanopartículas de sílice, se siguen caracterizando otras propiedades del mismo por lo cual es necesario seguir desarrollándose esta línea de investigación.
Alonso Mendoza Erika Citlally, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco

EVALUACIóN DE HUMEDALES ARTIFICIALES PARA EL TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS CON VEGETACIóN NATIVA DE TABASCO.


EVALUACIóN DE HUMEDALES ARTIFICIALES PARA EL TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS CON VEGETACIóN NATIVA DE TABASCO.

Alonso Mendoza Erika Citlally, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco



PLANTEAMIENTO DEL PROBLEMA

El agua es una sustancia básica para el desarrollo humano y el desarrollo de cualquier país, este recurso se encuentra cada vez más amenazado debido a que se utiliza indiscriminadamente sin responsabilidad vertiendo estas después de utilizarse a cuerpos receptores sin el tratamiento correcto o sin alguno. Actualmente se considera unos de los mayores problemas ambientales siendo de origen aguas industriales, domésticas o urbanas y agropecuarias. Las descargas domesticas generalmente se deben a causa de las actividades diarias que se realizan en los hogares y de servicios públicos, todas ellas desechadas a través de drenajes sanitarios de una comunidad. Gran parte de las descargas domesticas cuentan con la presencia de solidos suspendidos, desechos orgánicos, grasas, jabones, generando un gran peligro para la vida y los ecosistemas. Por lo anterior expuesto se buscan soluciones que disminuyan el impacto de las aguas residuales. Unos de los métodos naturales son humedales artificiales, un proyecto que no es reciente pero que, debido a sus características de bajo costo, eficiencia y que no necesita de sustancias externas, lo hacen sustentable y amigable con el mismo ambiente. Debido a que el diseño está estructurado en base a áreas de transición entre sistemas acuáticos y terrestres, que conocemos como pantanos, ciénagas o ecotonos se debe buscar aplicar la tecnología para beneficio de las comunidades.



METODOLOGÍA

Se utilizaron dos rectores, uno para un sistema de humedal artificial de flujo libre (HAFL) y el otro para un humedal artificial de flujo subsuperficial (HAFS), los cuales cuentan con dimensiones de 2.5 m de largo x 1.2 m de ancho x 1 m de altura. Los reactores presentan un medio de soporte, grava mixta, necesaria para el enraizamiento de la vegetación, el cual cubre 10 cm y 50 cm respectivamente del reactor, con vegetación macrofita Echinodorus paniculatus, nativa de Tabasco que ayudará para el crecimiento microbiológico necesario para el sistema. La vegetación debe de contar con un tiempo de adaptación en el sistema de aproximadamente 3 a 6 meses, este lapso de tiempo puede ser menor o mayor dependiendo de las características de la planta. Una vez que la vegetación se adapta al sistema se notará el crecimiento de esta misma y comenzará la etapa de arranque de los humedales. Se realizó el monitoreo del sistema para evaluar la eficiencia de los humedales y consiste en el monitoreo de entrada y salida de los humedales, este fue realizado una vez a la semana en un lapso de cuatro semanas. Dentro de los parámetros evaluados durante este proceso se encuentran: pH (UpH), temperatura (ºC), conductividad eléctrica (uS/cm), turbiedad (UTN), sólidos disueltos totales (mg/L) y color (UC) en los efluentes e influentes del proceso. Una vez realizado el monitoreo, se lleva a cabo una determinación de la eficiencia de remoción de los contaminantes presentes en las aguas residuales domésticas. También se realiza un análisis de comparación de los datos obtenidos en cada semana para observar comportamiento promedio de los humedales.


CONCLUSIONES

Una vez realizados los análisis se puede concluir que la vegetación Echinodorus paniculatus es eficiente en ambos tipos de flujo, siendo ligeramente más eficiente en esta etapa de la evaluación el humedal de flujo libre (HAFL), presentando 9.4% para pH (con una entrada de 8.0 y una salida de 7.2 UpH), 14.2% CE (entrada de 1097.3 y salida 941.3 uS/cm), 14.2% SDT (entrada de 549.3 y salida de 471.3 mg/L), 67% en color (entrada de 1013.8 y salida de 335 UC) y 77.5% en turbiedad (entrada de 73.3 y salida de 16.5 UNT), mientras que en el humedal de flujo subsuperficial (HAFS) sus parámetros cuentan con una eficiencia de remoción de 6% para pH (con una entrada de 8.0 y una salida de 7.5 UpH), -5.9% CE (entrada de 1097.3 y salida 1161.5 uS/cm), -7% SDT (entrada de 549.3 y salida de 587.5 mg/L), 67.4% en color (entrada de 1013.8 y salida de 330.8 UC) y 64.9% en turbiedad (entrada de 73.3 y salida de 25.7 UNT).
Alonso Vázquez Vicente Pascual, Universidad de Guadalajara
Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE


DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE

Alonso Vázquez Vicente Pascual, Universidad de Guadalajara. Altamirano Sanchez Jesus David, Instituto Tecnológico Superior de Huauchinango. Velázquez González Osvaldo David, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las características cuantitativas y cualitativas en el llanto infantil permiten diferenciar razonablemente entre llantos normales y patológicos. Los beneficios de esta búsqueda no son la detección de enfermedades sino ofrecer una herramienta no invasiva para valorar el llanto y poder intervenir lo más tempranamente posible en aras de proveer un tratamiento pronto y efectivo. Es por eso que se desarrolló una interfaz gráfica para facilitar el análisis y procesamiento de señales acústicas del llanto de bebé, desde su lectura a partir del audio hasta obtener las características cualitativas y cuantitativas para ser mostradas de manera ordenada y completa para ayudar al usuario a comprender la información obtenida, posteriormente con las características cualitativas realizar el proceso de clasificación utilizando diversas técnicas como lo son: Redes neuronales, clasificaciones Neuro Difusos y kNN (k-nearest neighbours). Esto se realiza con la finalidad de automatizar la información obtenida del procesamiento de la señal, y con esa misma información poder aplicar los clasificadores sin tener que ejecutar cada programa o proceso de manera independiente, sino desde una misma interfaz.



METODOLOGÍA

Cuantitativas Para poder visualizar una interfaz intuitiva y fácil de manejar por el usuario se desarrolló una primera pantalla que solicita al usuario, un usuario y una contraseña, al ser los datos correctos la interfaz permite al usuario visualizar dos botones contenidos en una nueva interfaz, botones que le permiten al usuario elegir las características que desea obtener, la interfaz brinda dos opciones, Características Cuantitativas y Características Cualitativas, dependiendo de la opción que se elija se desplegará otra ventana para poder hacer la clasificación. La interfaz realiza la clasificación a través de una red neuronal ya entrenada, lo que se hizo fue modificar la interfaz para hacerla más intuitiva y completa, ya que está en un principio seleccionaba únicamente un archivo WAV, situación que sin duda consume tiempo si se desea analizar más de una sola muestra, se mejoró la interfaz para que esta le permitiera al usuario seleccionar una carpeta completa, al seleccionar la carpeta, los archivos WAV contenidos en esta son visualizados en un menú desplegable. La interfaz analizará el audio wav seleccionado, realizará un análisis de este, obteniendo su coeficiente de Predicción Lineal (LPC), el cual es un método importante de caracterización de propiedades espectrales del llanto en el dominio del tiempo. En este método de análisis, cada muestra de la onda del llanto es predicha como una suma ponderada lineal de p ejemplos. Y después de extraer el LPC se pasa a través de la Red Neuronal entrenada para poder obtener el diagnóstico del llanto, y de esta manera saber su tendencia, ya sea sordo, asfixia o normal. Además para que el medico pueda llevar un análisis más completo se agrega una ventana de visualización del espectrograma, ya que con este es posible visualizar con más detalle la estructura armónica de la señal, se puede de igual manera acercar o alejar la señal simétricamente entre el espectrograma y la señal de audio para poder ver en distintos puntos más detalles de esta, que si se analiza de manera completa no se pueden identificar fácilmente, además un apartado para poder guardar las señales en formato JPG por si se desea más adelante analizarlas fuera del programa. Cualitativas Para encontrar las características cualitativas en los llantos, se toman en cuenta las siguientes variables: Tipo de Melodía: Ascendente, descendente, ascendente-descendente, descendente-ascendente, plana, y sin forma melódica, Glide, Concentración de ruido, Shitf. Lo que se hace es contar cuantas veces se encontró ese tipo de característica en los llantos, de este modo se obtiene un vector de 10 elementos por cada audio analizado. Una vez entendido eso, se procedió a realizar lo siguiente.  Restructuración, La información se mostraba todo en texto plano, mezclado la información de todos los audios, haciendo difícil entender u observar los resultados, entonces lo que se hizo fue colocar los nombres de cada audio en un menu, para que así el usuario pueda elegir de que audio requiere ver su información. Segmentación, los audios no necesitan tener una duración normalizada para poder ser procesados, por lo cual la duración de cada audio puede variar, de igual forma la segmentación ayuda a tener más muestras para poder analizar, por tal motivo se agregó la opción de segmentar, especificando los segundos de los segmentos. Mapeo de características, A la interfaz se le agrego la opción de mapear las características obtenida, este mapeo se realizó utilizando dos ejes, X y Y, una vez procesado cada audio se convertirá en un vector de 11 elementos, donde los datos útiles se encuentran entre la columna 1 a la 10. Cuando ya se tiene la matriz de datos se normaliza aplicando la fórmula de unidad tipificada (z-score), posteriormente para poder graficar en 2 dimensiones se tuvo que reducir la dimensionalidad de los datos, utilizando el método de Análisis de componentes principales (PCA). Clasificación, para poder utilizar los clasificadores se necesita tener en un mismo archivo csv todos los datos, por lo tanto, se incorporó la opción de poder descargar y ver. Después se anexaron a la interfaz el clasificador Neuro Difuso y el clasificador kNN, con el fin de observar su comportamiento.


CONCLUSIONES

Podemos concluir que, durante el lapso de la estancia, se aprendió, a manejar el software Praat y reforzar los conocimientos de MATLAB, de igual manera se comprendieron los temas tales como: procesamiento de Bioseñales acústicas, aplicación de clasificadores, y el uso de aprendizaje computacional. Pero sobre todo se ha aprendido a realmente lo que es realizar Investigación, además de poder haber aplicado los conocimientos adquiridos durante la carrera. Como resultados obtuvimos que la interfaz facilita el proceso de extracción de características y la clasificación, se espera que el nuevo clasificador propuesto obtenga una precisión similar, esto únicamente se realiza por motivos experimentales.
Alpizar Martínez Niza Lucero, Universidad Autónoma del Estado de México
Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit

IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT


IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT

Alpizar Martínez Niza Lucero, Universidad Autónoma del Estado de México. García Zamudio José Martín, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Sanchez Moran Jose Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los ataques a los servidores conectados a través de internet siguen avanzando con el transcurso del tiempo, los atacantes utilizan diferentes herramientas para extraer información de un servidor de manera que no se vean expuestos a ser descubiertos, por lo cual se utilizan, los sistemas de detección de intrusos las cuales, son herramientas que detectan los ataques evitando que se sigan reproduciendo. Sin embargo, en los últimos años se ha empezado a utilizar la tecnología de honeypot como un sistema de seguridad, los cuales son equipos vulnerables para atraer a los atacantes y analizar las acciones que realizan, es decir, es un servidor falso diseñado para analizar las estrategias de los hackers y de esta manera entrar a un sistema con seguridad mínima con la finalidad de alterar, copiar o destruir los datos, por ejemplo, borrar la información del disco duro del servidor. ¿Para qué sirve? Desviar la atención de los atacantes del sistema para evitar que se comprometa la información de la empresa. Capturan todo tipo de ataques entre ellos virus y gusanos, para analizarlos posteriormente. Conocer nuevas vulnerabilidades y sistemas operativos que tengan riesgo de ser atacados para estudiarlos y evitar ocuparlos. Así mismo, los objetivos principales de este proyecto son los siguientes: Identificar los ataques que se realizan a un servidor en red. Implementar un sistema de detección de intrusos con base al sistema de T-Pot. Clasificar la gran cantidad de datos recolectados por un honeypot. Monitorizar cada uno de los ataques para posteriormente analizarlos y de esta manera evitar su utilización.



METODOLOGÍA

La metodología que se utilizó para la realización de este proyecto se menciona a continuación: Revisión de literatura actual sobre el tema de honeypots. Reconocimiento de las distintas actividades que se pudieran llevar a cabo hacia los sistemas para vulnerarlos. Utilización de herramientas en línea para detectar vulnerabilidades en diferentes páginas web, así mismo, se realizó el escaneo de algunas direcciones IP con la herramienta Nessus en Kali Linux. Investigación de diferentes herramientas y tipos de ataque que se pudieran ejecutar en los sistemas operativos Kali, BlackArch y Parrot para pruebas de penetración y escaneo. Análisis de vulnerabilidades que presentan los equipos escaneados. Búsqueda de información acerca de las herramientas para la implementación del honeypot. Se hizo un estudio acerca de los componentes que incluye el T-Pot y cuáles de ellos serían útil para la implementación. Para la implementación del honeypot se instaló primordialmente en máquinas virtuales para entender el funcionamiento, tomando en cuenta cada una de las características que se requería para su instalación, por ejemplo, el tamaño que necesitaba. Una vez conociendo la instalación y comportamiento en la máquina virtual fue necesario instalar el honeypot en una máquina física con las características requeridas para estudiar su comportamiento de acuerdo con los ataques que recibía. Ejecución de ataques a los equipos de prueba con las herramientas de los sistemas operativos, mencionados en el punto 4.   Análisis de la información generada de los ataques en el T-   Pot siendo una serie de reportes mostrados en un visualizador clasificando las características del ataque. Instalación de una máquina virtual en las plataformas de Amazon AWS y en Google Cloud Plataform para realizar la instalación del T-Pot y observar su comportamiento de acuerdo con los reportes generados. Creación de alertas y generación de reportes en la herramienta Kibanna.  Conforme a los resultados obtenidos se pudieron encontrar la forma de comportamiento que presentan los atacantes y los sistemas atacados, así como la ubicación de donde provienen, sus objetivos, tipos de ataque y los riesgos que presentan.


CONCLUSIONES

La instalación de honeypots en una red permite analizar las acciones que realizan los atacantes para acceder a los sistemas sin comprometer la seguridad de la información real. Así mismo, permitió detectar los equipos donde se produjeron los ataques. El análisis de los ataques producidos en la red realizados con éxito a los equipos trampa generaron reportes que posteriormente se analizaron para obtener resultados más acertados. Con base a los reportes generados se logró identificar los ataques más comunes para extraer información de un sistema. Es importante mencionar que se presentaron algunas complicaciones para la instalación del honeypot, ya que, por cuestiones de la red no se instalaban todos los paquetes por lo que al interactuar con el mismo no arrojaba resultados favorables. Sin embargo, se muestran algunos beneficios que nos ofrece el honeypot. Atrae a los atacantes evitando que muestre interés en otras máquinas que tienen información importante. Se puede ver la actividad de los atacantes que hacen, que información extraen, que es lo que buscan. Predecir el propósito de los intrusos, los métodos de ataques y las herramientas que utilizan. Mejora la seguridad de los servicios dentro de la red. Conforme a las pruebas de penetración se analizó el posible comportamiento que presentaran los atacantes posteriormente. 
Altamirano Sanchez Jesus David, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE


DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE

Alonso Vázquez Vicente Pascual, Universidad de Guadalajara. Altamirano Sanchez Jesus David, Instituto Tecnológico Superior de Huauchinango. Velázquez González Osvaldo David, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las características cuantitativas y cualitativas en el llanto infantil permiten diferenciar razonablemente entre llantos normales y patológicos. Los beneficios de esta búsqueda no son la detección de enfermedades sino ofrecer una herramienta no invasiva para valorar el llanto y poder intervenir lo más tempranamente posible en aras de proveer un tratamiento pronto y efectivo. Es por eso que se desarrolló una interfaz gráfica para facilitar el análisis y procesamiento de señales acústicas del llanto de bebé, desde su lectura a partir del audio hasta obtener las características cualitativas y cuantitativas para ser mostradas de manera ordenada y completa para ayudar al usuario a comprender la información obtenida, posteriormente con las características cualitativas realizar el proceso de clasificación utilizando diversas técnicas como lo son: Redes neuronales, clasificaciones Neuro Difusos y kNN (k-nearest neighbours). Esto se realiza con la finalidad de automatizar la información obtenida del procesamiento de la señal, y con esa misma información poder aplicar los clasificadores sin tener que ejecutar cada programa o proceso de manera independiente, sino desde una misma interfaz.



METODOLOGÍA

Cuantitativas Para poder visualizar una interfaz intuitiva y fácil de manejar por el usuario se desarrolló una primera pantalla que solicita al usuario, un usuario y una contraseña, al ser los datos correctos la interfaz permite al usuario visualizar dos botones contenidos en una nueva interfaz, botones que le permiten al usuario elegir las características que desea obtener, la interfaz brinda dos opciones, Características Cuantitativas y Características Cualitativas, dependiendo de la opción que se elija se desplegará otra ventana para poder hacer la clasificación. La interfaz realiza la clasificación a través de una red neuronal ya entrenada, lo que se hizo fue modificar la interfaz para hacerla más intuitiva y completa, ya que está en un principio seleccionaba únicamente un archivo WAV, situación que sin duda consume tiempo si se desea analizar más de una sola muestra, se mejoró la interfaz para que esta le permitiera al usuario seleccionar una carpeta completa, al seleccionar la carpeta, los archivos WAV contenidos en esta son visualizados en un menú desplegable. La interfaz analizará el audio wav seleccionado, realizará un análisis de este, obteniendo su coeficiente de Predicción Lineal (LPC), el cual es un método importante de caracterización de propiedades espectrales del llanto en el dominio del tiempo. En este método de análisis, cada muestra de la onda del llanto es predicha como una suma ponderada lineal de p ejemplos. Y después de extraer el LPC se pasa a través de la Red Neuronal entrenada para poder obtener el diagnóstico del llanto, y de esta manera saber su tendencia, ya sea sordo, asfixia o normal. Además para que el medico pueda llevar un análisis más completo se agrega una ventana de visualización del espectrograma, ya que con este es posible visualizar con más detalle la estructura armónica de la señal, se puede de igual manera acercar o alejar la señal simétricamente entre el espectrograma y la señal de audio para poder ver en distintos puntos más detalles de esta, que si se analiza de manera completa no se pueden identificar fácilmente, además un apartado para poder guardar las señales en formato JPG por si se desea más adelante analizarlas fuera del programa. Cualitativas Para encontrar las características cualitativas en los llantos, se toman en cuenta las siguientes variables: Tipo de Melodía: Ascendente, descendente, ascendente-descendente, descendente-ascendente, plana, y sin forma melódica, Glide, Concentración de ruido, Shitf. Lo que se hace es contar cuantas veces se encontró ese tipo de característica en los llantos, de este modo se obtiene un vector de 10 elementos por cada audio analizado. Una vez entendido eso, se procedió a realizar lo siguiente.  Restructuración, La información se mostraba todo en texto plano, mezclado la información de todos los audios, haciendo difícil entender u observar los resultados, entonces lo que se hizo fue colocar los nombres de cada audio en un menu, para que así el usuario pueda elegir de que audio requiere ver su información. Segmentación, los audios no necesitan tener una duración normalizada para poder ser procesados, por lo cual la duración de cada audio puede variar, de igual forma la segmentación ayuda a tener más muestras para poder analizar, por tal motivo se agregó la opción de segmentar, especificando los segundos de los segmentos. Mapeo de características, A la interfaz se le agrego la opción de mapear las características obtenida, este mapeo se realizó utilizando dos ejes, X y Y, una vez procesado cada audio se convertirá en un vector de 11 elementos, donde los datos útiles se encuentran entre la columna 1 a la 10. Cuando ya se tiene la matriz de datos se normaliza aplicando la fórmula de unidad tipificada (z-score), posteriormente para poder graficar en 2 dimensiones se tuvo que reducir la dimensionalidad de los datos, utilizando el método de Análisis de componentes principales (PCA). Clasificación, para poder utilizar los clasificadores se necesita tener en un mismo archivo csv todos los datos, por lo tanto, se incorporó la opción de poder descargar y ver. Después se anexaron a la interfaz el clasificador Neuro Difuso y el clasificador kNN, con el fin de observar su comportamiento.


CONCLUSIONES

Podemos concluir que, durante el lapso de la estancia, se aprendió, a manejar el software Praat y reforzar los conocimientos de MATLAB, de igual manera se comprendieron los temas tales como: procesamiento de Bioseñales acústicas, aplicación de clasificadores, y el uso de aprendizaje computacional. Pero sobre todo se ha aprendido a realmente lo que es realizar Investigación, además de poder haber aplicado los conocimientos adquiridos durante la carrera. Como resultados obtuvimos que la interfaz facilita el proceso de extracción de características y la clasificación, se espera que el nuevo clasificador propuesto obtenga una precisión similar, esto únicamente se realiza por motivos experimentales.
Alvarado Amézquita Abraham Martin, Universidad Tecnológica de Bahía de Banderas
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

IMPLEMENTACION DE LAZO DE CONTROL DE SISTEMA DE ALIMENTACIÓN SOLAR PARA LA OBTENCIÓN DE HIDROGENO MEDIANTE PLASMA.


IMPLEMENTACION DE LAZO DE CONTROL DE SISTEMA DE ALIMENTACIÓN SOLAR PARA LA OBTENCIÓN DE HIDROGENO MEDIANTE PLASMA.

Alvarado Amézquita Abraham Martin, Universidad Tecnológica de Bahía de Banderas. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, en México los residuos sólidos urbanos RSU se han incrementado considerablemente. De acuerdo con datos del INEGI en 2018 se recolectaban diariamente 86,343 toneladas en todo el país, de estos, el 87% de los tiraderos de basura son a cielo abierto y 13% rellenos sanitarios y sólo se separa diariamente 11% de la basura recolectada. Sin embargo, la mayor contaminación al medio ambiente por RSU son los gases tóxicos generados por su descomposición natural. Los principales gases tóxicos que se generan son el metano, el bióxido de carbono y el sulfuro de hidrogeno. Sin embargo, de estos gases puede recuperarse hidrogeno mediante la descomposición de sus moléculas. En este sentido la tecnología de plasma ha sido una alternativa de energía limpia y capaz de disociar las moléculas debido a sus características físico-químicas, de cuasineutralidad y de comportamiento colectivo de electrones. La transformación de los gases tóxicos en compuestos no contaminantes, aunado a la recuperación de un gas altamente energético como lo es el hidrogeno a partir de los RSU, es uno de los principales objetivos del proyecto.  El proyecto consiste en realizar un sistema fotovoltaico autónomo como fuente de alimentación al reactor de plasma, para el tratamiento de gases tóxicos con el fin de obtener Hidrógeno de ese proceso.



METODOLOGÍA

De acuerdo a las actividades establecidas para la realización de la estancia, a continuación se describe la metodología realizada para la implementación de algunas de las etapas del sistema fotovoltaico propuesto. Empezamos a caracterizar el panel fotovoltaico que estaríamos usando para conocer sus valores del voltaje de salida a circuito abierto (Vout) y corriente a corto circuito (Isc) reales expuestas al ambiente local y también para conocer los parámetros eléctricos para el cargado de baterías. Una vez caracterizado el panel se procede a diseñar un circuito cargador de voltaje de potencia para realizar la conexión entre el panel solar y la batería de ciclo profundo, con la finalidad de que el sistema funcione con batería cuando no exista luz solar y con la celda fotovoltaica cuando exista luz solar. Se diseña el circuito en PCB con el software Altium Designer para montar el circuito y agregar todos los componentes electrónicos necesarios. También se realiza el diseño mecánico de la estructura que tendría el soporte del panel mediante los programas AutoCAD y SketchUp, para mandar a hacer con las medidas deseadas dicha estructura. Teniendo la estructura metálica, se adaptarán motores unipolares a pasos para el desplazamiento y rotación de nuestro panel para el seguimiento del rastro solar, de cierta manera como un girasol mecánico para obtener la máxima energía captada por el sistema. Una vez realizada la caracterización del panel, el diseño de la estructura y el circuito cargador. Se diseña el modelo del reactor de plasma con configuración de doble barrera dieléctrica (DBD) para su manufactura, posteriormente se interconecta el sistema de alimentación fotovoltaica con el reactor de plasma.    


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de diseño mecánico y electrónico, es decir, del diseño mecánico del soporte de panel, el diseño PCB del circuito cargador, el diseño del reactor de plasma, de sistemas de alimentación de plasma. De igual manera, en las actividades establecidas para la estancia, incluía el apoyo a los otros proyectos, como es el de un horno de inducción, proceso bioquímico. Se impartieron cursos de diseño magnético y el software de diseño de sistemas LabVIEW. Desafortunadamente por la magnitud del proyecto, quedaron pendientes las otras etapas del sistema fotovoltaico, es decir, la implementación del control y motores de autoajuste de posición, el acoplamiento de la fuente de alimentación de plasma y el reactor de plasma.  
Alvarado del Valle Luis Gerardo, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

SIMULACIÓN DE UNA CELDA ROBÓTICA CON FREECAD Y PYTHON


SIMULACIÓN DE UNA CELDA ROBÓTICA CON FREECAD Y PYTHON

Alvarado del Valle Luis Gerardo, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

La empresa de MANUFAI esta dedica a la soldadura haciendo uso de la inteligencia artificial (IA), por lo que sus  labores son realizadas  con brazos robóticos que se encargan de unos procesos de soldadura. El problema que se identifico es cuando en la celda se establecen 4 robot, los cuales comienzan a realizar su labor en una sola pieza en la cual después de cierto tiempo de estar trabajando hay un momento en que aparece una colisión; esto se debe a que no se establecieron movimientos coordenados con los demás robot, si estos movimientos no se realizan adecuadamente causaríamos daños al robot o a las piezas en las que se trabaja. Otro tema muy importante que maneja MANUFAI es la de los problemas y defectos comunes en la soldadura, la soldadura puede presentar algunos problemas o defectos que suelen ser detectados con mayor frecuencia, afectando no solo la estética y el terminado de sus piezas finales, sino también, la calidad de las mismas, existen muchos de los problemas o defectos en la Soldadura los cuales  se derivan de una mala planeación.   El verdadero problema es con las colisiones, esto crea un problema grave ya que con esto se presentan pérdidas muy importantes para la empresa, tales como tiempo invertido y sobre todo pérdida económica al momento de no estar laborando este robot.   En este proyecto se pretende realizar una simulación de este robot al momento de colisionar y mediante esta se pretende determinar unos movimientos específicos para que no exista este tipo de problemas y la empresa pueda continuar normalmente con sus labores.



METODOLOGÍA

La simulación de robots genera una muestra de escenarios representativos para un modelo en los cuales se realizan pruebas de todos los estados posibles de movimientos adecuados para un robot al igual que los estados de movimientos imposibles. Por esta razón la empresa MANUFAI lleva a cabo un proyecto de simulación para los movimientos adecuados de robots encargados de realizar soldaduras, manejando diferentes softwares para poder realizar esta tarea sin poner en riesgo algún empleado o el equipo de trabajo en este caso un robot. En este proyecto se lleva a cabo la simulación de un brazo robótico en tres dimensiones del software de FreeCAD, aplicación libre para el diseño asistido por computadora la cual tiene un módulo para robots que cuenta con dos maneras de manipulación de estas herramientas las cuales podríamos decir que es la manera manual y la remota. En este caso se basa específicamente en la manea remota ya que el mismo software cuenta con una consola de python, en ella se desarrolla un código para poder realizar la simulación  de un robot para poder predecir sus movimientos y así mismo evitar un mal movimiento ya que esto puede provocar que se deñe el robot y no es conveniente para la empresa.   El proyecto se realiza con algunos conocimientos basados en la programación para llevar acabo el desarrollo de serie de códigos directamente en la consola de python que se incluye en la aplicación de FreeCAD la cual permite que se establezca una comunicación para la manipulación de los robots de manera remota. En el código realizado se pueden ingresar coordenadas para que el robot se dirija a ella, a la igual muestra una trayectoria de punto inicial a final y esta puede ser dividida en una serie de puntos si nosotros lo deseamos tampoco olvidemos que podemos modificar la velocidad con la que se moverá el robot ya que esto es muy importante en un proceso de soldadura.


CONCLUSIONES

El desarrollo de este proyecto fue un éxito gracias a los conocimientos obtenidos durante la instancia, los cuales fuero de gran ayuda, específicamente en  programación ya que forma un papel muy importante para el desarrollo de y manipulación de las nuevas tecnologías. Con la programación se pudo obtener una excelente comunicación remota desde la consola de python y el robot, esto forma parte muy importante para la empresa ya que en este software de FreeCAd no se había desarrollado una simulación directamente desde la consola de python y mediante este proyecto la empresa emprenderá proyectos de simulación de sus robots con movimientos específicos y en lugares claramente indicados.
Alvarado Gonzalez Oscar Josue, Universidad de Colima
Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

IDENTIFICACIóN AUTOMATIZADA DEL HUESO ISQUION EN UN CONJUNTO DE IMáGENES DE ULTRASONIDO.


IDENTIFICACIóN AUTOMATIZADA DEL HUESO ISQUION EN UN CONJUNTO DE IMáGENES DE ULTRASONIDO.

Alvarado Gonzalez Oscar Josue, Universidad de Colima. Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Según estudios de la Universidad de Pittsburgh (UP), la forma del hueso en lugares conocidos como de alto riesgo puede ser un factor significativo para las lesiones por presión. En el caso de paciente postrado, la tuberosidad isquiática es uno de los puntos de presión en el cual ocasiona la aparición de úlceras de presión. Con un conjunto de imágenes de ultrasonido proveniente de un modelo 3D tipo maniquí, de la Dra. Sandra Arias de la UP, ella demostró que dicho método puede ser viable para usarlo para determinar las características del hueso, sin embargo, el proceso de identificación requiere que, de manera manual, se determine la zona donde se extrae la información mediante el procesamiento de la imagen. Se requiere determinar de manera automática esa zona, para identificar el hueso isquion y obtener las características de todo el conjunto de imagenes. La versión original se realizó en MATLAB®, se busca explorar en Python como una posible alternativa de código abierto para la siguiente propuesta.



METODOLOGÍA

Para abordar este problema, se elaboró un programa manual en el que se hicieron las pruebas con una muestra del 10% de imágenes aleatorias, donde se probaron diferentes metodologías para la identificación del hueso. Para probar la robustez, se aplicaron pruebas para la elección de las metodologías que se aplicarían en el programa automatizado y se eligieron a las que dieron mejores resultados en el set completo. Primero se preparó el conjunto de imágenes, después, se obtuvo el número identificador para cada imagen para que, al momento de guardarlas, se pueda implementar un código que almacene cada imagen con su respectivo número identificador y, además, un nombre nuevo. Las imágenes originales contienen información del paciente y del equipo, así como de la zona de interés (ultrasonido). Por lo que como primer paso se segmento esa zona, primeramente, se le aplica una umbralización a toda la imagen, posteriormente, se le aplica un cierre para eliminar puntos negros en el área del ultrasonido, y finalmente se erosiono para que el borde de la imagen fuera más recto. Una vez con el borde detectado, se determinaron las coordenadas del borde y se recorta de la imagen original de manera automática. Como siguiente paso, se mejoró el contraste del fondo con la imagen del hueso para ello, una vez con el ultrasonido detectado se puede trabajar mejor con la imagen, pero aún tiene regiones que no interesan, por lo cual se aplicó una técnica para eliminar ruido, una vez con el ruido eliminado se aplica un normalizado en la imagen para resaltar blancos, se ecualizó para aumentar el contraste del ultrasonido y al final se umbralizó. En la tercera etapa, la imagen quedó lo suficientemente limpia para hacer una detección de bordes, de los cuáles se encuentra el borde con mayor área que suele ser el hueso. En el método ya automatizado, se trabajaron con 4 conjuntos de imágenes, con un total de 690 imágenes, se obtuvo un margen de error del 6.666%, esto ya que el hueso se encuentra muy cerca de la zona de ruido. Una vez que se detecta el borde se recorta la imagen nuevamente y se le agrega un margen para los huesos que no son detectados totalmente. La siguiente etapa consiste en extraer los parámetros reportados previamente, para ello se requiere transformar las imágenes de hueso en función de éstas.


CONCLUSIONES

Durante la elaboración de este trabajo de investigación, logre adquirir conocimientos de procesamiento de imágenes en general, se usó el lenguaje de programación Python usando el entorno de desarrollo de Visual Studio Code, así como también la familiarización con las librerías en este caso las que mas se necesitaron fueron OpenCV para el procesamiento de imágenes y Numpy para trabajar más fácil con matrices. El objetivo de identificar y segmentar el hueso de manera automática se cumplió para dejar lista el conjunto de imágenes para encontrar las características de éste para que sea posible la visualización de patrones en la forma que tiene el hueso y estudiarlo en la deformación en personas que padecen la patología. La principal aportación del proyecto consistió en darle al investigador una herramienta de segmentación del hueso de interés para el gran volumen de imágenes que se generan con este procedimiento. Durante esta estancia también se tuvo la oportunidad de generar conocimientos como la redacción de artículos científicos, trabajar en grupos interdisciplinarios, el hablar en público de manera técnica y adquirir conocimientos de otras áreas.
Alvarado Perales Alan Isaí, Instituto Tecnológico de Piedras Negras
Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional

TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD


TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD

Alvarado Perales Alan Isaí, Instituto Tecnológico de Piedras Negras. Castilla Diaz Evelyn, Instituto Tecnológico de Tuxtla Gutiérrez. Garibaldi Velázquez Carmen Leticia, Universidad de Guadalajara. Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El motivo por el cual es que se busca realizar este tipo de proyecto es porque actualmente, en el CICATA no existe información a simple vista sobre los lugares que se encuentran en la institución. Así que se desea que el usuario tenga esa facilidad de moverse a través en las instalaciones, por lo cual se desea realizar una app móvil, para usuarios Android, ya que existe un estudio de que los dispositivos Android, en un artículo llamado Evolución de la cuota de mercado de Android(2009-2018) en donde se expresa que en el primer cuatrimestre del 2009, se decía que Symbian, el sistema operativo de Nokia, era dueña y señora del mercado, al pasar del tiempo, para el 2011, Android ya era el sistema operativo más utilizado en el mundo hasta la actualidad.   Otra de las ventajas de la realización de la aplicación móvil es por el simple hecho de ser más práctico y accesible para la mayoría de las personas tanto discapacitadas como no discapacitadas. Accesible en costos y practico en la utilización de estos dispositivos móviles. Y aparte, sin mencionar que nos ofrecen herramientas útiles, como, por ejemplo: Google TalkBack Está diseñada para dispositivos Android y facilita el acceso y consulta del teléfono móvil a personas con discapacidad visual. Mediante respuestas de voz y vibración el usuario podrá hacer uso de su teléfono, permitiendo así usar sus aplicaciones y herramientas. Que tiene las siguientes funcionalidades: Ayuda para acceder a un elemento. Al pulsar sobre un elemento lee su nombre y al pulsar dos veces se accederá a él. Navegar. Para desplazarse por la pantalla utilice dos o más dedos y desplácese horizontal y verticalmente. Ajustes. TalkBack permite adaptar el servicio a su gusto, accediendo a los ajustes podrás ajustar el volumen de voz, sensor de proximidad, vibración, administrar los gestos, etc.   Con ayuda de estas herramientas, hacen más accesible el uso de los dispositivos móviles y de las aplicaciones. Es por eso que se desea implementar este tipo de aplicación en la institución, ya que ayudará al usuario a identificar los lugares que existen en el CICATA de una manera más práctica. También la ayuda de objetos visuales o multimedias ayudan a la interacción del usuario ya será a través de vídeos, sonido, imágenes las cuales harán también el uso de las aplicaciones más fáciles aparte de las herramientas que nos brindan.



METODOLOGÍA

El método Ágil es un proceso que permite al equipo dar respuestas rápidas e impredecibles a las valoraciones que reciben sobre su proyecto. Crea oportunidades de evaluar la dirección de un proyecto durante el ciclo de desarrollo. Los equipos evalúan el proyecto en reuniones regulares, llamadas sprints o iteraciones. Por lo cual, por cuestiones de tiempo y los procesos que ibamos a integrar en el proyecto, decidimoso que este era el más optimo para primera fase aunque si existe un seguimiento, podría cambiar a otro tipo de metodología sin problema.


CONCLUSIONES

Aunque la aplicación puede llegar a ser del todo útil, si no existe la infraestructura adecuada para personas con discapacidad, puede llegar a ser una dificultad muy grande. Tal es el caso del CICATA por lo que se limitó a hacer la aplicación con las tecnologías integradas en los dispositivos. Aparte de eso, también a pesar del proyecto, obtuvimos unas conferencias en el centro cultural regional de Querétaro, en donde impartieron platicas de diferentes proyectos y algunos, ayudaron a dar más idea del proyecto porque trataban sobre personas con discapacidad. Se realizó también lecturas sobre las diferentes discapacidades que existen; de las tecnologías actuales y cuál de las tecnologías que nos ofrecen los dispositivos era la más conveniente.   En general, en la estancia del verano, pudimos apreciar sobre las dificultades y las metas que nos podíamos plantear, ya que a pesar de tener uso de tecnologías, también dependen de otras cosas, debido a que el centro de investigación no cuenta con la infraestructura adecuada para personas con discapacidad.  
Alvarez Bacame Guillermo, Universidad de Sonora
Asesor: Dr. Ivan Cruz Aceves, Centro de Investigación en Matemáticas (CONACYT)

DETECCIóN DE CASOS DE ESTENOSIS MEDIANTE APRENDIZAJE MáQUINA


DETECCIóN DE CASOS DE ESTENOSIS MEDIANTE APRENDIZAJE MáQUINA

Alvarez Bacame Guillermo, Universidad de Sonora. Munguía Aldapa Carlos, Universidad de Sonora. Asesor: Dr. Ivan Cruz Aceves, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de la investigación es la creación de un programa computacional que permita a los médicos detectar y ubicar casos de estenosis, para así facilitar el diagnóstico y apoyar en la toma de decisiones. La estenosis consiste en el estrechamiento de un orificio o conducto, en este caso de arterias cardiacas. Este estrechamiento impide que la válvula se abra por completo, lo que reduce u obstruye el flujo sanguíneo del corazón a la arteria principal del cuerpo (aorta) y hacia el resto del organismo. Cuando el flujo de sangre que pasa por la válvula aórtica se reduce o se obstruye, el corazón debe trabajar más para bombear sangre al cuerpo. Con el tiempo, este esfuerzo adicional limita la cantidad de sangre que puede bombear el corazón, lo que puede provocar síntomas y, posiblemente, debilitar el músculo cardíaco. El proceso de detección realizado por el Instituto Mexicano del Seguro Social (IMSS) consiste en una revisión manual de todos los angiogramas realizados al paciente. Este puede ser un proceso exhaustivo como poco eficiente considerando la reducida cantidad de especialistas con respecto a la de casos.



METODOLOGÍA

El trabajo de investigación fue un proceso completo de minería de datos, desde la extracción de características, la reducción de dimensionalidad del sistema y la clasificación de los casos. Se trabajo en el lenguaje de programación Python y las imágenes fueron previamente procesadas en el software GIMP. Se analizaron 6 imágenes de angiogramas coronarios con 9 casos estenosis en total previamente detectados por un especialista. Primeramente, las imágenes fueron examinadas por un médico especializado, quien determino la zona en la que se localiza el caso de estenosis. Además, estas fueron vectorizadas para poder delimitar con precisión la vena y el fondo. Estas imágenes, de 512 por 512 pixeles, fueron segmentadas en subventanas de 151 por 151, por medio de un algoritmo que genera estas subventanas alrededor de pixeles centrales con estenosis, y una misma cantidad de subventanas aleatoriamente obtenidas que no contienen estenosis. Los datos fueron obtenidos a partir de estas imágenes tomadas de las imágenes originales Se tomaron 2452 subventanas distintas, la mitad de ellas con estenosis y la otra mitad sin estenosis, de las cuales se obtuvieron 14 características de imagen, por ejemplo, el grosor de la vena, el largo, el nivel medio de gris en la subventana o la desviación estándar del gradiente de Sobel. Estas características son los datos que fueron obtenidos para entrenar un clasificador, el cual, al estar entrenado, debe de ser capaz de clasificar correctamente los angiogramas con estenosis y los que carecen de estenosis.   Posteriormente, se realizó una reducción de dimensionalidad con dos métodos distintos. Por un lado, se utilizó PCA (Principal Component Analyisis), disponemos de una gran cantidad de variables para modelar el problema, esto hace más difícil visualizar la relación entre las mismas, lo que buscamos es encontrar esas variables que guarden una fuerte correlación (que midan lo mismo bajo distintos puntos de vista), de esta manera se pretende una convergencia de reducción de dimensionalidad y exactitud. Por otro lado, se realizó un programa de Feature selection por medio de un algoritmo genético, el cual selecciona distintas características aleatoriamente y valida los resultados con un clasificador para obtener la precisión de esa combinación de variables. Después, se realizan cruzas entre distintas combinaciones de características, aumentando la precisión de clasificación, hasta que se obtiene una combinación con una precisión aceptable. Finalmente, se utilizó un clasificador de K vecinos cercanos (KNN) para determinar los casos prueba, el cual calcula las distancias euclidianas entre las variables de un caso prueba con respecto al set de datos previamente obtenidos y etiquetados. El algoritmo ordena estas distancias y elige las K más cercanas (k vecinos), después compara sus etiquetas y clasifica el nuevo caso en el conjunto que tenga más vecinos dentro de los k más cercanos. De esta manera, se determina si un nuevo angiograma contiene estenosis o no.


CONCLUSIONES

Durante la estancia de investigación se logró con éxito el desarrollo del algoritmo planteado para la solución del problema, clasificando así las características que determinan la presencia de estenosis en una imagen, sin embargo, la limitada base de datos que poseemos no nos permite detectarla con la precisión deseada. Se espera abordar el problema desde una perspectiva en el cual esto no sea un problema, mediante el uso de técnicas avanzadas de ciencia de datos, debido a que enriquecer esta base de datos podría tratarse de una tarea bastante complicada.
Álvarez Carlón Alondra, Instituto Tecnológico de Sonora
Asesor: Dr. Martha Corrales Estrada, Instituto Tecnológico y de Estudios Superiores de Monterrey

LOS COWORKING SPACES COMO UN NUEVO MODELO DE TRABAJO.


LOS COWORKING SPACES COMO UN NUEVO MODELO DE TRABAJO.

Álvarez Carlón Alondra, Instituto Tecnológico de Sonora. Castro Flores Edith Alejandra, Instituto Tecnológico de Sonora. Asesor: Dr. Martha Corrales Estrada, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La innovación y el emprendimiento son apuestas importantes en el desarrollo de nuevos modelos que permitan el crecimiento de la industria hoy en día, se ha demostrado que los países con mayor crecimiento económico han fortalecido sus sistemas de investigación y desarrollo. Los modelos de trabajo asumidos en este verano de investigación estuvieron basados en innovación, emprendimiento y tecnología. Se abordaron tres temas relevantes los cuales son: Estudio de Casos, Coworking Spaces y Design Thinking. El estudio de casos permite analizar las necesidades de una organización para llegar una conclusión basada en la captura de valor mediante aspectos innovadores. Es una manera en que el lector se convierte en crítico de la situación y se guía a desarrollar una competencia de resolución de problemas. Los Coworking Spaces son un modelo de trabajo en el cual se comparten los espacios en donde las personas se desarrollan profesionalmente. Son parte del fenómeno de la economía compartida y en los últimos años han adquirido relevancia en el segmento de freelancers y emprendedores, ya que el modelo les proporciona elementos necesarios sin limitarlos económicamente y ofreciéndoles un networking que les ayuda a desenvolver su potencial intelectual y social. El Design Thinking por su parte es una metodología que genera ideas innovadoras y se centra en entender y dar solución a los usuarios. Es típicamente entendido como el resultado del proceso que resulta en muchas posibilidades de innovación, y de esas posibilidades, es elegida la idea más viable y óptima. En México, estos modelos de negocio son un concepto emergente que aún es desconocido en muchas partes, perociudades grandes del país (Ciudad de México, Monterrey, Guadalajara, etc.) existe un mercado competido en este rubro. La principal problemática que se presenta ante estos nuevos modelos de trabajo es la falta de difusión, lo cual origina un desconocimiento en la población ante el tema y que se sigan viviendo viejas prácticas.



METODOLOGÍA

Se siguió una metodología de investigación que constó de cuatro partes: La primera fue la explorativa: en ella se hizo una observación directa de todos los Coworking Spaces en la ciudad de Monterrey y también se hizo una búsqueda de fuentes secundarias por medio de las fuentes digitales. Se centró en tres entidades solamente y se siguió una metodología LEAD. LEARN: En esta parte se llevó a cabo una revisión de artículos científicos. ENERGYZE: Se elaboró un instrumento para aplicar a las fuentes primarias (CWS bajo estudio). APPLY: Se contactó a los CWS y se programaron citas para poder asistir a su locación, ahí se aplicaron de tres a cuatro entrevistas (Una al fundador, una al administrador y una o más a los Coworkers). DIFUSE: Los resultados se prepararon y se metieron en rubricas para su posterior análisis. La segunda etapa fue la cualitativa: Se estudió un punto de vista interno del costo transaccional de la economía, el conocimiento, recursos y comunidad basada en teorías por colaboración. Caso de estudio: En un contexto especifico se buscó estudiar a ejemplos de empresas que han ganado el premio de la Fundación del Premio Nacional de Tecnología e Innovación, esto con el objetivo de comprender el desarrollo que obtuvieron estas empresas al crear una mejora a su empresa.  Fuentes Primarias: Tres Coworking Spaces Mexicanos, específicamente de la ciudad de Monterrey fueron estudiados: Coworking Monterrey, Compass Centro de Negocios y Cowork y EKA Cowork & Business. En la parte de Design Thinking se analizó la identificación de perfiles, metodologías y soluciones que forman parte de este fenómeno. De acuerdo a Chen (2013), Design Thinking es definido como la transferencia de la filosofía del diseño de la organización en el diseño de actividades y resultados,  su implementación en las organizaciónes exitosas implica 4 factores ideales: La creación y difusión de perfiles de usuarios finales de la organización Obtención de resultados de diseño de los competidores para estimular el pensamiento de diseño Usar la imagen de la marca para establecer un lenguaje de diseño. El cultivar una estructura organizacional orgánica para incrementar la colaboración de los trabajadores.   


CONCLUSIONES

Durante la estancia de verano realizada se adquirieron conocimientos tanto prácticos como teóricos respecto a temas relacionados con la economía compartida y todo lo que engloba los fenómenos de los Coworking Spaces y Design Thinking. Los casos de estudio de la Fundación del Premio Nacional de Tecnología e Innovación mostraron una necesidad resuelta basada en innovación y tecnología, asegurando la creación de valor con una propuesta de captura a través de la monetización; asimismo, se sabe que los tiempos son cambiantes y las necesidades también, las nuevas formas de trabajo han llevado a que se desarrollen nuevos modelos, uno de esos son los Coworking Spaces, los cuales tienen un impacto significativo en las personas que están comenzando a desenvolverse laboralmente, ya que les proporciona una red de conexiones que les permite darse a conocer más rápido y también los costos son mucho más económicos por lo que es una gran idea para los freelancers y empresas pequeñas que desean crecer, al pertenecer a la economía compartida, se puede determinar como una metodología que integra diversidad de perfiles con una metodología estructurada en función de soluciones innovadoras. Además, con ayuda del Design Thinking, (el cual se puede emplear en cualquier organización) aplicar metodologías que sean creativas, positivas y con diversos puntos de vista, hace que la creación e ideación de proyectos tecnológicos tengan una visión hacia el futuro, siendo constantes en cuanto a su actualización, y siempre complaciendo las necesidades del consumidor final.
Álvarez Félix César Hugo, Instituto Tecnológico de Culiacán
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE ALGORITMOS DE DETECCIóN DE OBJETOS GENéRICOS USANDO TéCNICAS DE APRENDIZAJE PROFUNDO Y VISIóN COMPUTACIONAL


EXPLORACIóN DE ALGORITMOS DE DETECCIóN DE OBJETOS GENéRICOS USANDO TéCNICAS DE APRENDIZAJE PROFUNDO Y VISIóN COMPUTACIONAL

Álvarez Félix César Hugo, Instituto Tecnológico de Culiacán. Morales Torres Bernardo Ivan, Instituto Tecnológico de Matamoros. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los daños en el asfalto es un problema de alto impacto ya que estos daños afectan los diferentes tipos de transporte terrestre que existe en el mundo. Debido a esto existen programas del gobierno los cuales realizan obras de balizamiento para el mejoramiento de las calles o vías de transporte terrestres, por esta razón se necesitan sistemas para agilizar y optimizar la búsqueda de estos daños. Por lo tanto, Jalisco al igual que todo el mundo cuenta con un grave problema el cual se busca atacar y durante la estancia verano de investigación se hizo una compilación de imágenes de daños estructurales para posteriormente entrenar a una red neuronal la cual será capaz de detectar los daños existentes en el estado mediante una cámara de video , la cual puede estar integrada en un dron o en un automóvil , y gracias a eso poder atacar los daños estructurales de manera más eficiente y también para poder saber que zonas son las mas dañadas para poder atacarlas con más prioridad que otras.



METODOLOGÍA

Las bases para el desarrollo de este proyecto de investigación se basaron en el uso de software y herramientas utilizadas dentro del campo de la inteligencia artificial, además del uso de almacenamiento ubicado en la nube. En primer plano se dispuso a recolectar imágenes con las cuales se crearía un data set el cual contara con diversos tipos de daños de las vías de tránsito, por medio de comandos y el uso del software anaconda se realizo el etiquetado de los daños mostrados en las imágenes recolectadas, posterior a esto se aplicó una herramienta llamada augmentation con el fin de lograr que nuestra red neuronal pueda contar con un porcentaje mas alto de datos lo cual llevara a una forma de trabajo más eficiente y confiable por parte de la red neuronal al momento de ponerla a prueba. Se conto con el espacio Google colab para realizar el entrenamiento de la red neuronal, debido a que dentro de esta plataforma se puede disponer de un GPU con el cual se puede entrenar de mejor forma la red neuronal y reducir considerablemente el tiempo del proceso. Por último, se llega al momento de realizar pruebas con la red neuronal ya entrenada y se verifica que su funcionamiento sea el deseado, siendo capaz de identificar daños sobre las vías de transporte con un porcentaje de credibilidad alto.


CONCLUSIONES

Este proyecto se enfocó directamente en un problema de alto impacto tal y como lo son los daños estructurales en las vías de transporte buscando disminuir los problemas ocasionados por este tipo de daños, pero sin duda se presentan en nuestro día a día distintas problemáticas mas las cuales pueden ser atacadas con el uso de herramientas como las cuales se utilizaron en este proyecto. Siendo participe dentro de este proyecto de investigación se crea no solo una visión mayor ante las nuevas tecnologías que se encuentran a nuestra disposición, sino que también un interés por el seguir adentrándonos dentro de este campo. Si bien, gran parte de lo visto fue nuevo e innovador, si se logra adquirir gran parte del conocimiento y de las herramientas utilizadas, llevándonos una visión diferente entorno al como lograr y ofrecer una mayor calidad de vida además de la misión de incrementar el interés por adentrarse a conocer este mundo de la tecnología.
Álvarez Jiménez Julio César, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato

CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.


CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.

Aguilar Sanchez Jose Manuel, Universidad Autónoma de Guerrero. Alcocer Morales Diana Laura, Universidad Autónoma de Guerrero. Álvarez Jiménez Julio César, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Navarro Miranda José Luis, Universidad de Sonora. Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Guanajuato tiene un legado arquitectónico único, el cual ha despertado interés sobre su Arquitectura en especial sobre los Sistemas Constructivos de las viviendas de los barrios tradicionales del Centro Histórico. Existen características singulares que permanecen en las construcciones, los cuales no han sido documentados y analizados en cuanto a su trazo, estereotomía y materiales.  Por lo anterior se revisarán los cerramientos de viviendas del siglo XIX y principios del XX encontradas en el centro de la ciudad. Estos destacan por su diversidad en soluciones dentro de la lógica estructural constructiva y formal. En el estado no hay este tipo de trabajos ya que la gran mayoría de las investigaciones están enfocadas a los aspectos estéticos de los edificios históricos.



METODOLOGÍA

Asistimos a fiestas Tradicionales y recorrimos por la ciudad como parte del Patrimonio Cultural de Guanajuato. Se investigó y analizó la Geohistoria de la Ciudad de Guanajuato para poder comprender los diferentes cambios que ha sufrido la ciudad. Se Seleccionaron y analizaron conceptos teóricos - conceptuales, con los cuales se investigaron los tipos de arcos que se encuentran y la estructura que los conforman. Se establecieron los antecedentes y planteamientos históricos para entender la importancia que tiene Guanajuato y cada uno de los inmuebles históricos que hasta la fecha se conservan. Se realizó trabajo de campo en la ciudad de Guanajuato, mediante levantamiento fotográfico y revisiones oculares. Se diseñaron fichas de catalogación para hacer más fácil sistematización de la información de cada cerramiento. Se dibujaron los trazos en 2D y 3D de los cerramientos elegidos. Determinamos las características generales de los cerramientos y su estado de conservación. Para finalizar el trabajo de investigación se redactó un informe técnico final.


CONCLUSIONES

Como resultado elaboramos una ficha de catalogación, en el cual anexábamos los datos de cada uno de los arcos seleccionados, que presenta la siguiente información: Datos de la institución donde se desarrolla la Investigación, Materiales, Localización, Observaciones, Descripción del arco (con una foto real del arco y sus elementos), Procedimientos del Trazo (acompañado de gráficos), Perspectivas del Arco realizado en 3D, y Datos del Autor. Para poder facilitar la realización de este trabajo se utilizaron a las siguientes herramientas; Software como AutoCAD, Revit, SketchUp, V-ray. Flexómetro y Cámara Fotográfica. Con lo mencionado anteriormente se logró cumplir el objetivo de entender y conocer diferentes tipos de cerramientos de viviendas históricas de la ciudad de Guanajuato, que se dividen desde su función, forma, estilo, entre otros. Conociendo el sistema constructivo de las casas históricas se tienen mejores posibilidades de tener una intervención más adecuada.                                                                                                              En algunos casos de los cerramientos que quedaron en hipótesis, y por lo tanto fueron modelados en 3D con medidas proporcionales ya que fue imposible acceder a las instalaciones y poder obtener las medidas reales. A través de los trazos con la ayuda de la geometría descriptiva y la estereotomía logramos entender el sistema constructivo y estructural. En la época en que fueron edificadas estas construcciones no se utilizaban herramientas y elementos constructivos actuales, como hoy en día el acero, concreto armado, y tampoco la utilización de softwares para poder visualizar y calcular la resistencia adecuada de los materiales.
Álvarez Moreno Camila, Instituto Politécnico Nacional
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

SISTEMA HíBRIDO PARA LA ELIMINACIóN DE CONTAMINANTES ORGáNICOS EN FASE ACUOSA CON CORRIENTES GASEOSAS.


SISTEMA HíBRIDO PARA LA ELIMINACIóN DE CONTAMINANTES ORGáNICOS EN FASE ACUOSA CON CORRIENTES GASEOSAS.

Álvarez Moreno Camila, Instituto Politécnico Nacional. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Ineficiencia de los procesos biológicos actuales  para eliminar contaminantes orgánicos del agua tratada y del aire.



METODOLOGÍA

1.- Recolección de aguas residuales 2.- Realizar una filtración previa al tratamiento. 3.- Iniciar el proceso de puridicación por medio de ozonización. 4.- Toma de muestras en tiempos definidos para espectros de rayos UV. 5.- Realizar un análisis a las muestras de DQO y COT. 6.- Acoplamiento del efluente tratado a un reactor de lodos activados.   Para corrientes gaseosas: 1.- Generación del aire contaminado 2.- Introducción del aire en sistema de ozonización 3.- Acoplamiento de la corriente gaseosa a un reactor biológico 4.- Evaluación de la eficacia de eliminación


CONCLUSIONES

Con este proyecto puedo concluír que el proceso de ozonización es el método de oxidación  actual con más eficacia para la eliminación de contaminantes orgánicos y purificación del agua, ya que no solamente elimina los contaminantes, si no que también el color y el olor que el agua pueda tener.
Alvarez Rauda Daniel, Instituto Tecnológico Superior de Uruapan
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE UN VIDEOJUEGO DIDáCTICO PARA EL APRENDIZAJE DE HERRAMIENTAS DE LEAN MANUFACTURING


DESARROLLO DE UN VIDEOJUEGO DIDáCTICO PARA EL APRENDIZAJE DE HERRAMIENTAS DE LEAN MANUFACTURING

Alvarez Rauda Daniel, Instituto Tecnológico Superior de Uruapan. Martínez Ledesma Víctor, Instituto Tecnológico Superior de Uruapan. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La metodología Lean Manufacturing es clave en los sistemas de producción de cualquier empresa de clase mundial, por lo que es necesario que cualquier estudiante de ingeniería industrial conozca y maneje estos conceptos y su aplicación. Por esta situación, se ha buscado la manera de enseñar de forma interactiva y práctica las herramientas que integran Lean Manufacturing tales como 5s, SMED, TPM, JIT, Jidoka, entre otras. Marc Prensky afirma estar convencido de que los chavales se sienten tan atraídos por este tipo de entretenimiento digital (videojuegos) porque aprenden cómo actuar ante situaciones que se encontrarán en el futuro en su vida real, en su vida adulta. Desde la colaboración hasta la prudencia a la hora de tomar ciertos riesgos ante situaciones difíciles, los videojuegos se convierten en una recreación virtual de lo que será la vida adulta. En la investigación llevada a cabo por David Williamson Shaffer, Kurt R. Squire, Richard Halverson y James P. Gee de la Universidad de Wisconsin – una de las conclusiones más importantes obtenidas por estos investigadores tiene que ver con el aprendizaje basado en los errores: los fallos son inevitables, pero no irreversibles. El fallo en un videojuego obliga a intentar de nuevo pasar ese nivel, y esto solo se consigue con esfuerzo, perseverancia y conociendo en qué se ha fallado para corregir el error y hacerlo de forma correcta. La problemática abordada en este trabajo es la utilización de los recursos tecnológicos en este caso los video juegos como estrategias de aprendizaje e incrementar su uso para adaptar el conocimiento hacia las nuevas formas de aprendizaje de los estudiantes.



METODOLOGÍA

La metodología utilizada para el desarrollo de este trabajo consistió en un primer momento involucrarse en el tema conociendo un poco del esto a través de la revisión de la bibliografía y trabajos realizados bajo el mismo enfoque, una vez inmersos en dicha temática se profundizó en el conocimiento de la metodología lean manufacturing así como en el manejo para el desarrollo de videojuegos para computadoras en la plataforma de desarrollo de juegos de rol RPG Maker MV, posteriormente se comenzó a diseñar el juego en el cual se estructuraron diferentes niveles a través de los cuales el jugador irá aprendiendo conceptos de Lean y resolviendo misiones que involucren la aplicación práctica de estos conceptos. Las herramientas que se irán aprendiendo se organizaron en base a la “casa Lean Manufacturing”, también conocida como “casa de la calidad”. Posteriormente se deberá dar un nombre al video juego y realizar las pruebas piloto, para realizar las adecuaciones y mejoras necesarias para su optimo desempeño tanto tecnológicamente, así como en los objetivos planteados en el aprendizaje de dicha metodología. Este esquema contiene una estructura lógica con herramientas bases, que deben aplicarse inicialmente, como lo son 5s, SMED, TPM, Kanban, para posteriormente establecer los dos pilares, que son Just in Time, en el que se encuentran herramientas tales como Takt Time, Flujo Continuo, Sistemas Pull, y el segundo pilar, que es Jidoka, en el que se contienen herramientas como paradas automáticas, separación hombre máquina, Poka- Yoke y el control de calidad desde cada estación, todo esto para llegar a lograr la mejor calidad posible con el menor costo, así como el menor tiempo de entrega, la mayor seguridad y el mayor beneficio económico posible. Gracias a este orden, el jugador puede ir paso a paso con la aplicación de Lean Manufacturing en varias etapas, hasta conseguir el mejor resultado posible. La historia del juego relata la llegada de un ingeniero industrial a una empresa que busca implementar Lean a su proceso, por lo que en cada misión se aprenderá una nueva herramienta, que se aplicará a distintas partes del proceso para ir mejorando el proceso general.


CONCLUSIONES

Se busca que el desarrollo de este videojuego impacte positivamente en los niveles de aprendizaje de estos conceptos y su aplicación práctica a cualquier proceso, evaluando la capacidad del jugador para ir aplicando los fundamentos de cada herramientas a problemas similares y que puedan observar que una vez que se tengan todas las herramientas bien implementadas y cimentadas en cada aspecto de la empresa, los beneficios serán muchos, tanto para el cliente, quien obtendrá productos de alta calidad que garanticen su satisfacción, como para la empresa, que con pocos recursos y en poco tiempo podrán satisfacer la demanda y obtendrán mayores utilidades. Dentro de la estancia de verano, se profundizo sobre la metodología Lean Manufacturing, nos dimos cuenta que hay bastantes trabajos realizados acerca de esta temática y su aprendizaje a través de los video juegos, pero que esto no se ve reflejado en los aprendizajes en el aula, los cuales siguen la base de desarrollarse sobre datos y hechos. También se aprendió ha realizar la programación en la plataforma de desarrollo de juegos de rol RPG Maker MV.
Alvarez Ruiz Yesika Patricia, Universidad La Gran Colombia (Colombia)
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

PRUEBAS NO DESTRUCTIVAS Y DESTRUCTIVAS APLICADAS A LAS FIBRAS DE MUSA X PARADISÍACA Y DE ZEA MAYS


PRUEBAS NO DESTRUCTIVAS Y DESTRUCTIVAS APLICADAS A LAS FIBRAS DE MUSA X PARADISÍACA Y DE ZEA MAYS

Alvarez Ruiz Yesika Patricia, Universidad La Gran Colombia (Colombia). Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Es posible determinar propiedades mecánicas en las fibras de Musa X Paradisiaca y de Zea Mays con el empleo de pruebas no destructivas tales como velocidad de pulso ultrasónico, resistividad eléctrica, densidad y absorción. Con el objetivo de posteriormente analizar los materiales ya en obra o instalados sin dañar los elementos o paneles y así determinar su condición física y mecánica.



METODOLOGÍA

Se realizaron especímenes de fibras del vástago de la Musa X Paradisiaca (Plátano) y del culmo del Zea Mays (Maíz) los cuales  fueron sometidos a pruebas físicas,  iniciando con un análisis de  colorimetría, % Absorción, Fagerlünd, GE, PV, velocidad de pulso ultrasónico, resistividad, módulo de elasticidad dinámico, módulo de Poisson, frecuencia de resonancia, deformación.


CONCLUSIONES

Una vez realizados los protocolos de experimentación y adecuación de experimentación a los nuevos materiales se conocerán datos como porosidad efectiva de las fibras, velocidad de absorción de agua, absorción capilar, coeficiente de absorción capilar, velocidad de pulso ultrasónico, módulo de elasticidad dinámico, frecuencia de resonancia y módulo de Poisson; estas características demostraran la calidad de los materiales como elementos acústicos.
Alvarez Valencia Valencia Brian Armando, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango

DISEñO DE UN SISTEMA DE COMUNICACIóN INALáMBRICA PARA EL CONTROL DE TEMPERATURA POR SECCIONES


DISEñO DE UN SISTEMA DE COMUNICACIóN INALáMBRICA PARA EL CONTROL DE TEMPERATURA POR SECCIONES

Alvarez Valencia Valencia Brian Armando, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Automatizar y controlar sistemas físicos se ha convertido en una tarea cada vez más cotidiana hasta el día de hoy, gracias a las múltiples ventajas que se obtienen tras darle a un sistema cierta autonomía para realizar tareas que anteriormente debían ser operadas de forma manual. Los invernaderos no son la excepción cuando de automatización y control se trata,  aunque se vuelve un tema complejo debido a las diferentes variables que se deben y pueden controlar, así como las muchas formas de realizar el control de cada una de estas variables para lograr mantener un equilibrio especifico en los principales sistemas como el control de la temperatura, riego, humedad e iluminación los cuales están directamente relacionadas con el desarrollo óptimo de los vegetales que se cultivan dentro del invernadero. El cultivo de la orquídea vainilla se ha visto afectado a tal grado de casi desaparecer de su región de origen, esto a causa del incumplimiento de las reglas establecidas para la fecha del corte y beneficio publicadas en el Diario Oficial de la Federación No. 7, el fruto se recolectaba tierno, afectando directamente en la calidad, así como en su rendimiento y por consecuencia su demanda y precio, esto origino que el cultivo fuera reduciendo cada vez más. Además, el cambio en las condiciones climatológicas que ha sufrido la tierra son el factor que más contribuye en el desequilibrio de las condiciones idóneas que requiere la planta para la producción de la vaina de vainilla, dado que la temperatura y la humedad son de vital importancia para su correcto desarrollo Esto genera una necesidad inmediata en los productores de instalaciones acondicionadas con un control de ambiente climático como lo es la temperatura, dedicas al cuidado de la orquídea vainilla para mantener una buena calidad en el fruto y un obtener un desarrollo adecuado en la planta y de esta manera poder salvar esta especie tan importante para México, originaria de la región de Papantla, Veracruz. Otra característica importante es que debido a la topología de la región en la que se encuentran los cultivos, resulta complicado el tener acceso a estos campos así como tener que trasladarse hasta la ubicación, de esta manera en el momento que se presente algún percance debido a las condiciones climatológicas o agentes externos, la intervención o respuesta inmediata a este tipo de percances resulta ineficiente o nula para poder realizar los ajustes necesarios, de manera que el monitoreo y acción correctiva inmediata es de vital importancia para así garantizar que las condiciones de las plantas son las ideales para su desarrollo y floración, lo que conlleva de vital importancia a un sistema por capas para realizar estas acciones de manera remota.



METODOLOGÍA

En la elaboración del sistema para el control de temperatura en el invernadero, se secciono en cinco partes: Para la etapa de realimentación se utilizó un sensor LMT70 para conocer la temperatura en la que se encuentra en un determinado tiempo la planta de trabajo y con estos datos de salida del sistema realizar una auto realimentación para poder aplicar los ajustes necesarios dentro del controlador y de manera ideal llegar a censar una temperatura deseada ya establecida. El sensor LMT70 es un dispositivo pequeño y compacto que trabaja con voltajes de 2.0 a 5.5 y su rango de temperatura esta desde los -55ºC hasta los 155ºC, Se decidió utilizar este sensor ya que es un dispositivo muy preciso y cuenta con un amplio rango de temperaturas y todo esto a un precio accesible. Este sensor se utilizo para posteriormente integrar un control PID al sistema. En la etapa de potencia se utilizó el optoacoplador MOC3031M, el cual es un dispositivo de emisión y recepción, funciona como un interruptor que es activado mediante una luz emitida por un diodo led que a su vez este satura a un fototriac dando paso a una corriente ajena a la de activación. Ahora tenemos los elementos finales de control o actuadores del sistema, los cuales otorgan la temperatura a las cámaras del invernadero. En este sistema se utilizaron lámparas térmicas de 100W con una eficiencia del 99% las cuales emiten una luz infrarroja que puede llegar a asemejarse al sol. Cuentan con un ciclo de vida de 20,000 a 50,000 horas y son las que reciben los ajustes finales de control para mantener un temple deseado dentro del invernadero. Por último, para realizar la comunicación inalámbrica se utilizó la tarjeta Xbee de la serie 1 pro de Arduino para transmitir los datos de control y previsualizar las temperaturas a las que se encuentran las cámaras del invernadero a distancias de hasta 1.6km, facilitando la interacción en cuestiones de ajuste de temperaturas sin necesidad de acudir hasta la ubicación del invernadero.


CONCLUSIONES

Hasta este punto en la estancia del verano de investigación se adquirieron conocimientos teórico-prácticos sobre el uso de tarjetas Xbee de Arduino para el envío inalámbrico de datos por radio frecuencia y, se reforzaron los conocimientos adquiridos relacionados con la programación de microcontroladores y el control clásico para ponerlos en práctica con el desarrollo de un sistema de comunicación inalámbrica para el control de temperaturas por secciones en un invernadero el cual se espera que sea llevado a la realidad posteriormente, pero que en efecto, hasta el momento se desarrolló la programación del control de temperatura por secciones y se logró el envío de los datos por comunicación inalámbrica de manera exitosa, en espera del desarrollo de la plataforma digital para la manipulación y visualización de los datos de control. También se inició la idea del diseño en 3D de las cámaras del invernadero con el software de SolidWorks, el cual está en proceso de mejoras y de la inclusión de los diferentes sistemas que se están desarrollando en la estancia durante el verano de investigación 2019.
Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.


BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.

Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro. Jiménez López Miguel Francisco, Instituto Tecnológico Superior de Los Ríos. Zacarías Notario Carlos Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La empresa Beneficiadora de Hule Fénix de S.A de C.V (BEHULFE), cuenta actualmente con maquinaria en cada una de las áreas para el proceso de producción. Al momento de la producción debido a las distintas capacidades de cada área de trabajo, lo que provoca que no haya un flujo continuo de entradas y salidas en cada estación de trabajo, algunas máquinas se aprovechan en su capacidad máxima y otras se quedan sin carga de trabajo, lo que provoca pérdidas monetarias debido a que no se está aprovechando el tiempo productivo en su totalidad y de tener tiempo ocioso en algunas de las estaciones de trabajo, además de que afecta directamente a la producción manteniéndola en bajos niveles al día. El área con una carga de trabajo a su máxima capacidad es la de deshidratado que cuenta con 3 hornos y 1 cámara de enfriamiento, y la de menor carga de trabajo es el área de triturado, generando de esta forma un cuello de botella en el área de deshidratado. ¿Es necesario un flujo continuo del proceso para mejorar el control de la producción?



METODOLOGÍA

Para el comienzo del análisis de la línea de producción de la Beneficiadora de Hule El Fénix (BEHULFE) fue fundamental una visita a la empresa para conocer la distribución de la planta identificar cada una de las áreas de producción y representarlo mediante un croquis entre las cuáles se identificaron un total de 12 zonas de trabajo entre las que se encuentran: el área de la materia prima, el área de corte de la materia prima, cinco áreas de lavado y triturado, el área de deshidratado, el área de cocimiento, el área de secado, el área de prensado y el almacén de producto terminado. Además, para conocer el funcionamiento de la línea se representó a través de un diagrama de flujo identificando un  inicio y un fin del proceso, se identificaron y nombraron cada una de las actividades fundamentales del proceso como la recepción de materia prima, el corte, lavado, triturado, deshidratado, cocimiento y secado del hule; y de entre estas, se identificaron dos tomas de decisiones que son: la recepción de la materia prima bajo ciertas condiciones, y por último según los resultados de la prueba de calidad realizado en el laboratorio interno de la empresa, se define el rumbo del producto terminado. Cabe mencionar, que la parte medular de esta investigación, se centra en la recolección de datos de capacidades y números de empleados en cada área de trabajo de la planta de producción, por lo que con base en un estudio de tiempos dentro de la empresa, lograron obtenerse los resultados por cada área de producción. Con base en los datos obtenidos anteriormente, se realizó un modelo de la línea de producción con ayuda del software de simulación ProModel, que al fingir el sistema nos permitió observar una réplica del proceso, aprender de él, e identificar las principales problemáticas a resolver en la línea de producción. Para el inicio de esta simulación es primordial identificar las entidades involucradas que en este caso son cuatro, las locaciones de las cuáles se identificaron 20, los arribos que generalmente es uno, y los procesos que son 18. Ya realizada la simulación del estado actual de la empresa, se identificaron 3 áreas de oportunidad de mejora continua que son el Área L2 está por debajo en aproximadamente un tercio de la capacidad mínima de entre 1000 y 1333 kg. Y las áreas HD y E, que se encuentran por debajo en un cuarto de la capacidad de entre 1000 y 1333 kg. Bajo ese método de análisis, se considera una solución más viable el aumento de la capacidad en ellas, ya que, de las 20 locaciones definidas, estas representan un 15% de la planta, por lo que se considera que es mejor realizar un aumento de ellas a reducir la capacidad en las demás áreas. Con la implementación de una mejora de este tipo podría cuadriplicarse la producción actual, ya que el flujo de entradas y salidas en cada estación de trabajo resultan similares entre sí lo que evitaría los tiempos muertos o improductivos en la planta que se traduce a ganancias económicas.


CONCLUSIONES

El presente proyecto de investigación define un rumbo posible para la mejora de la empresa BEHULFE, ya que la herramienta de simulación empleada nos permitió un análisis previo a una implementación con mayor precisión y sin interrupción del sistema real, se conoció la relación entre sus variables y se evitaron grandes costos. Por lo tanto, la hipótesis de la investigación se acepta al conseguir un aumento del flujo continuo en el área de producción, lo que se convertirá en tiempo productivo y se reflejará en ganancias económicas para la empresa justificando la inversión de un incremento de capacidad.
Álvaro Deara Ezequiel, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos

ELABORACION DE COSMETICOS NATURAL Y ARTESANAL.


ELABORACION DE COSMETICOS NATURAL Y ARTESANAL.

Álvaro Deara Ezequiel, Instituto Tecnológico Superior de Los Ríos. Zacarías Montejo Elizabeth, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La piel actúa como primera línea defensiva del organismo frente a bacterias y virus, de igual manera equilibra líquidos y regula la temperatura natural. La piel se compone de tres capas: epidermis, dermis y su cutis. (euserin 2017). Epidermis Es una capa más externa que vemos y tocamos, nos protege frente a toxinas, bacterias y perdidas de líquido. Dermis (o cutis verdadero) La dermis es la capa media de piel, gruesa, elástica pero firme; los principales componentes estructurales de la dermis son el colágeno y la elastina, tejidos conectivos que confieren fuerza y flexibilidad y son los componentes vitales de la piel sana, de aspecto juvenil. Subcutis (o hipodermis) La capa más interna de la piel, almacena energía mientras almohadilla y aísla el cuerpo. Se compone principalmente de células adiposas: agregadas entre sí en grupos de tipo almohadilla y de fibras colágenas especiales (llamadas septos tisulares): ablandan y esponjan los tejidos conectivos que mantienen juntas las células adiposas. El estilo de vida y factores como el sol y los cambios térmicos ejercen un impacto sobre el colágeno y la elastina y a medida que envejecemos, nuestra producción natural de colágeno y elastina inclina y disminuye la capacidad de la piel. La piel adquiere un aspecto menos tonificado. Se han encontrado diversos factores que afectan la piel como cualquier órgano que cada día sufre modificaciones y se deteriora con el paso del tiempo. Factores: Falta de sueño: el poco descanso o dormir mal hace que aparezcan arrugas, ojeras y bolsas debajo de los ojos. El descanso ayuda a la renovación de la piel. Estrés: cuando las hormonas se desestabilizan, la piel envejece antes de tiempo y puede llegar aparecer el acné, por eso es importante controlar las emociones y evitar el estrés. Mala alimentación: el exceso de azúcar, grasas saturadas y arinas favorecen a la aparición de acné, inflamaciones y arrugas. Es importante incluir en tu alimentación vitaminas y fibras. Vicios: el exceso de alcohol y cigarrillos hacen que tu piel luzca reseca, deshidratada y aceleran la aparición de arrugas. Sol: la exposición continua al sol sin la debida protección, provocan manchas en la piel, la dejan más sensible y deshidratada. Productos químicos: el exceso de jabón puede resecar e irritar la piel. Tomando este planteamiento se busca la oportunidad de creer una línea de productos cosméticos para el cuidado de la piel actuando en las diferentes capas y de ingredientes naturales y de forma artesanal.



METODOLOGÍA

La metodología se desarrollará en cuatro fases, diagnóstico, revisión, análisis de la información e informe: Diagnóstico del problema: problemática Revisión bibliográfica: recopilación de información sobre el tema. Análisis: análisis y revisión de la información recopilada. Informe: estudio de productos naturales y ecológicas.


CONCLUSIONES

Darle valor agregado a la biodiversidad nacional al transformar material vegetal en extractos estandarizados con eficacia en los cosméticos naturales. Crear, impulsar y emprender una empresa que se dedique a la elaboración de cosméticos naturales. Entregar productos de calidad.
Alvizo Pérez Néstor Primitivo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México

CIENCIAS COMPUTACIONALES.


CIENCIAS COMPUTACIONALES.

Alvizo Pérez Néstor Primitivo, Consejo Quintanarroense de Ciencia y Tecnología. Aranda Cen Jeancarlo Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Chan Dzib Oscar Adrian, Consejo Quintanarroense de Ciencia y Tecnología. de la Cruz Mendez Oscar, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La explicación y aplicación de los simulacros en caso de emergencias en una institución educativa  genera un costo tanto monetario como de tiempo. El uso de simulacros de emergencias mediante inteligencia artificial y realidad virtual tiene beneficios económicos  y de tiempo. Este Proyecto se realizó con el motivo de realizar una simulación virtual de cómo se debería de comportar los alumnos de la Universidad Autónoma de México ante una fenómeno natural como pueden ser terremotos y poder tomar una ruta de evacuación de manera organizada, debido a que muchas personas no sabrían cómo actuar ante tales situaciones.



METODOLOGÍA

Para recrear estas situaciones de emergencias , se ha hecho simulaciones de comportamiento en un entorno  3D utilizando el software de Unity y Sketchup. Seguidamente para visualizarlo se lleva el proyecto de Unity al campo de la realidad virtual. Para esto usamos el software de Occulus y unos lentes VR Occulus rift. Como primer punto se realizo el diseño del edificio G de "Facultad e Ingenieria" en el software de Sketchup. Para ello se tomaron las medidas exteriores e interiores del edificio para hacerlo lo mas real posible.  Seguidamente  se diseñaron avatares y se les programo comportamientos, con el fin de que se simule en ambiente virtual del proposito principal del proyecto. Una vez hecho estos 2 puntos anteriores se llevo el proyecto al ambiente de realidad virtual. Y para poder visualizarlo tuvimos que tener unos lentes VR Occulus Rift que en este caso el investigador nos lo facilito.  Ya teniendo los lentes VR, al proyecto se le integran plugins necesarios para que sea reconocido por los lentes y asi poder visualizarlo en ellos.  


CONCLUSIONES

Los resultados que se obtuvieron fueron al haber creado el entorno virtual para la simulacion de emergencias virtuales. Donde los alumnos pueden entender mas rapido el como reaccionar ante estos eventos. Se espera que este proyecto optimize el tiempo y beneficios a la Universidad al momento de realizar los simulacros. Pues proteme tener exito.
Amador Perez Gabriela, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

CONTROL POR BLUETOOTH DE UN ROBOT CARTESIANO.


CONTROL POR BLUETOOTH DE UN ROBOT CARTESIANO.

Amador Perez Gabriela, Benemérita Universidad Autónoma de Puebla. Vicente Guerra Marcelino, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el control es una estrategia clave para la mejora de la competitividad y optimización para ayudar a alcanzar objetivos de precisión, seguridad y dinamismo, el control no es solo una pieza clave para la automatización industrial o algún otro proceso que implique involucrarlo a la semántica de las líneas de producción. El control representa una metodología de diseño e implementación que requiere un proceso proactivo para mejorar y optimizar de manera constante. Y tiene distintas aplicaciones en el hogar, en instituciones y que puede tener aplicaciones didácticas, de aquí es de donde se parte la utilización del control para crear un robot didáctico que ayude a enseñar y que pueda interactuar con cualquier persona sin distinción de edad. Desde el punto de vista tecnológico, el control seguirá siendo una necesidad para poder mantener la innovación y la productividad, por ello es necesario mantener el mando del control lo más accesible, por lo que se propone un control por Bluetooth.



METODOLOGÍA

Se utilizó el Software libre proporcionado por Android® denominado Android Studio, para realizar las pruebas de conexión y de diseño de interfaz, el software utiliza lenguaje de programación Java, asi que previamente se realizó una investigación sobre la principal sintaxis y modelo del lenguaje para poder manejar adecuadamente el software y las diferentes herramientas que ofrece. Dentro del Software de Android Studio se utilizaron etiquetas XML, que no es un lenguaje de programación, pero es indispensable ya que en esta se declaran permisos, datos de inicio y paquetería para la futura  generación del APK; que es el instalador que se obtiene y que puede ser colocado en la tienda oficial de Android: Google Play; a través de dichas etiquetas se declara la versión para la cual estará disponible y que tipo de compilación requerirá el programa asi como se hace referencia a que el software pedirá permiso para hacer uso del Bluetooth del dispositivo en la que sea instalada la aplicación. Como primera parte del desarrollo se implementó un codigo que identificara una palabra de un máximo de 26 caracteres para el cual distinguiera letra por letra y le asignara un par de números coordenados para la identificación de la distribución en un plano previamente acordado.  De esta manera la aplicación recibe una cadena de caracteres, y le asigna una posición a cada letra, esto servirá para posteriormente mandar señales al robot de movimiento. Posteriormente fue realizado el código inicial del protocolo de comunicación que solicita Android Studio, esto es un código más complejo que la pagina de Android Developers proporciona, esto solo es solicitar permiso para activar/desactivar el Bluetooth del puerto que servirá como Servidor, asi como establecer la visibilidad del mismo dispositivo servidor, y proporciona el inicio de la detección de puertos disponibles. Estos códigos fueron implementados en diversas pruebas y con algunas modificaciones para poder comprender el funcionamiento. La siguiente parte de la investigación se ha centrado en establecer la comunicación vía Bluetooth, de manera que se pueda enviar datos al Robot.


CONCLUSIONES

Hasta el momento se adquirido un gran conocimiento en el manejo de la programación orientada objetos, a través del lenguaje Java, siendo este lenguaje muy versátil y accesible en el manejo de datos y clases, asi como de simplificación de código. Al ser este un trabajo que  ha requerido tiempo en la investigación de la comunicación para poder realizar el envío de datos a través de este software aún no se han realizado las pruebas con el Robot, solo proyecciones de interfaz con la aplicación que establece coordenadas, sin embargo como resultado de la búsqueda se ha encontrado que  existe una alternativa que implicaría facilidad en la comunicación Bluetooth y simplificación en él envió de datos, pero como contrapeso resultaría en una programación de coordenadas poco óptima esto seria realizar el desarrollo de la aplicación a través de  un software libre en linea conocido como App Inventor(Mit App Inventor2).
Amador Rodríguez Kenia Yareli, Instituto Tecnológico de Culiacán
Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)

EVALUACIóN DE LA ACTIVIDAD FOTOCATALíTICA DEL ZNO MODIFICADO CON CO, NI, MN, MG Y CU Y SOPORTADO EN CARBóN ACTIVADO


EVALUACIóN DE LA ACTIVIDAD FOTOCATALíTICA DEL ZNO MODIFICADO CON CO, NI, MN, MG Y CU Y SOPORTADO EN CARBóN ACTIVADO

Amador Rodríguez Kenia Yareli, Instituto Tecnológico de Culiacán. Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Dentro del proceso de fotocatálisis, el óxido de titanio (TiO2) bajo irradiación UV, ha sido comúnmente empleado en la degradación de compuestos orgánicos como hidrocarburos aromáticos, colorantes azoicos, compuestos orgánicos volátiles y pesticidas. Por otra parte, el óxido de zinc (ZnO) es un semiconductor propuesto para remplazar al TiO2, pues ZnO tiene la misma banda de energía gap que el TiO2, pero exhibe mayor eficiencia de absorción de una larga fracción de espectro visible. Lo que lo vuelve una opción para ser usado con fuentes de luz visible. Sin embargo, para que esto se lleve a cabo requiere ser modificado mediante la incorporación de metales en su estructura (Chin et al. 2011) [1] Algunos autores como Nina et al. (2011) [2], Rongliang et al. (2011) [3], Ullah et al. (2007) [4], Dong et al. (2016) [5] y Jongnavakit et al. (2012) [6] han modificado ZnO con Co y Ni, y los han evaluado para la degradación de colorantes orgánicos, de forma general, estos estudios dieron como resultado que el ZnO modificado fue capaz de degradar dichos colorantes a las longitudes emitidas por las lámparas UV y luz visible.  Para la evaluación de los fotocatalizadores, la presente investigación plantea monitorear la degradación del colorante naranja de metilo a partir de la actividad fotocatalitica del Co-ZnO, Ni-ZnO, Mn-ZnO, Mg-ZnO y Cu-ZnO sintetizados bajo el método de sol-gel y utilizando como material de soporte el carbón activado.



METODOLOGÍA

Síntesis del oxido de zinc modificado con Co, Ni, Mn, Mg y Cu. Las nanopartículas de ZnO se prepararán mediante el método sol-gel reportado por Muneer et al. (2012) [7] El dopante se añadirá usando sales de nitrato de cobalto, cloruro de níquel, cloruro de manganeso, acetato de magnesio tetrahidratado y nitrato cúprico. Para la síntesis se utilizará distintos reactivos como el ácido oxálico deshidratado y etanol puro. La relación molar del acetato de zinc y del ácido oxálico será de 1:1. La cantidad de níquel, de cobalto, de manganeso, de magnesio y cobre será de 1% ,0.25%, 0.5%, 5% y 0.5% en peso respecto a la cantidad estimada de óxido de zinc, respectivamente. El acetato de zinc se disolverá en etanol puro y se agitará 45 ± 5ºC durante 30 minutos. De manera paralela se añadirán las sales de nitrato de cobalto y el cloruro de níquel. Se añadirá ácido oxálico en etanol y de agitará a 45 ± 5ºC por 30 min. Posteriormente la solución de ácido oxálico se añadirá gota a gota en cada una de las soluciones con agitación magnética vigorosa hasta que se forme el gel. El gel resultante se secará a 80ºC para formar el precursor de las nanopartículas de ZnO. El polvo finalmente será calcinado usando una temperatura de 450 ºC por 2 horas.   Agregar soporte al Ni-ZnO, Co-ZnO, Mn-ZnO, Mg-ZnO y Cu-ZnO en carbón activado. El carbón activado se agregará cuando el gel solidifique y se agitará de forma vigorosa. Después, como ya se mencionó, nuevamente se someterá a secado a 80 °C a para formar el precursor de nanopartículas de ZnO. Y será calcinado usando una temperatura de450°C por 2 horas. Evaluación del Ni-ZnO/C.A., Co-ZnO/C.A., Mn-ZnO/C.A., Mg-ZnO/C.A. y Cu-ZnO/C.A. bajo irradiación de luz visible y luz UV.  Las actividades fotocatalitica del ZnO dopado se evaluarán mediante la medición de la degradación de naranja de metilo en las soluciones acuosas. La reacción fotocatalitica se realizará en el reactor prototipo alpha y reactor UV probando 1g de ZnO modificado para degradar 20 ppm de naranja de metilo. La fuente de luz de la iluminación será una lámpara UV (longitud de onda igual a 254nm) y una lámpara de luz visible (longitud de onda igual a 365nm). La disminución de la concentración de naranja de metilo durante el proceso de degradación, se controlará mediante espectroscopía de absorbancia UV-VIS. después de muestrear alícuotas a intervalos de tiempo regulares.   Se calculará la eficiencia de degradación como: D= ((C0-C) /C0) x100   donde D es la degradación (ppm), C0 es la concentración inicial del colorante (ppm) y C es la concentración del colorante después de la irradiación en el intervalo de tiempo seleccionado, t (min). Los experimentos fotocataliticos se repetirán tres veces, utilizando en cada medida una solución nueva de colorante con la misma concentración inicial.  El pH de la solución se mantendrá en valores de 9.0.     Cálculos de la velocidad de degradación del naranja de metilo. Se calculará la constante de velocidad aparente de la fotocatálisis k a partir de los datos experimentales mediante la ecuación:   ln [C/C0] = −kt   La misma ecuación se utilizará para calcular la constante de velocidad de la adsorción del colorante en la superficie de ZnO en la oscuridad, en donde C es la concentración del colorante después de la irradiación en el intervalo seleccionado, C0 es la concentración inicial del colorante (ppm), k constante de velocidad aparente de la fotocatálisis (min-1) y t es el tiempo del análisis (min).


CONCLUSIONES

Durante la estancia en el verano, se logró adquirir ciertos conocimientos teóricos acerca de la fotocatálisis, y logrando hacer síntesis de distintos materiales dopados y soportados en carbón activado, esto para poder ser evaluados en reactor y así poder observar si existe degradación en el naranja de metilo, sin embargo, al ser un extenso trabajo aún se encuentra en la realización de pruebas fotocataliticas y no se pueden mostrar los resultados obtenidos. Se espera, hacer posible la degradación del colorante naranja de metilo mediante el uso del Co-ZnO/C.A,, Ni-ZnO/C.A., Mn-ZnO/C.A, Mg-ZnO/C.A, y Cu-ZnO/C.A utilizando una fuente de luz UV y luz visible.
Amaya Longoria Kathia, Universidad de Sonora
Asesor: Dr. Sarah Ruth Messina Fernández, Universidad Autónoma de Nayarit

SíNTESIS DE PELíCULAS DELGADAS MEDIANTE LA TéCNICA DE DEPóSITO POR BAñO QUíMICO


SíNTESIS DE PELíCULAS DELGADAS MEDIANTE LA TéCNICA DE DEPóSITO POR BAñO QUíMICO

Amaya Longoria Kathia, Universidad de Sonora. Asesor: Dr. Sarah Ruth Messina Fernández, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los sistemas solares permiten producir energía con un impacto ambiental muy reducido, además a diferencia de otras fuentes de energía, la energía solar es renovable y proviene de una fuente inagotable que es el sol.   Los paneles solares son indispensables para poder aprovechar la energía solar fotovoltaica y estos están construidos de muchas celdas solares. Una Celda Fotovoltaica convierte la energía del Sol en electricidad, mediante el efecto Fotoeléctrico el cual consiste en la emisión de electrones por un material cuando se lo ilumina con radiación electromagnética (luz visible o ultravioleta, en general). Podemos encontrar diferentes tipos de paneles solares construidos con 3 tipos de celdas solares que también son conocidas como células solares: Celdas solares monocristalinas Están hechas de grandes cristales de silicón; la mayor ventaja de las celdas monocristalinas es su alta eficiencia. Celdas solares policristalinas Están fabricadas de muchos pequeños cristales de silicio por lo que son menos eficientes, debido a que se componen de muchas piezas pequeñas. Celdas solares amorfas Las celdas solares amorfas se hacen de una película delgada, son las más baratas de producir, pero también son las menos eficientes. Una célula solar de película delgada es una célula solar que se fabrica depositando una o más capas delgadas, o una película delgada (TF) de material fotovoltaico sobre un sustrato, como vidrio, plástico o metal. El desarrollo de películas delgadas es una técnica de producción de dispositivos fotovoltaicos más sustentable.



METODOLOGÍA

Reactivos   Sulfuro de Zinc Sulfato de Zinc Trietanolamina pH10^1 Tioacetamida Agua destilada Sulfuro de Cadmio Nitrato de Cadmio Citrato de Sodio NH4OH Tiourea Agua destilada Sulfuro de Bismuto Nitrato de Bismuto Tioacetamida Agua Destilada Sulfuro de Bismuto impurificado con Plata Nitrato de Bismuto Nitrato de Plata Tioacetamida Agua Destilada Sulfuro de Bismuto impurificado con Plomo Nitrato de Bismuto Nitrato de Plomo Tioacetamida Agua Destilada Procedimiento Limpieza de sustratos. Depósito por baño químico de los sustratos en Sulfuro de Zinc al 50% durante 17 horas a temperatura ambiente. Tratamiento térmico a los sustratos en aire a 500°C. Depósito por baño químico de los sustratos en Sulfuro de Cadmio al 100% durante 1 hora a 80°C. Tratamiento térmico a los sustratos en argón a 300°C. Depósito por baño químico de los sustratos en Sulfuro de Bismuto (puro, impurificado con plata o impurificado con plomo) al 100% durante 1 hora y media a 40°C. Tratamiento térmico a los sustratos en argón a 250°C. Pintar cuidadosamente dos rectángulos dentro y fuera de las películas del sustrato. Caracterización Óptica Elaboración de gráficas de espectros de: Transmitancia Reflectancia Eléctrica Curva I-V Fotorespuesta


CONCLUSIONES

Por la técnica de depósito por baño químico se puede concluir que efectivamente las películas son depositadas, esto con ayuda de las gráficas de espectro de transmitancia y reflectancia ya que claramente tenemos valores distintos entre cada depósito incluso comparándolo con un sustrato sin película. Además, se aprecia como cuando al sustrato se adhiere una película delgada de un tono más obscuro la transmitancia baja, lo cual es lógico pues impide menos paso de luz al tornarse la película delgada de un color distinto al transparente y nos confirma que una película delgada se desarrolló en el sustrato después de llevar a cabo nuestro depósito químico.
Ambriz Fregoso Carlos Alfredo, Instituto Tecnológico de Tepic
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)

CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)


CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)

Ambriz Fregoso Carlos Alfredo, Instituto Tecnológico de Tepic. Martinez Ulloa Ana Patricia, Instituto Tecnológico de Tepic. Sánchez Tovar Ricardo, Instituto Tecnológico de Tepic. Sedano Cabanillas Angel Ivan, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas que enfrenta en la actualidad la industria de la construcción es el impacto ambiental provocado por el crecimiento poblacional y demanda de mayores espacios de vivienda e infraestructura en general. Dentro de los impactos se destacan: la disminución de los recursos naturales, la generación de residuos y la contaminación en general. Lo anterior, origina grandes desafíos para la industria desde ámbitos como la sostenibilidad y una economía circular de los materiales y residuos.



METODOLOGÍA

Para alcanzar el objetivo propuesto se plantea el siguiente proceso metodológico experimental: 1. Revisión de estudios a nivel mundial sobre el uso del RCD y la EHAE en la construcción. Se hará una búsqueda en las principales revistas científicas indexadas sobre la utilización de estos residuos en materiales a base de cemento. 2. Caracterización de los materiales para la fabricación de concreto. 3. Con los materiales estudiados, que deben cumplir con la norma indicada para la producción de concretos y morteros, se realizará el diseño de mezcla de concreto de resistencia normal según el método del ACI 211.1. 4. Fabricación de concretos con remplazos parciales (20% y 50%) de agregado grueso por RCD y EHAE, para así establecer sus propiedades en estado fresco. 5. Determinación de las propiedades en estado endurecido (resistencia a compresión, resistencia a tracción y absorción), a los 7 y 28 días, de los concretos fabricados.


CONCLUSIONES

Los residuos afectan la trabajabilidad del concreto, pues a medida que se incrementa el % de reemplazo, disminuyó el asentamiento. El reemplazo de agregado grueso por RCD en 20% produjo a los 7 días un incremento de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 20% tuvo un efecto positivo pues aumentó, tanto la resistencia a la compresión a los 7 días, como la resistencia a la tracción. El reemplazo de agregado grueso por RCD en 50% produjo a los 7 días una disminución de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 50% aumentó la resistencia a la compresión a los 7 días, y disminuyó la resistencia a la tracción. Finalmente, se concluye que los residuos han demostrado ser una alternativa técnica viable para la fabricación de concretos sostenibles.
Ambros Chapan Erick Omar, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro

ROBOT CARTESIANO CON LáSER PARA LIMPIEZA DE AGENTES QUíMICOS O NATURALES CONTENIDOS EN UNA SUPERFICIE


ROBOT CARTESIANO CON LáSER PARA LIMPIEZA DE AGENTES QUíMICOS O NATURALES CONTENIDOS EN UNA SUPERFICIE

Ambros Chapan Erick Omar, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Se conoce que desde hace mucho tiempo y en la actualidad los procesos de limpieza en monumentos históricos (patrimonio cultural) de piedra o sustratos distintos se hace de manera física (abrasiva), química (solventes) empleando estos métodos de formas abrasivas que deterioraran las superficies o dejan daños residuales; o cortando parte de un segmento y colocando un parche, por lo cual daña o deteriora los monumentos históricos, provocando un daño irreversible, es por ello la utilización de métodos no convencionales como la utilización de rayo láser pero junto con un robot cartesiano, el cual lo hará de una manera más precisa que la mano del hombre y forma repetida para una mejor limpieza. Realmente no se han realizado muchos estudios en los que el objetivo fuese conocer el o los mecanismos que expliquen la limpieza con láser en conservar monumentos históricos o de patrimonio cultural intrínseco. El campo de aplicación del láser es relativamente reciente y la otra que hay una combinación muy compleja entre los parámetros del láser y las propiedades de las superficies que se eliminan, ya que la interacción del láser se produce con un amplio rango de contaminantes con propiedades físicas y químicas diferentes, dependiendo del tipo de contaminación que exista en el lugar dónde se encuentra el monumento (láminas de corrosión, crecimientos orgánicos, tratamientos previos, depósitos de pintura o agentes químicos provocados por el humano, etc.).



METODOLOGÍA

Diseñar, desarrollar, controlar y programar un robot cartesiano para utilizar como herramienta un láser óptico de 7w de alta potencia regulada como herramienta de trabajo para remoción de partículas, agentes químicos y naturales en superficies no regulares, delicadas y de valor intrínseco como edificios y construcciones de patrimonio cultural. metodología del diseño, construcción y programación Investigación bibliográfica. Análisis teórico y estudio del sistema robótico cartesiano. Análisis y estudio de la radiación laser, su funcionamiento, componentes, clases y aplicaciones. Diseño mecánico, dimensionamiento estructural, selección de los componentes y armado de la estructura. Selección de motores a utilizar de tipo paso a paso de dos fases o cuatro fases. Selección del láser óptico a utilizar con control PWM o TTL, potencia y emisión. Selección de los componentes eléctricos y electrónicos necesarios para el buen funcionamiento. Selección de la tarjeta de control de bajo nivel para los actuadores mecánicos de control de movimientos X, Y y Z. Construcción y armado del mecanismo cartesiano, prueba de funcionalidad, calibración. Diseño de la Programación del dispositivo de control de motores y control de pulsos del rayo láser. Pruebas con el láser óptico en diferentes materiales y recubrimientos, contenidos de suciedad y agentes naturales y químicos. Optimización del software mediante las pruebas realizadas. Conclusiones, resultados obtenidos y prototipo.


CONCLUSIONES

Los resultados que se esperan obtener con la presente investigaciones es un robot cartesiano (manipulador) de 3-DOF o espacial, en base a los sustentos obtenidos realizar pruebas en diferentes aplicaciones y materiales utilizando el sistema mecánico y el láser, corroborar los modelos matemáticos de un robot cartesiano, simulaciones obtenidas, desarrollar y mejorar el diseño del prototipo y mejorar las fases de prueba, con ello también contribuiremos al desarrollo tecnológico y científico del país con aplicaciones prácticas y económicas que contribuyen al mejoramiento y conservación de monumentos históricos de patrimonio cultural. 
Amezcua Tapia Liliana, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS Y CARACTERIZACIóN DE CATALIZADORES CONIMO/AL2O3 VARIANDO LAS SALES PROMOTORAS EN LA REACCIóN DE HDS EN DBT


SíNTESIS Y CARACTERIZACIóN DE CATALIZADORES CONIMO/AL2O3 VARIANDO LAS SALES PROMOTORAS EN LA REACCIóN DE HDS EN DBT

Amezcua Tapia Liliana, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los productos derivados del petróleo, están conformados por una gran diversidad de hidrocarburos, así como de compuestos organosulfurados difíciles de degradar a nivel molecular por los enlaces covalentes que ahí se llevan a cabo. El dibenzotiofeno es un compuesto orgánico que se encuentra en el Diesel, su degradación es de gran interés debido a que contiene dos anillos de benceno y al enlazarse con un átomo de azufre establece un tercer anillo, dicho enlace con ese último átomo lo hace uno de los tantos contaminantes volátiles más dañinos en el ambiente al ser combustionado en motores automotrices o aéreos. Para poder desnaturalizar el DBT se tiene que romper el enlace de azufre a través de la ruta de Hidrodesulfuración directa empleando catalizadores trimetálicos a base de nitratos y cloruros de Co, Ni, Mo, con un soporte de Al2O3. La problemática de la reacción HDS radica en clasificar, según su efectividad, a los catalizadores más adecuados en la eliminación del azufre de dicho compuesto orgánico.



METODOLOGÍA

Para llevar a cabo la ruta de HDS se tomó como soporte, de la reacción catalítica, alúmina (Al2O3) tamizada de la cual se pesaron 3 g, depositados en un frasco ámbar con capacidad de 5ml. Posterior a eso se realizaron las dos impregnaciones: La primera se hizo con 0.2204 g de heptamolibdato de amonio disueltos en 1.2 ml de agua, 0.712 g de alúmina ya tamizada, 0.0085 g de nitrato de níquel Ni(NO3)2  y 0.1425 g de nitrato de cobalto Co(NO3)2 . La segunda con 0.2204 g de heptamolibdato de amonio disueltos en 1.2 ml de agua, 0.7146 g de alúmina ya tamizada, 0.0064 g de cloruro de níquel NiCl2 y 0.1210 g de cloruro de cobalto CoCl2.  Ya elaboradas se metieron a calcinar durante 4 hrs dos veces a una temperatura de 500 °C, obteniendo así óxidos metálicos de color morado, libres de agua, y después de ese procedimiento, fueron colocadas, en dos frascos ámbar sellados con cinta Parafilm, evitando que se llenaran de impurezas. Para poder realizar las pruebas, los catalizadores trimetálicos, se tuvieron que someter a una activación en atmósfera con flujo de ácido sulfhídrico durante 4hrs a 400°C  en un horno tubular, de forma que se pudieran eliminar las impurezas restantes en dicho proceso de sulfuración. Una vez obtenidos los sulfuros trimetálicos, se requirió comparar ambos catalizadores en pruebas que se realizaron en un reactor Batch modelo Parr ,cargado con 0.5 g del catalizador a analizar y 75 ml de la mezcla de reacción (5% volumen de DBT en n-heptano). El tiempo de dicha reacción fue de 5 hrs, donde se estuvieron tomando muestras líquidas cada media hora respectivamente. En el análisis de las muestras obtenidas, se requirió la técnica de cromatografía de gases, utilizando un equipo Hewlett Packard modelo 4890 equipado con FID y una columna HP-Ultra 2 (30m x 0.32 mm D.I.), en el cual a través del cromatograma obtenido se determinó la efectividad de los acetatos en la actividad catalítica de acuerdo a la capacidad que los mismos presentaron para remover el azufre en la molécula de DBT. Después de ello la caracterización de las muestras se tuvo que elaborar en un equipo de difracción de rayos X evaluando las propiedades químicas de los catalizadores durante la reacción de HDS.  


CONCLUSIONES

Se adquirieron conocimientos, durante el trabajo de investigación, sobre caracterización, determinación y análisis de actividad catalítica y selectividad de los catalizadores trimetálicos en la reacción de hidrodesulfuración del dibenzotiofeno; así como, aprendizajes sobre la utilización de la técnica de cromatografía de gases. Para la correcta justificación de los resultados que se obtuvieron, se requiere de un tiempo más prolongado, a lo que permitió la estancia, para realizar pruebas  y estudios más específicos en cuanto a las reacciones llevadas a cabo.
Anaya Becerra Diana Priscila, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia

MODIFICACIóN HIDROTERMAL DEL HUESO DEL AGUACATE PARA LA BIOSORCIóN DE FERTILIZANTES PRESENTES SOLUCIóN ACUOSA.


MODIFICACIóN HIDROTERMAL DEL HUESO DEL AGUACATE PARA LA BIOSORCIóN DE FERTILIZANTES PRESENTES SOLUCIóN ACUOSA.

Anaya Becerra Diana Priscila, Instituto Tecnológico Superior de Tacámbaro. Infante Soria María Fernanda, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia



PLANTEAMIENTO DEL PROBLEMA

La finalidad de este trabajo de investigación fue modificar el hueso del aguacate introduciendo grupos amino y usarlo en la remoción de fosfatos presentes en solución acuosa. Lo anterior se llevó a cabo funcionalizando el residuo mediante la oxidación básica con NH4OH a temperaturas de 80º C durante 1, 2 y 3 horas. El material modificado y sin modificar fue caracterizado mediante técnicas tales como determinación de grupos funcionales y punto de carga cero (PCC), así como distribución de carga superficial mediante equilibrio de pH. Además, se determinó la máxima capacidad de remoción de fosfatos mediante experimentos en lote obteniendo los datos experimentales de las isotermas de adsorción a diferentes pH´s, temperatura y volumen constantes.   



METODOLOGÍA

El hueso del aguacate se modificó siguiendo el procedimiento descrito a continuación: El hueso de aguacate fue cortado en pequeños cubos, aproximadamente de medio centímetro. Despues, se enjuagó el material con una solución de agua y NaOH a 1 N a pH 10 durante 30 minutos manteniendo la solución en agitación. En tres matraces de bola se colocaron 20 gramos del material y de la misma forma se colocó 100 ml de solución NH4OH (hidróxido de amonio) a 2 N. Los matraces fueron introducidos en un baño llenado con agua potable el cual tiene montado un recirculador de agua, y mantuvo una temperatura de 80°C por 1, 2 y 3 horas. Una vez cumplido el tiempo de cada oxidación, se retiró de la solución de hidróxido de amonio decantando la muestra y se introdujo a un estufa donde permaneció por 24 horas a temperatura de 80° C. Al termino del tiempo, el material fue enjuagado con agua desionizada hasta eliminar los residuos del hidróxido de amonio para después de esto se volverlo a secar a una temperatura de 80°C por 24 horas.    Los materiales fueron caracetrizados mediante las técnicas que a continuación se mencionan:  Determinación de grupos funcionales mediante equilibrio de pH y titulaciones potenciometricas. Determinación de la carga superficial y PCC.  La capacidad de remoción de los materiales se llevó a cabo mediante experimentos en lote a diferentes pH´s, volumen y temperatura constantes. La máxima remoción de foisfatos se determino mediante un balance de masas.


CONCLUSIONES

Los resultados preliminares muestran que hubo un cambio en la química superficial de los materiales después de su modificación, sin embargo, no se observó cambio en las propiedades mecánicas. Los sitios ácidos totales cambiaron de acuerdo a la modificación obteniéndose que material que tuvo una mayor cantidad de grupos funcionales ácidos fue el oxidado por 1h (13.5650 mmol/g). La distribución de carga de los materiales mostró que el PCC se encuentra en pH 7.63 para el material oxidado durante 1 h, lo cual indica que por encima de este valor de pH la carga superficial se vuelve más negativa y por debajo se vuelve más positiva. Por último, los datos experimentales de las isotermas de adsorción a diferentes pH´s mostraron que remoción de fosfatos aumenta al disminuir el pH de la solución y que la máxima remoción se llevó a cabo a pH 3  
Angel Pérez Anahi, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla

GAMMAGRAFíA óSEA


GAMMAGRAFíA óSEA

Angel Pérez Anahi, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La gammagrafía ósea es una prueba de diagnostico médico que utiliza la inyección de sustancias marcadas con un isotopo radioactivo que va a tener mayor o menor afinidad por quedarse retenido en un sitio tipo de estructura, la emisión radioactiva es captada por un aparato receptor llamado gamma cámara, la información captada va a ser procesada informáticamente para dar como resultado una imagen tridimensional en la que se podrá ver las zonas en donde se ha retenido mayor y menor cantidad de sustancia radioactiva, la sustancia va a tener preferencia por fijarse en unos tejidos más que otros o por llegar a zonas con mayor irrigación sanguínea como puede ser zonas tumorales o inflamatorias



METODOLOGÍA

En este trabajo se realizó una investigación acerca de la gammagrafía ósea y como es el flujo de información que da como resultado la imagen en donde se detectan los puntos donde se almacena la sustancia radioactiva. Se revisarán artículos orientados a la medicina nuclear, gammagrafía ósea, flujo de datos del gammagrama, detección de imágenes con metástasis ósea. Se analizaron diversos artículos donde se recopilo la información necesaria para profundizar el conocimiento del tema investigado, posteriormente para el prototipo de la aplicación la metodología empleada fue básicamente teórica.


CONCLUSIONES

Se logró digerir bien la cuestión teórica del problema y como trabajo futuro se pretende realizar una aplicación gratuita y multiplataforma que pueda ser usada por doctores para el análisis de la imagen.
Angel Vejar Hugo Ulises, Instituto Tecnológico de Morelia
Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato

PROTOTIPO DE SISTEMA DE SEGUIMIENTO SOLAR CON PANEL FOTOVOLTAICO MEDIANTE COMUNICACIóN WEB


PROTOTIPO DE SISTEMA DE SEGUIMIENTO SOLAR CON PANEL FOTOVOLTAICO MEDIANTE COMUNICACIóN WEB

Angel Vejar Hugo Ulises, Instituto Tecnológico de Morelia. Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En los últimos años ha surgido en todo el mundo un creciente interés por buscar fuentes renovables de energía, esto a raíz del significativo deterioro que ha venido sufriendo el planeta en términos referentes a la ecología. Si bien muchas posibles fuentes han surgido para solventar esta necesidad, sin lugar a dudas la más popular y la que ha recibido más apoyo en diferentes niveles es la energía solar. Sin embargo, dependiendo la hora del día, la estación del año, la posición donde se desee hacer el estudio y muchos otros factores a considerar, el sol siempre tendrá una posición diferente, lo cual puede conllevar un problema para la optimización y correcta utilización de los paneles anteriormente mencionados. Al percatarse de dicha situación surge este proyecto cuyo propósito es solventar dicha situación al agregarle movilidad a un panel solar, dotándolo con esto de la capacidad de mantenerse siempre enfocando hacia el sol, y optimizando la energía y luz que este será capaz de captar a lo largo de un día.



METODOLOGÍA

Se genera una base de datos del sitio web www.sunearthtools.com, tal información es introducida en el código de MATLAB a fin de que este la interprete y modifique en función de que cumpla su propósito de acuerdo a las especificaciones realizadas por las limitaciones de los 2 servomotores. Una vez toda la información es procesada esta se envía vía Bluetooth al Arduino, el cual tiene ya montado un código capaz de interpretar los datos recibidos y realizar las operaciones pertinentes de mover ya sea el motor de la elevación o de el azimut, en función de los datos proporcionados y con relación a la hora y lugar donde se realiza el proceso  


CONCLUSIONES

Pese a los inconvenientes generados por trabajar sobre un diseño ya existente son sus respectivas fallas y sin contar con una gran cantidad de recursos, diversas soluciones fueron surgiendo para solventar limitaciones y problemas, las cuales ayudaron a dar forma  un mecanismo que si bien, este funge como prototipo, los principios y datos obtenidos del mismo pueden ser implementados en cualquier otro mecanismo a escala con la que se desee trabajar, y tomando en cuenta la importancia que ha venido tomando las energías renovables, la capacidad de incluir lo hecho a gran escala se vuelve algo a tomar en cuenta, siendo que la importancia de esta investigación no radica en la escala que se maneja, sino en los alcances que puede llegar a tener.
Antaño Locia Gabriel, Universidad Autónoma de Guerrero
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI


TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI

Antaño Locia Gabriel, Universidad Autónoma de Guerrero. Gómez Villeda Yaritzel de Jesús, Instituto Politécnico Nacional. Jiménez Castillo María Herminia, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Se le conoce como discapacidad motora a las limitaciones y restricciones en actividades de la vida cotidiana de una persona como consecuencia de una deficiencia a nivel de estructuras bilógicas. En México cerca del seis por ciento de la población vive con algún tipo de discapacidad, indicándose como la motriz la más frecuente. Hoy en día se busca la implementación de la tecnología en el área médica para dar acceso a personas con dificultad motora a ejecutar algunos movimientos y/o actividades mediante el conjunto de tecnología integrada que comprenda la operación a distancia por un ser humano, llamado teleoperación. Se pretende con el verano de investigación lograr una integración de BCI (Interfaz cerebro-computadora) con el movimiento de un brazo robótico DOBOT Magiacian ®, donde el usuario pueda seleccionar dos actividades, selección de cubos de cuatro colores diferentes cada uno y dibujar formas geométricas en posiciones predeterminadas a elegir, lo anterior con la creación de programas en el software de Matlab y C# en Visual Studio, logrando así una teleoperación.



METODOLOGÍA

Para dar inicio se interactuó con el brazo robótico Dobot Magiacian ®, con el fin de lograr identificar cada una de las partes funcionales, restricciones y precauciones, para una correcta y segura manipulación; por otro lado, también se dio inicio con la descarga del SDK (Software Designer Kit) de la página oficial de Dobot Magiacian ®. Posteriormente se diseñó un manual de los componentes físicos y accesorios del brazo robótico Dobot Magician ®, en el cual se incluyó la descripción y la forma correcta de conectar y ensamblar cada uno de ellos. También se añadió un apartado de las precauciones que se deben tener al momento de utilizar el brazo robótico y de las restricciones que este posee. Después se diseñó y elaboró cada una de las rutinas antes mencionadas: Movimiento de cubos y dibujo de cuatro figuras geométricas, según el color y figura deseada respectivamente, ambas actividades con posición predeterminada a elegir por el paciente.   En lo que refiere a mover cubos, se identificaron las coordenadas de una matriz de dos por tres (2X3), marcadas desde a hasta f, las cuales son las posiciones posibles donde el brazo robótico puede colocar los cubos con el accesorio suction cup. En cuanto a dibujar figuras, se identificaron las coordenadas del triángulo, cuadrado, trapecio y rombo, en cuatro posibles posiciones de una matriz de uno por cuatro (1X4), en donde el accesorio pen fue utilizado. Una vez que se realizó la aplicación externa al software propietario del Dobot Magacian®, gracias al SDK y los componentes DLL, de las cuales se obtuvieron las herramientas necesarias para el desarrollo y control del Brazo robótico por medio de la nueva interfaz, se agregaron funciones que ayudaron a realizar las diversas rutinas implementadas por el Dobot que serían ejecutadas por las diferentes decisiones del paciente que controla el brazo robótico por medio de la BCI. Se analizó la API del Dobot Magacian ® para obtener las funciones que determinaran los movimientos del robot tales como los desplazamientos que hace el brazo robótico por el sistema de coordenadas integrado por defecto, así como las acciones que realiza con sus accesorios (Griper, Suction Cup y Pen). Con la ayuda del software de MATLAB se realizó un procesamiento de imágenes en tiempo real obtenidas de una cámara web las cuales son procesadas para la identificación de cuatro cubos de colores: rojo, verde, azul y amarillo, esto con ayuda del sistema de color RGB. Dentro del programa también se llevó a cabo la ubicación en coordenadas del centroide de cada cubo identificando que para la correcta interpretación de las coordenadas espaciales se tenía que realizar una transformación de pixeles a mm para posteriormente enviarlas en tiempo real al servidor. Lo que se realizó a continuación fue resolver asuntos de conectividad y comunicación, las cuales fueron útiles para que el control del robot funcione de manera remota y este sea capaz de recibir los datos, tanto de la BCI, como de un software externo definido como visión; este ultimó encargado de proporcionar las coordenadas de cada cubo ubicado aleatoriamente, para posteriormente indicar hacia donde deberá moverse el brazo robótico. Para lograr satisfactoriamente la conexión se implementó el protocolo de comunicación UDP, el cual por medio de un socket asincrónico se encargó de recibir y procesar los datos provenientes de las dos aplicaciones mencionadas. Al socket le llegan dos tipos de datos, los comandos de la BCI los cuales determinaban el color de cubo que el usuario selección, así como la posición a la cual se debería mover el cubo (la posición final dentro de la matriz de 2x3), por otra parte, también la obtención de las coordenadas de visión, antes ya mencionadas; desde este punto se implementó la lógica necesaria para poder identificar qué tipo de dato estaba entrando y como este debería manipularse para que las instrucciones se ejecutaran de manera correcta. Para finalizar, se realizó un nuevo manual de la interfaz diseñada, en donde se explicó la manera de llevar a cabo la conexión y ejecución de esta. Además, se incluyó un video de los experimentos llevados a cabo con la nueva interfaz, donde se muestra al paciente teleoperando el brazo robótico Dobot Magacian ®


CONCLUSIONES

A lo largo de la estadía, se logró desarrollar una interfaz con la cual se pudo teleoperar el Dobot Magician ® a través de la BCI, en donde fueron implementadas dos rutinas. Posteriormente se probó el funcionamiento de la interfaz mediante varios experimentos realizados a diferentes pacientes, en los cuales se obtuvieron resultados favorables. A pesar del logro obtenido, nos dimos cuenta de posibles recomendaciones y mejoras futuras, entre ellas que el Dobot Magician ® pueda apilar los cubos y en la parte de visión se pueda obtener la altura de cada cubo.
Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac
Asesor: M.C. Chadwick Carreto Arellano, Instituto Politécnico Nacional

SISTEMA DE CONTROL DE ACCESO BASADO EN TECNOLOGíA NFC Y REDES ZIGBEE


SISTEMA DE CONTROL DE ACCESO BASADO EN TECNOLOGíA NFC Y REDES ZIGBEE

Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac. Gutiérrez Trejo Andree Michel, Instituto Politécnico Nacional. Asesor: M.C. Chadwick Carreto Arellano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente los sistemas de control de acceso que utilizan lectoras de identificadores por radiofrecuencia presentan deficiencias en la relación de datos de usuarios e identificadores en las tarjetas, así como la tecnología utilizada en la interconectividad de nodos que conforman el sistema y la comunicación con el servidor. El almacenamiento de datos de usuario en estos sistemas dependen de componentes adicionales al hardware, como memorias flash y eeprom, las cuales están limitadas por un tiempo de vida útil y generan un mayor costo en el hardware del sistema. La principal problemática en la interconectividad de nodos y servidores, radica en que muchas veces se utilizan medios alámbricos con protocolos de comunicación serial como rs232 y rs485, así como protocolos de ethernet por medio de cable utp y rj45; la desventaja de su uso es, entre otras cosas, el elevado costo de instalación en lugares que no sean tan adaptables y un limitado alcance en la señal de transmisión, además de un alto consumo energético agotando rápidamente el tiempo de operación de las baterías.



METODOLOGÍA

Para el desarrollo de este sistema de control de acceso se adoptó una metodología basada en prototipos, la cual se dividió en varias etapas que van desde el análisis de los diferentes componentes de hardware hasta la implementación de los mismos. Como primera etapa se realizó un análisis de los diferentes microcontroladores ya existentes en el mercado, se determinó la utilización de una tarjeta de prototipado, en este caso arduino uno, la cual nos permite trabajar con diferentes puertos que trabajan con diferentes protocolos de comunicación como UART , SPI, I2C, ONE WIRE, entre otros, los cuales se pueden implementar a nivel de hardware y software y se adaptan a los diferentes módulos o transceptores implementados en el sistema. En la siguiente etapa se realizó un análisis para la selección del módulo lector de nfc, en este caso el lector pn532 el cual permite trabajar con tarjetas que cumplen los requerimientos de la norma ISO14443A, por lo que se determinó trabajar tarjetas de tipo NTAG en su versión 215, ya que el mapa de memoria permite un fácil manejo de la información en funciones de entrada y salida, así como el resguardo de esta. Este lector trabaja con una alimentación standard de 3.3v pero en su versión extendida puede trabar con hasta 5v, por otro lado permite trabajar con dos protocolos para su comunicación con el microcontrolador los cuales son SPI e I2C. En la siguiente etapa se trabajó la codificación para las funciones de escritura y lectura de las tarjetas ntag 215 en el microcontrolador, definiendo así los registros de memoria correspondientes a los datos de usuario requeridos para la autenticación del control de acceso evitando la implementación de memorias externas aumentando la eficiencia en el flujo y manejo de datos. En la siguiente etapa se realizó el análisis para la implementación de tecnologías inalámbricas de bajo consumo energético enfocadas a la interconectividad de nodos y la comunicación con el servidor. Para esta implementación se utilizó un protocolo de comunicación basada en el estándar de la IEEE 802.15.4, ideal para tasas de transmisión bajas para sistemas de monitoreo y control de sensores industriales. Este protocolo es conocido como zigbee, el cual permite implementar redes con diferentes topologías como son la topología estrella, malla y árbol. Se realizó la codificación y estructuración de las tramas correspondientes para el control de este sistema complementando las funciones previamente establecidas en el microcontrolador . En la última etapa se realiza el análisis para la implementación del servidor en el cual se almacenó la base de datos del sistema. Este servidor está establecido en un framework basado en phyton llamado django, el cual trabaja a través de urls con funciones http para inversiones y consulta de datos y con servicios web de tipo rest. En este framework se hizo una migración de una base de datos creada con el motor de María db. Culminando así con la conjunción de todas las etapas del prototipo generando un prototipo final controlando actuadores mediante elevadores conectados al microcontrolador de acuerdo a la funciones correspondientes al control de acceso.


CONCLUSIONES

En la culminación del proyecto se pudo obtener un sistema de control de acceso funcional y eficiente el cual está próximo a ser implementado en la Unidad Politécnica de Educación Virtual, lo cual permitirá obtener un control total en el flujo de personal y garantizar la seguridad en las instalaciones utilizando tecnologías innovadoras y eficientes en consumo energético y manejo de datos.
Anzaldo Baca Ivan Alejandro, Instituto Politécnico Nacional
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

ACONDICIONAMIENTO DE UN TRANSILUMINADOR CONVENCIONAL CON RASPBERRY PI PARA LA CAPTURA DE IMÁGENES.


ACONDICIONAMIENTO DE UN TRANSILUMINADOR CONVENCIONAL CON RASPBERRY PI PARA LA CAPTURA DE IMÁGENES.

Anzaldo Baca Ivan Alejandro, Instituto Politécnico Nacional. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el estudio y la manipulación del ácido desoxirribonucleico (ADN) representa una actividad cada vez más común en el campo de la investigación. Existen varios protocolos para la extracción de ADN, ahora bien, para validar la eficiencia de dicho protocolo se debe de realizar una electroforesis del gel de agarosa o bien una electroforesis en gel de poliacrilamida para separar los ácidos nucleicos. La electroforesis es el movimiento o desplazamiento diferencial de ácidos nucleicos, debido a su naturaleza presentar carga negativa generada por los grupos fosfatos en su estructura, por lo que dicho desplazamiento se realizara por la atracción o repulsión en un campo eléctrico. Uno de los usos del método de electroforesis es separar fragmentos de ADN dependiendo de su tamaño (pares de bases), y visualizarlos con una sencilla tinción, dicha tinción consiste en agregar un agente intercalarte que florezca a cierta longitud de onda y así se logra determinar de manera cualitativa el contenido de la muestra. En la actualidad existe una gran variedad de equipos para visualizar los ácidos nucleicos que se le conoce como transiluminador convencional; un aparato que usa en principio luz ultavioleta (UV) con diferentes longitudes de onda 40nm a 400nm esto para que el agente intercalante se excita (resalta) y poder visualizar las proteínas y ácidos nucleicos en geles de poliacrilamida y agarosa respectivamente. Ahora bien, si se requiere llevar un registro de lo que se visualiza en un transiluminador, existen en el mercado equipos que registran o inclusive analizan la información, este es el fotodocumentador, que tiene la función de capturar imágenes del gel que se esté estudiando mediante una cámara. Debido a que el precio en el mercado de estos aparatos es elevado y el sencillo uso de las plataformas de libre acceso nos abren la posibilidad de desarrollar un fotodocumentador a un menor precio, cumpliendo con las funciones básicas de capturar, guardar y editar la imagen. El proyecto de investigación consiste precisamente en crear un fotodocumentador con la implementación de un módulo Raspberry Pi Camera V2, una tarjeta Raspberry Pi 3 model b+, un Touchscreen Display 7in para el almacenamiento de imágenes en la memoria SD.



METODOLOGÍA

Los materiales que se utilizaron en la realización del proyecto fueron principalmente tres: una memoria microSD, un módulo de cámara raspberry pi v2, una pantalla táctil de 7 in y una tarjeta raspberry pi 3 modelo B. Lo demás fueron cables jumpers macho-hembra, cable HDMI, monitor, ratón y teclado. Primeramente, se descargo el sistema operativo raspian en una tarjeta microSD y posteriormente se instaló en la tarjeta. Así mismo se descargó e instaló las ultimas actualizaciones del sistema operativo. Una vez que la tarjeta estaba lista para utilizarse, se conectó la pantalla Touchscreen Display 7 in. Se utilizó este tipo de pantalla primeramente por su compatibilidad con la tarjeta ya que otras pantallas necesitan que se instale su controlador y cambiar permisos para que se despliegue la imagen en estas. El módulo de la cámara fue lo último por conectar a la tarjeta, se tenían dos opciones de módulos de cámara; el Camera Module V2 y Pi NoIR Camera V2. Se hizo una prueba en donde se comprobó que la cámara normal capturaba mejor las bandas del gel por lo que se decidió utilizar ese módulo. El hardware se compone de una tarjeta, un sistema de control (software diseñado en python) y el sistema de captura de imágenes. Lo siguiente que se realizó fue el software, el cual consiste en una Interfaz Gráfica de Usuario que cumpla con todos los requisitos de un fotodocumentador, que son: visualización, captura de imágenes, además editar la imagen con la ayuda del programa GIMP, despliegue de la imagen que se capturó y el almacenamiento de la serie de imágenes que se tomen. Para realizar esta serie de funciones solo es necesario instalar las siguientes librerias que son: time, PyQT5, PiCamera y resizeimage; time sirve para dar intervalos de tiempo muerto, PyQT5 permite realizar la interfaz gráfica de una manera más sencilla, rápida y estética, PiCamera ayuda a controlar la cámara y finalmente resizeimage permite modificar el tamaño de una imagen. Cabe mencionar que las librerías se deben instalar en la computadora donde se desarrolla el programa como en la tarjeta raspberry. Finalmente se dieron los permisos al programa para acceder a la memoria, para que así pueda guardar, acceder y modificar las imágenes.


CONCLUSIONES

Durante el desarrollo del trabajo se logró aplicar conocimientos de programación, electrónica y control que son los pilares de la ingeniería mecatrónica, dentro de una rama de la ciencia como lo es la biología molecular. Para el desarrollo del proyecto fue necesario tener conocimientos previos del uso del lenguaje de programación en Python, así como los conocimientos del funcionamiento y control de la tarjeta raspberry. El diseño de la herramienta que se desarrolló tiene diversas ventajas comparado a los que se ofrecen en el mercado, especialmente en el precio y el tamaño. El trabajo nos da la oportunidad de habilitar los transiluminadores, para usarlos como fotodocumentadores ya que se cuenta con la cámara, la tarjeta y la pantalla. El módulo que se realizó se puede emplear para cualquier transiluminador que tenga un área de emisión máxima de luz uv de 20 x 20cm.   Al momento de utilizar el aparato solo se necesitará conectar a la corriente, correr el programa y acceder a las instrucciones que se muestran al presionar el botón de instrucciones. Como resultado se obtuvo que el fotodocumentador cumple con las funciones básicas del aparato, entre ellas son; visualizar lo que la cámara captura, tomar la fotografía, guardarla  y desplegarla al momento de tomarla.
Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Aranda Cen Jeancarlo Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México

CIENCIAS COMPUTACIONALES.


CIENCIAS COMPUTACIONALES.

Alvizo Pérez Néstor Primitivo, Consejo Quintanarroense de Ciencia y Tecnología. Aranda Cen Jeancarlo Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Chan Dzib Oscar Adrian, Consejo Quintanarroense de Ciencia y Tecnología. de la Cruz Mendez Oscar, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La explicación y aplicación de los simulacros en caso de emergencias en una institución educativa  genera un costo tanto monetario como de tiempo. El uso de simulacros de emergencias mediante inteligencia artificial y realidad virtual tiene beneficios económicos  y de tiempo. Este Proyecto se realizó con el motivo de realizar una simulación virtual de cómo se debería de comportar los alumnos de la Universidad Autónoma de México ante una fenómeno natural como pueden ser terremotos y poder tomar una ruta de evacuación de manera organizada, debido a que muchas personas no sabrían cómo actuar ante tales situaciones.



METODOLOGÍA

Para recrear estas situaciones de emergencias , se ha hecho simulaciones de comportamiento en un entorno  3D utilizando el software de Unity y Sketchup. Seguidamente para visualizarlo se lleva el proyecto de Unity al campo de la realidad virtual. Para esto usamos el software de Occulus y unos lentes VR Occulus rift. Como primer punto se realizo el diseño del edificio G de "Facultad e Ingenieria" en el software de Sketchup. Para ello se tomaron las medidas exteriores e interiores del edificio para hacerlo lo mas real posible.  Seguidamente  se diseñaron avatares y se les programo comportamientos, con el fin de que se simule en ambiente virtual del proposito principal del proyecto. Una vez hecho estos 2 puntos anteriores se llevo el proyecto al ambiente de realidad virtual. Y para poder visualizarlo tuvimos que tener unos lentes VR Occulus Rift que en este caso el investigador nos lo facilito.  Ya teniendo los lentes VR, al proyecto se le integran plugins necesarios para que sea reconocido por los lentes y asi poder visualizarlo en ellos.  


CONCLUSIONES

Los resultados que se obtuvieron fueron al haber creado el entorno virtual para la simulacion de emergencias virtuales. Donde los alumnos pueden entender mas rapido el como reaccionar ante estos eventos. Se espera que este proyecto optimize el tiempo y beneficios a la Universidad al momento de realizar los simulacros. Pues proteme tener exito.
Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN


EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN

Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic. Ceras Flores Norma Paulina, Universidad de Guadalajara. Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic. Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic. Valdez López Marco Augusto, Instituto Tecnológico de Tepic. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fitorremediación es una tecnología que utiliza plantas, hongos y semillas para la remediación de agua y suelo contaminados. Consiste en la remoción, transferencia, estabilización y/o degradación y neutralización de compuestos orgánicos, inorgánicos y radioactivos. Es una tecnología de bajo costo, posee un impacto regenerativo en áreas donde se aplica y su capacidad extractiva se mantiene debido al crecimiento vegetal. Las emisiones de dióxido de azufre y óxidos de nitrógeno, que se emiten a la atmósfera mediante fuentes naturales y antropogénicas, originan la lluvia ácida (compuesta por ácido sulfúrico y nítrico), ésta cambia la composición del suelo y desplaza los metales pesados hacia las aguas subterráneas, aumentando su toxicidad e imposibilitando su consumo. Además, los ácidos disminuyen el PH de los acuíferos dulces lo que afecta al desarrollo de la fauna acuática. Según el Registro de Emisiones y Transferencia de Contaminantes (RETC) que se aplica en 17 países, México es el primer lugar (de los países en vías de desarrollo) en la utilización de ácido sulfúrico.  Otra gran problemática actual del ácido sulfúrico en nuestro paíes es el derrame de 3 mil litros de éste el pasado 9 de julio del 2019 en el Mar de Córtés, en la bahía de Guaymas.  Varios compuestos derivados del azufre son nocivos en el medio ambiente, tales como el sulfuro de hidrógeno, disulfuro de carbono o dióxido de azufre Durante el verano de investigación se estudian las capacidades de biorremediación de Crassula ovata en un sitio contaminado por ácido sulfúrico y una Zinnia elegante en un sitio contaminado por azufre.  



METODOLOGÍA

- Preparación de la tierra  Se usó tierra del lago de la BUAP, donde nuestra base fue 500 gramos para cada bolsa siendo las proporciones de esta 91% de tierra y 9% de aserrín, esta relación se usó para las plantas zinnia elegante, las cuales necesitaron de 17 bolsas en total, que contenían 2 blancos y 3 bolsas por cada concentración de contaminante usado los cuales fueron 5. Para la planta suculenta prepararon sólo 5 bolsas con una relación de 95 % tierra y 5% aserrín. - Contaminación de la tierra Se utilizó como contaminante para las plantas zinnia el azufre en forma sólida, teniendo diferentes concentraciones que variaban de 1 a 5%, teniendo cada una un triplicado. Después de realizada las concentraciones se procedió a verter cada una de las concentraciones a una bolsa distinta, dejando reposar una semana y utilizando métodos mecánicos para la agitación y mezclado de la tierra con el contaminante. Para las plantas suculentas se usó como contaminante ácido sulfurico, el cual también se realizaron diluciones que iban de 1 a 5%, cada una agregada a una bolsa distinta, dejando reposar un día y de igual manera usando métodos mécanicos para la agitación y mezclado del contaminante con la tierra. - Determinación de la estratigrafía de la tierra Para determinar el tipo de suelo usado, se pesaron 200 gramos de tierra en una balanza granataria y estos fueron agregados a una probeta de 1 litro, la cual fue aforada con agua por lo que provocó la sedimentación y separación de esta. Como resultado obtuvimos que nuestro suelo es de tipo arenoso y gravilloso. - Selección y germinación de las semillas Se utilizaron dos tipos de plantas, la primera fue conseguida en un supermercado local, la planta es llamada zinnia elegante conseguida en forma de semillas, con un tiempo de germinación corto. Se seleccionó otra planta llamada suculenta por ser típica de la región y tener muy pocos requerimientos para crecer, la cual fue conseguida en un vivero localizado en la ciudad de puebla. Para la germinación de las zinnias se utilizó algodón y agua, dejandolas germinar durante aproximadamente 1 semana en la cual adquirieron una altura de 5 cm. - Plantación en la tierra contaminada Se realizó un proceso de trasplante común, simplemente cubriendo las raíces de las plantas con la tierra previamente contaminada. - Mediciones de pH, densidad de la tierra y humedad Se realizaron mediciones de los parámetros de la tierra antes y después de contaminarla. Además de que se realizan dos mediciones de los parámetros cada semana. Los equipos usados son potenciometro para medir el pH, y la humedad esrealizada con una balanza analítica y una parrilla, dónde se calcula el % de humedad restando el peso húmedo menos el peso seco.  


CONCLUSIONES

- Elaboración de las curvas de calibración. - Determinación de la remoción de los contaminantes. - Analizar las capacidades de biorremediación de Crassula ovata y Zinnia elegante con el respecto al contaminante empleado.  
Arce Rubio Reyna Graciela, Universidad Autónoma de Occidente
Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato

CONVERSIóN TERMOQUíMICA DE RESIDUOS PLáSTICOS EN HIDROCARBUROS


CONVERSIóN TERMOQUíMICA DE RESIDUOS PLáSTICOS EN HIDROCARBUROS

Arce Rubio Reyna Graciela, Universidad Autónoma de Occidente. Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los plásticos tienen excelentes propiedades y son de bajo costo, esto provoca que haya una alta producción de ellos, por lo tanto, trae consigo algunas desventajas ya que estos productos tardan hasta más de 200 años en degradarse. Ante este problema es importante considerar actividades como el reciclaje, es decir la acción de volver a introducir en el ciclo de producción y consumo productos materiales obtenidos de residuos. Uno de los métodos de reciclaje de plásticos es el reciclaje termoquímico, por medio de este proceso se modifican las estructuras químicas de los polímeros garantizando la reducción del volumen de residuos y la generación de productos como combustibles alternativos para motores de combustión interna. Dentro del reciclaje termoquímico se encuentra el proceso de pirólisis, que consiste en realizar la degradación térmica en ausencia de oxígeno, durante este proceso los materiales poliméricos se calientan a altas temperaturas de manera que sus macromoléculas se descomponen en moléculas más pequeñas y se recuperan productos totales como una amplia gama de hidrocarburos líquidos y gaseosos. En el presente trabajo se realizaron dos pruebas de pirólisis, una con los residuos plásticos de polietileno de baja densidad (LDPE) y la otra, se formó una mezcla en la que al polietileno de baja densidad (LDPE) se le agregó un 25% de polietileno de alta densidad (HDPE) y 25% de polipropileno (PP).  



METODOLOGÍA

El equipo utilizado fue un reactor tipo batch reactor que funciona por lotes, se llevó a cabo el siguiente procedimiento: Se pesó 1 Kg de plástico de LDPE en el cual se colocó en el tanque y se cerró, posteriormente se aseguró que todas las conexiones fueran correctas para poder introducir los ajustes de temperatura iniciales del termopar base (TB) y termopar medio (TM) siempre con una diferencia de 40 °C, se estuvieron modificando las temperaturas en unos intervalos de tipo establecidos hasta agotar el plástico para así poder extraer los productos obtenidos durante el proceso de pirolisis, los cuales fueron gases, aceites, carbón y ceras, estos fueron pesados para poder determinar el porcentaje obtenido, adicionalmente se midieron las propiedades de densidad y viscosidad. Se utilizó el mismo procedimiento en la prueba de la mezcla compuesta por polietileno de baja densidad, polietileno de alta densidad y polipropileno.


CONCLUSIONES

Durante el proceso de pirolisis se observó que los residuos plásticos del polietileno y la mezcla se degradan en su mayoría, a una temperatura de 440°C, además se pudo percibir que los productos líquidos a mayor temperatura aclaran su color. El líquido obtenido del polietileno de baja densidad fue de color rojizo claro, este se comenzó a producir a partir de los 370 °C hasta los 420 °C, después de esta temperatura se produjo un producto cerosos. La densidad de el producto obtenido a 420 °C fue de 0.760 y la viscosidad de 1.920 cSt. La mezcla (50% LDPE, 25% PP y 25% HDPE) produjo liquido hasta los 440 °C con un color marrón obscuro y la producción de cera empezó a los 460 °C, su tonalidad fue de color negro opaco. La densidad relativa de los productos de la mezcla presentó valores similares a los del polietileno a una temperatura de 420 °C, con valores de 0.766 para la densidad y de 2.0831 cSt para la viscosidad. El líquido obtenido del polietileno a 420 °C y de la mezcla definida a temperatura de 420 °C y 440 °C, se puede mezclar con hidrocarburos a ciertos porcentajes debido a que sus propiedades presentaron similitudes con los combustibles comerciales. La pirolisis del polietileno se produjo un 38% producto líquido, 36.8% de ceras, un 5.9% de gases no condensables, 2% de sólidos. La Mezcla compuesta por LDPE 50%, HDPE 25% y PP 25% generó un 72.7% de líquido, 14.3% de cera, 3.1% de carbón y 10% de gases no condensables. Es importante destacar que la pirolisis de productos de posconsumo contribuirá al medio ambiente con la disminución en volumen de los residuos plásticos, ya que todos los productos resultantes pueden ser utilizados en otras aplicaciones, contribuyendo así a mitigar uno de los principales impactos ambientales de tipo social que es la acumulación de residuos plásticos.
Arcia Moreno Luis Miguel, Universidad de Pamplona (Colombia)
Asesor: M.C. Carlos Eduardo Cañedo Figueroa, Universidad Autónoma de Chihuahua

RECONOCIMIENTO DE PATRONES A TRAVéS DE SEñALES EMG PARA EL CONTROL DE UN VIDEOJUEGO COMO UN INSTRUMENTO PARA LA REHABILITACIóN FíSICA.


RECONOCIMIENTO DE PATRONES A TRAVéS DE SEñALES EMG PARA EL CONTROL DE UN VIDEOJUEGO COMO UN INSTRUMENTO PARA LA REHABILITACIóN FíSICA.

Arcia Moreno Luis Miguel, Universidad de Pamplona (Colombia). Asesor: M.C. Carlos Eduardo Cañedo Figueroa, Universidad Autónoma de Chihuahua



PLANTEAMIENTO DEL PROBLEMA

La tendencia global hacia un paulatino envejecimiento de la población y en consecuencia el aumento significativo de enfermedades crónicas como la diabetes, enfermedades vasculares y trastornos mentales trae consigo el crecimiento del número de personas que sufren de algún tipo de discapacidad, entendiéndose este término como lo ha definido la Organización mundial de la salud (OMS) a través de la CIF (Clasificación Internacional del Funcionamiento, de la Discapacidad y de la Salud) como un término genérico que engloba deficiencias, limitaciones de acti­vidad y restricciones para la participación, y este, al ser un tema complejo, preocupa a la comunidad internacional al ser estimado una total de más de mil millones de personas que lo padecen, lo que corresponde a un 15% de la población mundial, requiriendo una intervención holística de los estados para que estas personas puedan acceder de manera adecuada a servicios de salud, apoyo, asistencia y rehabilitación debido al alto riesgo de padecer discriminación y desigualdad debido a su condición. [1] Enfermedades como la artritis, accidentes cerebrovasculares y la parálisis cerebral se constituyen como trastornos que afectan significativamente las funciones motoras de los individuos teniendo como consecuencia limitaciones en su movilidad y en su calidad de vida. Este tipo de pacientes con discapacidad motriz en la mayoría de los casos requieren un proceso de rehabilitación permanente, entendiendo la rehabilitación como un conjunto de intervenciones diseñadas para optimizar el funcionamiento y reducir la discapacidad en individuos con condiciones de salud en la interacción con su entorno [2], que involucra de manera necesaria terapia física a largo plazo para recuperar y mejorar la condición motora del individuo, sin embargo debido al lento progreso de la terapia y a lo repetitivo que los ejercicios se pueden tornar, los usuarios pierden motivación, comprometiendo los resultados de la terapia física disminuyendo su efectividad [3]. Una forma singular que busca reducir la fatiga mental y aumentar la motivación a la hora de aplicar terapia física, consiste en el uso de juegos digitales que permiten por medio de dispositivos EMG evaluar la efectividad de los movimientos al mismo tiempo que crea de manera didáctica un método progresivo y proporcional para que cada usuario pueda acceder ejercicios más complejos y exigentes a la medida que progrese en su rehabilitación motriz [3]. Bajo esta premisa, se pretende construir un sistema de terapia física digital que dé respuesta a lo postulado anteriormente usando el sistema embebido Raspberry pi 3 y la banda gForce 100.



METODOLOGÍA

Para la adquisición y envió de datos se implementó la banda gForce 100, fabricada por OYMotion, la cual consiste en 8 módulos interconectados cada uno con un amplificador operacional de instrumentación INA33 que envía su salida analógica a un módulo central que digitaliza y decodifica la señal y la envía a un módulo denominado gForceJoint  que por comunicación serial se adquieren los datos, estos son resultado de un pre procesamiento y codificación con lo que solo es posible obtener información sobre el reconocimiento de gestos predeterminados por el fabricante e información del giroscopio integrado en el módulo central, dejando de obtener los datos en bruto de las 8 señales EMG, por este motivo se recurrió a construir un sistema adicional que obtiene de manera directa las señales de los OPAM que tiene como destino las entradas analógicas de la tarjeta arduino micro, en donde se digitaliza y compacta la señal  para posteriormente enviarla por un módulo bluetooth, esta señal inalámbrica es recepcionada por el sistema embebido Raspberry pi 3. En el sistema embebido Raspberry p3 recibe dos señales provenientes de la banda gForce 100, estas señales son decodificadas y procesadas por un red neuronal construida en el lengua de programación Python para identificar patrones de movimiento, estos patrones a su vez son usados como comandos de control del videojuego, el videojuego seleccionado como herramienta de terapia física digital fue Tetris, el cual requiere que de comandos simples y en muchos casos repetitivos, adicionalmente a medida que el usuario aumente el puntaje apilando bloques aumentara la velocidad y la complejidad de los comandos lo cual repercutirá en un ajuste gradual al progreso del usuario. Para obtener un sistema robusto se dispusieron de 3 sujetos sanos con los cuales se entrenó la red con los patrones de movimiento que requieren del uso de la mayor cantidad de músculos de antebrazo y que son utilizados para la actuación de comandos del juego.


CONCLUSIONES

Durante el verano de investigación se pretende obtener un videojuego adaptado a un sistema embebido Rasppberry pi de bajo consumo que permita a través de movimientos del antebrazo, la muñeca y las falanges  ejecutar los comandos para efectuar el control sobre el video juego, adicionalmente construir un módulo adicional integrado en la banda gforce 100 que permita extraer las señales EMG y enviarlas por tecnología bluetooth. El lenguaje de programación será Python, con el cual se construirá la red neuronal.
Arcos Méndez Pedro, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

CONSTRUCCIÓN DE UN BANCO DE PRUEBAS DE TERMOGRAFÍA PULSADA PARA PRODUCTOS DESHIDRATADOS.


CONSTRUCCIÓN DE UN BANCO DE PRUEBAS DE TERMOGRAFÍA PULSADA PARA PRODUCTOS DESHIDRATADOS.

Arcos Méndez Pedro, Instituto Tecnológico Superior de Los Ríos. Ochoa Zavala Jorge Alberto, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Durante años, el control de calidad en la industria de productos deshidratados se determinó con el uso de métodos invasivos. Por ejemplo, a través de mediciones manuales con calibrador vernier, micrómetro, entre otros; la inspección se basa en la apariencia física y no en propiedades internas, además estas mediciones han demostrado ser inadecuadas debido a que el producto se encuentra en contacto directo con el instrumento de medición provocándole daño físico. La deshidratación de los alimentos es uno de los procesos más comunes para propiciar la estabilidad de los productos. La estimación adecuada del nivel de humedad en productos deshidratados previene cambios físicos no deseados provocados por la falta de control en el proceso de deshidratación. Por lo tanto, el objetivo de la estancia es la construcción de un banco de pruebas para termografía pulsada, y exportar los datos que arroje el banco de pruebas a una plataforma en línea (utilizando IoT) para ser almacenadas.



METODOLOGÍA

En el proceso de cumplir los objetivos propuestos en el protocolo, el trabajo se realizará en cuatro etapas. Etapa 1 Se contempla un estudio profundo del estado del arte sobre variables que intervienen en la deshidratación de productos alimenticios, cinética de secado, termografía pulsada y termografía pulsada aplicada en alimentos. Etapa 2 Diseñar y construir un banco de pruebas de termografía pulsada. Etapa 3 En esta etapa se implementarán un algoritmo que extraiga los datos de las imágenes y las guarde en un formato .cvs, estos archivos serán almacenados en servidores en la nube en tiempo real. Etapa 4 En esta etapa se pondrá a prueba el prototipo, se analizarán los resultados para corregirlos y al final documentar el resultado del prototipo final con los errores corregidos.


CONCLUSIONES

Durante la estancia del verano, se logró adquirir conocimientos teóricos y prácticos de la creación de un banco de pruebas de secado de hojas utilizando imágenes térmicas para analizar el comportamiento estructural interno de una hoja y así comprobar la calidad de deshidratación y medir el nivel de humedad que esta tiene, utilizando técnicas de deshidratación pulsada. Para el diseño geométrico del prototipo se debe tomar en cuenta los ángulos de apertura de la cámara, la distancia focal, y la distancia máxima de detección de cambios de temperatura, de igual manera la configuración de nuevas herramientas inteligentes basados en IoT para automatizar el funcionamiento del banco de pruebas, por ellos se estará utilizando una Raspberry Pi, esta tendrá el condigo que controlará las funciones que el sistema implementa para la recolección y procesos de datos.
Arellano Acosta Jesus Nabi, Instituto Tecnológico de Culiacán
Asesor: Dr. Juan Gabriel Aviña Cervantes, Universidad de Guanajuato

DETECCIóN DE CALCIFICACIONES EN MAMOGRAFíAS MEDIANTE TéCNICAS DE PROCESAMIENTO DIGITAL DE IMáGENES


DETECCIóN DE CALCIFICACIONES EN MAMOGRAFíAS MEDIANTE TéCNICAS DE PROCESAMIENTO DIGITAL DE IMáGENES

Arellano Acosta Jesus Nabi, Instituto Tecnológico de Culiacán. Asesor: Dr. Juan Gabriel Aviña Cervantes, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las calcificaciones son las lesiones no palpables más frecuentes de la mama. Son depósitos de calcio en el tejido mamario que se observan en una mamografía en forma de pequeños puntos blanquecinos. No provocan dolor ni ningún otro síntoma, por lo que se trata de un problema que se diagnostica al realizar esta prueba rutinaria. En sí mismas no son peligrosas, pero en casos muy concretos pueden ser un signo de cáncer de mama. Existen dos tipos de calcificaciones: macro y micro.                                       Las macrocalcificaciones aparecen en las mamografías como manchas grandes y redondas. Usualmente no están relacionadas con cáncer y no requieren seguimiento. Las microcalcificaciones son pequeñas y pueden presentarse en forma de racimos. Por lo general son benignas, pero pueden indicar la presencia de cáncer en el seno. Es necesaria la detección temprana de estas anomalías ya que podrían transformarse en un problema mayor para las mujeres que presenten esta condición. Por lo cual durante este verano de investigación se llevó a cabo un algoritmo que pudiera detectar las calcificaciones en sus dos tipos.



METODOLOGÍA

Se utilizó la base de datos MIAS, la cual fue desarrollada por The Mammographic Image Analysis Society y está compuesta por 322 imágenes, de las cuales 25 muestran calcificaciones en los dos tipos, macro y micro. Todas las imágenes son de tamaño 1024 x 1024 pixeles y se encuentran en formato PGM. Como plataforma de software se utilizó Matlab R2017b. La primera etapa es el preprocesamiento, una vez cargada la imagen se le aplica un filtro de promediado con una ventana de tamaño 2x2. A la imagen resultante le es aplicada una umbralización del 6% de los niveles de gris totales en la imagen, es un valor pequeño ya que solamente se necesita separar los objetos de la imagen con el fondo, que es en su mayoría de color negro. A la imagen resultante se le aplica el filtro morfológico de apertura con una ventana de 5x5 para eliminar cualquier objeto pequeño que podría considerarse ruido. Algunas imágenes presentan, además de la mama, varias marcas como el nombre del paciente, marca del lado de la mama, números, etc. A la imagen resultante de la binarización se le aplica un etiquetado de objetos mediante la función bwlabeln la cual asigna un número a cada objeto encontrado en la imagen binaria. Se debe buscar cual fue el numero con el que se etiquetó al área más grande, exceptuando el fondo. Cuando se encuentra la etiqueta correspondiente a la mama se binariza de nueva cuenta para eliminar las etiquetas restantes y solamente mantener el área deseada. El resultado muestra una imagen binaria con el fondo negro y la mama de color blanco sin objetos. Este resultado es multiplicado con la imagen a la que se le aplico el filtro de promediado y el resultado se muestra como la mamografía sin las marcas ni objetos no deseados. Debido a que la imagen original es muy grande y la región de interés es, en algunas ocasiones, menos del 50% por lo que se debe eliminar el exceso de fondo y dejar solamente lo que es necesario para el óptimo procesamiento. Para lograr esto es necesario la función regionprops, para este caso se necesita la propiedad BoundingBox. Con esta propiedad se puede extraer una subimágen donde se encuentra contenido el objeto deseado. El recorte de la región de interés es efectuado en la imagen a la cual se le aplico el filtro de promediado, dejando únicamente la mama la cual contiene la información a extraer. A esta imagen se le aplica una dilatación en escala de grises con un elemento estructurante cuadrado de 3x3 para que los valores altos de las calcificaciones sean extendidos un poco más en la imagen y sea más fácil su identificación. La segunda etapa es la extracción de la información necesaria, en este caso las calcificaciones. Estas son resaltadas aún más con la ayuda de la transformada top-hat, la cual enfatiza puntos brillantes o con intensidades más altas con respecto al fondo en el que se encuentran. Para esto es necesario un elemento estructurante en forma de disco con radio de 14 pixeles el cual es creado a partir de la función strel. Para enfatizar un poco más el resultado de la aplicación de la transformada top-hat se hace un ajuste de intensidad con la aplicación de la función imadjust la cual aumenta los niveles de intensidad medios a niveles de intensidad altos, también se usa la función gamma la cual es una función de corrección de la intensidad. Al resultado obtenido de los ajustes de intensidad se le aplica una binarización del 25%, este grado de umbral fue propuesto tomando en cuenta diferentes niveles de umbralización y eligiendo el que mostraba un mejor resultado. Una vez que la imagen es del tipo binaria se aplica la operación morfológica de la apertura con un elemento estructurante cuadrado de 3x3, esto para eliminar falsos positivos. Los resultados encontrados son comparados con el groundtruth proporcionado por un médico especializado donde ya se han marcado previamente las calificaciones o anormalidades. Para esto es necesario la aplicación de métricas binarias tales como accuracy, balanced accuracy, sensitivity, precission, recall, etc.


CONCLUSIONES

Los resultados de la aplicación de las métricas binarias raramente arrojan valores muy altos o con un porcentaje cercano al 100%, por lo que se buscó que las métricas sobrepasaran solamente el 70%. En la determinación de las macrocalcificaiones se obtuvo un accuracy del 99.98%, balanced accuracy del 85.22%, sensitivity del 70.44% y precission del 91.59%, tomando en cuenta 12 imágenes, haciendo viable el algoritmo para la detección de estas anormalidades. En cuanto a la determinación de las microcalcificaciones se obtuvo un accuracy del 99.94%, balanced accuracy del 69.15% sensitivity del 38.81% y precission del 69.71%, tomando en cuenta 13 imágenes. Con estos resultados se puede concluir que el algoritmo empleado tiene un alto desempeño para detectar macrocalcificaciones y un desempeño de regular a bajo para la detección de las microcalcificaciones.
Arellano Sosa Perla María, Instituto Politécnico Nacional
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

CARACTERIZACIóN QUíMICA Y PETROGRáFICA DE CINCO TIPOS DE ROCA VOLCáNICA “CANTERA”, EMPLEADAS EN LA CIUDAD DE OAXACA, MéXICO


CARACTERIZACIóN QUíMICA Y PETROGRáFICA DE CINCO TIPOS DE ROCA VOLCáNICA “CANTERA”, EMPLEADAS EN LA CIUDAD DE OAXACA, MéXICO

Arellano Sosa Perla María, Instituto Politécnico Nacional. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

En México la piedra cantera ha sido el principal material arquitectónico para templos, catedrales, edificios públicos y palacios durante la época colonial. La ciudad de Oaxaca tiene un componente local debido a la dificultad de traslado de grandes bloques a largas distancias. La diversidad en los monumentos y edificaciones depende de la variación geológica del entorno en que se enclava, ejemplo de esto podemos observarlo en el sitio arqueológico de Monte Alban y Mitla. Los edificios que se localizan en el Centro Histórico de la Ciudad de Oaxaca de Juárez son Patrimonio de la Humanidad (UNESCO, 1987) y debido a su importancia y trascendencia, se ha hecho énfasis en caracterizar las rocas ígneas que los constituyen, provenientes de algunas regiones del Estado de Oaxaca empleando técnicas de distintas ramas geológicas como lo son la mineralogía, petrología, cristalografía, entre otras; esto con la finalidad de la conservación del patrimonio histórico, a través de grupos de trabajo multidisciplinarios que aporten conocimiento sobre de los materiales, tecnologías y metodologías para salvaguardarlo. En este programa experimental, se analizaron una serie de muestras de piedras canteras para conocer sus características químicas, físicas y mineralógicas mediante técnicas de análisis instrumental como fluorescencia de rayos X y petrografía. Adicionalmente, también se estimaron el peso volumétrico, la resistencia a la compresión, la absorción y el pH de las cinco variedades de roca.



METODOLOGÍA

Se seleccionaron tres bancos de extracción de las rocas ígneas: Magdalena Apasco, Etla, Mitla y Suchilquitongo, Etla; del primer banco se obtuvieron dos especímenes, cantera verde y cantera amarilla, mientras que del segundo y tercer banco se obtuvieron dos variedades de cantera roja. Una quinta muestra de cantera verde proveniente del poblado de Santa María Ixcotel se obtuvo directamente de la iglesia de San Agustín, debido a que las rocas de este banco se agotaron algunos años atrás. La metodología de trabajo se dividió en tres partes principales; prueba de fluorescencia de rayos X, petrografía y caracterización física. a) Fluorescencia de rayos X Se utilizaron dos métodos de medición, el método de Fusión MBL/Fluorescencia RX, y el método de Calcinación a 100°C/Gravimetría. Estos métodos fueron utilizados para determinar los elementos/compuestos que se encontraban en cada una de las piedras canteras, de tal manera que muestra con mayor exactitud el porcentaje de cada elemento. Todas las canteras cuentan con los siguientes elementos; alúmina (𝐴𝑙2𝑂3), óxido de calcio (CaO), óxido de hierro (𝐹𝑒2𝑂3), óxido de potasio (𝐾2𝑂), óxido de magnesio (MgO), óxido de sodio (𝑁𝑎2𝑂), policarbonato (PXC), óxido de silicio (𝑆𝑖𝑂2), óxido de fósforo (𝑃2𝑂5), óxido de manganeso (MnO), óxido de titanio (𝑇𝑖𝑂2), cada piedra contiene diversos porcentajes de estos elementos. b) Petrografía La petrografía es un campo de la petrología que se ocupa de la descripción y clasificación de las rocas mediante la observación microscópica de secciones o láminas delgadas, clasificándolas según su textura y composición mineralógica. Se llevo a cabo este estudio en el Servicio Geológico Mexicano (SGM) utilizando el microscopio petrográfico marca Leica modelo DM4500P. Cada una de las muestras fue laminada, y a partir de ellas se observaron en el microscopio petrográfico los diversos minerales que las componen, así como algunas rocas que se incrustan en ellas por el paso del tiempo o por las explosiones al extraerlas, siendo los feldespatos, plagioclasas, biotita, cuarzo y vidrio las especies predominantes. c) Caracterización física Para estimar las propiedades de resistencia y durabilidad de cada una de las diferentes variedades de piedra, fueron realizadas pruebas de resistencia a la compresión y pruebas de densidad y absorción de agua, estas dos últimas como parámetros de durabilidad. Con este propósito, fueron cortados 5 especímenes (replicas) por cada tipo de piedra, utilizando una sierra de diamante de 11 pulgadas. Adicionalmente se realizó la medición de potencial hidrógeno (pH) a cada una de las muestras para determinar su nivel de alcalinidad. Las probetas fueron ensayadas bajo normativas y equipos estandarizados.


CONCLUSIONES

Los resultados de la fluorescencia de rayos X revelaron que las canteras analizadas están compuestas predominantemente por aluminosilicatos, con un 13% de 𝐴𝑙2𝑂3 y un 69 % de SiO2 en promedio. Los análisis petrográficos revelaron que elementos predominantes en la composición mineralógica de las rocas analizadas fueron el cuarzo y la biotita, los cuales, les confieren las características estructurales propias de una roca volcánica. En adición, la biotita también es el mineral que de manera individual tiene influencia directa en la resistencia a la compresión, confiriéndole a la cantera rosa de Mitla un valor de resistencia de 349 kg/cm2, en contraste con los 147 kg/cm2 obtenidos con la cantera rosa de Suchilquitongo, cuyo contenido de biotita es prácticamente nulo. Sin embargo, otro parámetro que también debe considerarse para tener buena resistencia a la compresión es la relación de heterogeneidad entre la matriz y los fenocristales presentes en cada roca, siendo nuevamente la cantera rosa de Mitla la que cumple esta condición, al tener 50-55% de matriz vítrea y el porcentaje restante es cubierto entre feldespatos, plagioclasas, cuarzo y biotita de tamaños variables, incluyendo fenocristales. Los resultados obtenidos mediante la caracterización física de las canteras, permitieron concluir que la cantera rosa de Mitla (CRM) es la que presenta el menor porcentaje de absorción de agua (5.7%) seguida por la cantera verde de San Agustín (8.9%), dichos resultados se atribuyen a sus contenidos en óxido de potasio (3.14 y 3.23% respectivamente) debido a que un compuesto altamente delicuescente y que además se oxida fácilmente al entrar en contacto con el agua.
Arenales Herrera Aldo, Instituto Politécnico Nacional
Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)

MODELADO Y SIMULACIóN DEL SISTEMA DE USO DE ASISTENCIA ROBóTICA PARA EL ANáLISIS DE SU COMPORTAMIENTO A TRAVéS DE DINáMICA DE SISTEMAS


MODELADO Y SIMULACIóN DEL SISTEMA DE USO DE ASISTENCIA ROBóTICA PARA EL ANáLISIS DE SU COMPORTAMIENTO A TRAVéS DE DINáMICA DE SISTEMAS

Arenales Herrera Aldo, Instituto Politécnico Nacional. Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Mas de 1,000 millones de personas (15% de la población) tiene un tipo de discapacidad y de estas entre 110 millones y 190 millones sufren discapacidades. La presencia de estas discapacidades puede traer consigo problemas de tipo socioeconómico, debido a que estas discapacidades impiden una completa inclusión en la sociedad, dificultando acceder a una educación y después a emplear un trabajo, lo cual lleva a problemas económicos los cuales incrementan debido a que algunas discapacidades deben ser acompañadas de tratamientos, terapias y de más cuidados que implican un gasto extra. Por otra parte existe la asistencia robótica, la cual busca generar dispositivos para facilitar el cuidado y la recuperación de gente que cuenta con algún tipo de discapacidad, con el fin de mejorar su calidad de vida. Sin embargo esta aún se encuentra en desarrollo y se desconoce que tanta adopción se le podría dar por parta de la sociedad.



METODOLOGÍA

La dinámica de sistemas es una metodología para modelar y analizar el comportamiento temporal de entornos complejos. Se realizó una revisión de literatura para conocer más acerca de las discapacidades y de la asistencia robótica, esto con la finalidad de conocer los factores principales que influyen en la adopción tecnológica. Para este caso se tomaron en cuenta el costo del producto, la calidad del producto, su obsolescencia, la inversión dedicada a la asistencia robótica, la innovación lograda, la gente adoptando esta tecnología y la divulgación que se le daba. Con dichos factores se realizó una hipótesis dinámica, donde se comenzó a generar relaciones entre los factores, generando ciclos de retroalimentación en los cuales se comienza a ver la tendencia del comportamiento en el sistema. Lo importante en esta hipótesis era definir si un factor aumentaba al aumentar otro o si en caso contrario este decrecería. A partir de la hipótesis dinámica se realizó un modelo en Vensim, el cual incluía los factores tomados en cuenta en la hipótesis y además incluía factores que eran necesarios para relacionar coherentemente los factores principales, se utilizaron unidades de medida reales y se asignaron unidades dimensionales, con tal de mantener una relación entre estas a modo de que no se manejaran valores con unidades erróneas. Para relacionar algunos factores se utilizaron fórmulas simples, en otros casos se utilizaron condicionales y en algunos otros se realizaron curvas para relacionar entradas y salidas a cada factor. Teniendo el modelo concluido se procedió a realizar la simulación, en esta se analizaron las gráficas resultantes en cada factor y a su ves la relación entre estas, si el resultado no era lo esperado o mostraba comportamientos extraños se volvían a analizar las relaciones entre algunos factores, así hasta llegar a un resultado cada vez mas y mas similar al esperado.


CONCLUSIONES

De la investigación realizada se pueden concluir distintas cosas, primeramente que La dinámica de sistemas es una herramienta muy útil ya que permite describir y analizar cuantitativamente entornos a pesar de que estos presenten factores cualitativos. Por otra parte, en base al sistema analizado se puede concluir que la adopción tecnológica depende en su gran mayoría del dinero que existe de por medio en el mercado. Ya que esta inversión se ve reflejada en una mayor divulgación y en la mejora de la calidad del producto. Finalmente, también se puede concluir que la adopción genera su propio incremento, ya que esto hace más atractivo el mercado y por consiguiente se genera una mayor inversión.
Arenas Barreiro Jaime Andrés, Universidad Autónoma de Manizales (Colombia)
Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León

CORROSIÓN POR PICADURAS EN ACEROS INOXIDABLES FERRITICOS (409, 409AL Y 439)


CORROSIÓN POR PICADURAS EN ACEROS INOXIDABLES FERRITICOS (409, 409AL Y 439)

Arenas Barreiro Jaime Andrés, Universidad Autónoma de Manizales (Colombia). Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los aceros inoxidables son aleaciones con un porcentaje de cromo superior al 10.5 %. Este porcentaje de contenido de cromo, permite la formación de una película pasiva que protege al material de ambientes altamente corrosivos. La capa pasiva presente en los aceros inoxidables (oxido de cromo) tiene la capacidad de reconstruirse una vez haya sido penetrada. Razón por la cual, lo hace un material con mucha demanda para Industrias que se ven obligadas a el uso de materiales resistentes a la corrosión. La industria automotriz ha implementado aceros inoxidables ferriticos para retardar la corrosión que presentan los sistemas de escape de los vehículos, incluyendo el convertidor catalítico en los motores de combustión interna. A pesar de la alta resistencia que presentan estos aceros frente a la corrosión, se han obtenido datos representativos que reflejan la mejora en ataques de corrosión localizada al implementar una película de Aluminio. El principal objetivo de aplicar estos recubrimientos, es generar una protección galvánica la cual no permita ser atacado el acero inoxidable por ambientes salinos.



METODOLOGÍA

Se utilizaron aceros inoxidables ferriticos y un acero inoxidable austenitico como material de comparación en forma de láminas de . Adicional a esto, dos de los aceros inoxidables ferriticos son de la misma naturaleza, pero uno de ellos presenta una película protectora de aluminio y el otro no. Se realiza una prueba metalográfica y análisis de corrosión por curvas potenciodinamicas para analizar la presencia de corrosión localizada y la velocidad de corrosión en presencia de 4 electrolitos: a) Agua, b) cloruro de calcio, c) cloruro de Magnesio, d) cloruro de sodio (todos los cloruros de preparan al 3.5 % de concentración). Una vez se aplican las pruebas potenciodinamicas, se hace una revisión de cada probeta a través del estereoscopio y se seleccionan las piezas más críticas para hacer un análisis a través de microscopia electrónica de barrido.


CONCLUSIONES

Se encuentra a través del estereoscopio, inicios y/o propagación de corrosión por picadura en los electrolitos que se componen de cloro, al ser un ion activo para la generación de corrosión. Adicional a esto, el análisis de las curvas potenciodinamicas al implementar la extrapolación de tafel permitió definir el medio salino más propenso a la generación de corrosión por picaduras, así como el material que se degrada con mayor velocidad. Por otra parte, se encontró que la presencia de corrosión localizada en un acero inoxidable ferritico con recubrimiento de aluminizado, es muy baja en comparación con el material sin esta película.
Arias Gómez Edmidia Montserrat, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

DEGRADACIóN DEL COMPUESTO EMERGENTE (DICLOFENACO) EN AGUA RESIDUAL A TRAVéS DE UN PROCESO COMBINADO DE ELECTRO-OXIDACIóN Y DEGRADACIóN ENZIMáTICA


DEGRADACIóN DEL COMPUESTO EMERGENTE (DICLOFENACO) EN AGUA RESIDUAL A TRAVéS DE UN PROCESO COMBINADO DE ELECTRO-OXIDACIóN Y DEGRADACIóN ENZIMáTICA

Arias Gómez Edmidia Montserrat, Instituto Tecnológico de Lázaro Cárdenas. Mondragón Román Salomón Alberto, Instituto Tecnológico de Gustavo A. Madero. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los contaminantes en agua residual representan una problemática de salud pública a nivel nacional, entre estos contaminantes los llamados contaminantes emergentes, no se encuentran regulados, y  gracias a sus estudios y a la investigación sobre sus potenciales problemas a la salud y al medio ambiente, estos podrán ser legislados para su regulación futura. Para la mayoría de los contaminantes emergentes no se conoce realmente, los datos ecotoxicológicos, es difícil predecir los efectos a la salud de los seres humanos, y en el caso de agua de los organismos acuáticos. De entre estos contaminantes emergentes los de mayor preocupación e investigación son los fármacos, más específicamente los antibióticos, ya que la gran mayoría de estos se producen y vierten en el agua residual en cantidades de toneladas al año, dadas sus características y el hecho de ser no polares les permiten a estos contaminantes distribuirse extensamente en el ambiente. A partir del estudio de los contaminantes emergentes en la década de los años noventa se lograron encontrar en concentraciones de ng/L  y μg/L en aguas superficiales y se demostraron que los contaminantes emergentes pueden presentar alteraciones endocrinas, asi mismo se ha demostrado que pueden presentar efectos antagónicos en las funciones biológicas de las hormonas naturales. Estas razones permiten que la degradación de los contaminantes emergentes, se vuelva un importante objeto de investigación que permita a través de procesos  como la oxidación avanzada en reactores electro-químicos o la degradacion enzimatica,  buscar una solución para su eliminación de aguas residuales.



METODOLOGÍA

Recolección de agua residual. Se hicieron muestreos del agua residual en descargas libres proveniente del hospital Juárez en la ciudad de México del área de urgencias médicas, tomando 21 litros y conservando una temperatura de 4°C Acondicionamiento del reactor. Los experimentos para degradar compuestos emergentes se realizaron en el reactor electroquímico FM01-LC . Para el acondicionamiento del reactor se hicieron pasar 3 L de ácido sulfúrico a una concentración 0.5 M por 15 minutos, con la aplicación de 1.83 mA/cm2. Posteriormente se hicieron pasar 3 L de agua destilada, esto con el fin de eliminar todos los residuos de ácido sulfúrico presentes en el reactor. Las condiciones de operación del reactor fueron las siguientes: 1.2 L/min de agua residual hospitalaria y la densidad de corriente que se seleccionó fue de 0.096 A Acoplamiento de los procesos. Se hicieron 9 experimentos los cuales tenían lo siguiente: Agua residual sin sólidos, Agua residual + proceso electroquímico, Agua residual + proceso electroquímico + manganeso, Agua residual + proceso electroquímico  + Enzima purificada, Agua residual + Enzima purificada, Agua residual + Enzima purificada + peróxido, Agua residual + enzima purificada+ Manganeso, Agua residual + enzima + peróxido + Manganeso, Agua residual + enzima purificada + proceso electroquímico +  Manganeso + peróxido El agua residual que se obtuvo a la salida del reactor electroquímico se dejó durante 20 min en circulación, pasado ese tiempo se añadió a los correspondientes matraces Erlenmeyer de 250 ml Extracción de fármacos. Acondicionamiento del cartucho. Se añadió 20 ml de metanol (HPLC), se añadió 6 ml de agua destilada y 6 ml de agua de pH 2 y estos fueron desechados en un frasco. Filtrar muestra. Se le añadió toda la muestra sin dejar secar. Elución. se añadió 10 ml de agua destilada, posteriormente se dejó secar el cartucho dejando pasar aire por 5 min y por último se añadió 12 ml de metanol conservándolo en un vaso de precipitado de 30 ml. Concentración. La muestra anterior se colocó a baño maría a 50°C con una corriente de nitrógeno gaseoso, se dejó hasta tener un volumen de 1 ml. se aforó a 10 ml con metanol. Se hizo un barrido en el espectrofotómetro teniendo como el blanco al metanol.


CONCLUSIONES

A partir de los resultados obtenidos se puede concluir que la mayor degradación entre los distintos tratamientos se obtuvo del agua residual más el tratamiento electro-químico, después se observa que el siguiente tratamiento con más degradación es el de agua residual más enzima, tomando en cuenta que el tratamiento enzimáticos y los procesos combinados electro-químico más  enzimático requieren de un tratamiento específico de la enzima a partir de su purificación, y que la degradación de esta dependerá de las concentraciones de peróxido y manganeso en el medio, podemos concluir que los resultados de los procesos que involucran la utilización de enzima pudieron representar errores debido a las condiciones presentes en el laboratorio, primeramente el trabajar con enzimas requiere de su manipulación en temperaturas de aproximadamente cuatro grados centígrados mismas que se obtuvieron durante en la mayoría de los procesos, pero que en puntos específicos como en la filtración o en la centrifugación no se pudo asegurar que la temperatura se respetara lo que podría haber provocado una desnaturalización enzimática, así mismo en la etapa de purificación de la enzima el tiempo de reacción debía de ser de 2 horas, sin embargo se dejó durante un periodo de 9 horas mismas que representan una disminución en la actividad enzimática y que en conjunto con los dos mililitros que se agregaron a cada tratamiento, no representan la degradación enzimática real y potencial que tienen los tratamientos enzimáticos. El resultado obtenido del barrido en espectrofotómetro de nuestras muestras no representa como tal un resultado concluyente sobre el objetivo del proyecto ya que este solo nos indica  un resultado cualitativo y no cuantitativo,debido a que nos indica la degradación de compuestos no polares en nuestra muestra y no solamente de los fármacos, más específicamente del diclofenaco, ya que para obtener este resultado se requiere de la utilización de otro equipo(HPLC) mismo que al momento de realizar este resumen no ha podido ser realizado.
Arias Plata Nancy, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

USO DE PLASTIFICANTES DE ORIGEN NATURAL Y SU EFECTO SOBRE LAS PROPIEDADES MECÁNICAS DE POLI(ÁCIDO LÁCTICO).


USO DE PLASTIFICANTES DE ORIGEN NATURAL Y SU EFECTO SOBRE LAS PROPIEDADES MECÁNICAS DE POLI(ÁCIDO LÁCTICO).

Arias Plata Nancy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rios Quintero Karely Berenice, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El agotamiento del petróleo y los crecientes problemas ambientales asociados con la contaminación causada por los plásticos han generado un gran interés en la producción de materiales obtenidos a partir de recursos renovables, con potencial biodegradable, como una alternativa a los plásticos convencionales. Actualmente, uno de los polímeros biodegradables con mayor capacidad para remplazar estos plásticos es el poli(ácido láctico), también conocido como PLA, el cual es obtenido de la fermentación del ácido láctico. El PLA presenta propiedades mecánicas interesantes, sin embargo, presenta una alta rigidez, principal inconveniente para ser utilizado en aplicaciones que requieren flexibilidad en diversos sectores.  En el presente proyecto, desarrollado durante la estancia de verano de investigación, se utilizó aceite de soja y aceite de aguacate, así como hule natural, como plastificantes, con el objetivo de disminuir la rigidez del PLA, así como aumentar la tenacidad y deformación a la ruptura.   



METODOLOGÍA

Los materiales utilizados en el presente estudio fueron: Poli (ácido láctico) (PLA) 3251-D grado inyección. Como aditivos de origen natural, se emplearon aceite de aguacate refinado y blanqueado, a partir de desechos de la producción de aguacate (Persea americana), aceite epoxidado de soya marca Pantopox, así como hule natural SGR 10, obtenido del árbol Hevea Brasiliensis. Teniendo en cuenta las diferentes propiedades fisicoquímicas de los aditivos, se realizaron tres tipos de mezclas: 90% de PLA con 10% de aceite de aguacate refinado. 90% de PLA con 10% de aceite epoxidado de soya. 90% de PLA con 10% de hule natural. Para una mejor manipulación del hule en el proceso de mezclado, se cortaron pequeños trozos de este y posteriormente se molieron en condiciones criogénicas (empleando nitrógeno líquido) en un pulverizador de muestras plásticas (Retsch ZM 200).  Posteriormente, las mezclas fueron colocadas en un horno a 70° C durante aproximadamente 24 horas con la finalidad de reducir su humedad. Una vez transcurrido este tiempo, cada mezcla se introdujo en una extrusora de doble husillo paralelo (Process 11 ThermoFisher) los cuales giraban a una velocidad de 100 RPM, obteniendo filamentos delgados, utilizando el siguiente perfil de temperatura: 140, 150, 160, 170, 170, 160, 160 y 150 °C, y una velocidad de alimentación de aproximadamente 250 g/hora.. Los filamentos fueron llevados a una peletizadora, con el objetivo de obtener gránulos de cada mezcla, los cuales se secaron nuevamente en un horno a 70° C por un periode de aproximadamente 24 horas.  Finalmente, se procedió a moldear tres placas de 5 x 5 in de cada material, utilizando 37 gramos de pellets por placa, en una termo prensa hidráulica para muestras de plástico. Posteriormente, se cortaron dos tipos de muestras en las placas con una cortadora láser, la primera con una geometría correspondiente a probetas tipo V (tipo hueso o mancuerna) para ser ensayadas en una máquina universal de ensayos mecánicos (INSTRON 3345) de acuerdo con la norma ASTM D638, y la segunda en probetas rectangulares de 12.7 x 127 mm, a las cuales se les realizó un corte en forma de muesca triangular y se ensayaron de acuerdo a la norma ASTM D6110 en un impactador Charpy (INSTRON CEAST 9050).  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las pruebas mecánicas que se realizan para la cuantificación de las propiedades de los plásticos y compósitos. Con la realización de este proyecto se llegó a la conclusión de que el aceite de soya mejoró el desempeño mecánico significativamente en comparación con los otros aditivos, al incrementar considerablemente la deformación a la ruptura del PLA de 3.5 a 10.0467%.  
Arias Ramírez José Ramón, Instituto Tecnológico de Culiacán
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO


ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO

Arias Ramírez José Ramón, Instituto Tecnológico de Culiacán. Castro Uribe Kevin, Instituto Tecnológico de Culiacán. Urquidez Beltrán Alejandro, Instituto Tecnológico de Culiacán. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Al realizar mediciones de variables fisiológicas en pantas como potencial hídrico, y actividad fotosintética, la apertura y cierre estomática altera fuertemente estas mediciones, de tal manera que se requiere analizar la actividad estomática que tiene la planta bajos diferentes estímulos externos, para poder compensar las mediciones de las variables mencionadas.



METODOLOGÍA

Para conocer el método más factible para la visualización de una estoma hicimos pruebas con pedazos de hojas de distintas plantas. Para la visualización de las estomas en una hoja viva y sin estrés alguno se utilizó un microscopio para poder determinar cuándo una estoma estaba abierta o cerrada, se le dieron pulsos de luz infrarroja, ultravioleta y luz verde, también se le aplicó calor y se mojó la planta para ver las distintas reacciones usando diferentes métodos; intercalando luz, calor o humedad. Cuando se determinó que la estoma se cerraba o abría se tomaban fotografías con la cámara infrarroja en el área que se estaba analizando con el microscopio. El microscopio es digital VELAB VE-D10 con el aumento de 350x. Para tomar las termografías se utilizó una cámara Gobi-640-GigE con un lente de 18 mm.


CONCLUSIONES

La visibilidad de una estoma varía mucho dependiendo el tipo de planta y tamaño de hoja, se espera obtener datos específicos sobre los estímulos que hacen a una estoma abrirse o cerrarse, que, a su vez, nos dará información sobre las condiciones en que una planta lleva a cabo la fotosíntesis. Con la ayuda de una cámara termográfica, se desea ver la reacción térmica de la planta cuando esté realizando la fotosíntesis.
Armenta Flores Miguel Antonio, Instituto Tecnológico de Culiacán
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

DISEñO DE UN BUGGY


DISEñO DE UN BUGGY

Armenta Flores Miguel Antonio, Instituto Tecnológico de Culiacán. Flores Romero Jose Carlos, Instituto Tecnológico de Culiacán. Parra Reyes Angel Sahir, Instituto Tecnológico de Culiacán. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La idea de realizar un Buggy como parte de la linea de investigacion de sistemas automotrices fue para poder aprender a familiarizarnos con los diferentes aspectos que tiene un sistema automotriz haciendo analogia a un carro que es el perfecto ejemplo de tal sistema. Con este proyecto aplicariamos todos los conocimientos aprendidos de nuestra carrera, y en base a la experimentacion sabriamos en que ciertos campos de la ingenieria teniamos nuestras debilidades para poder trabajar en ellas y mejorarlas con ayuda del investigador.



METODOLOGÍA

La metodologia que utilizariamos era hacer el proyecto lo mas sencillo posible siguiendo las indicaciones de nuestro investigador, ya que hacer un proyecto mas complejo implicaria hacer un presupuesto con el cual no contabamos y conocimientos mas avanzados sobre el tema.  El proyecto seria con todas las partes que utiliza una cuatrimoto en sí, con la unica diferencia que seria el armazon o carroceria del Buggy, el motor con el cual contariamos seria un motor de moto de 250cc italika.


CONCLUSIONES

El proyecto se trabajó con todas las herramientas que se nos proporcionó en la escuela, lamentablemente no pudimos concluir el proyecto debido a que no se pudieron conseguir ciertas partes para el Buggy, pero en general aprendimos a como montar un direccion mecanica, como era el sistema de carburacion de un motor de moto, a como saber leer un diagrama electrico de una moto y a practicar con las herramientas de trabajo con las que contabamos. 
Arredondo Fernández Mario Ricardo, Universidad Autónoma de Baja California
Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)

DISEñO MEDIANTE SIMULACIóN POR ELEMENTOS FINITOS: MECáNICA DE CONTACTO Y DEFORMACIONES DINáMICAS


DISEñO MEDIANTE SIMULACIóN POR ELEMENTOS FINITOS: MECáNICA DE CONTACTO Y DEFORMACIONES DINáMICAS

Arredondo Fernández Mario Ricardo, Universidad Autónoma de Baja California. Asesor: Dr. David Torres Torres, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las propiedades macroscópicas de los materiales dependen estrechamente de la estructura o arquitectura que adopta la materia a menores escalas. El tamaño y la dimensionalidad del sistema, son parámetros que nos permiten modular las propiedades de los materiales. Actualmente, la atención de la comunidad científica está enfocada en el desarrollo de materiales diseñados a nanoescala, para explorar sus singulares propiedades físicas y químicas, y al mismo tiempo, explotar las múltiples funciones que les distinguen. Especialmente, el desarrollo de nuevos materiales y procesos para fabricar nanoestructuras, es un tema de gran interés en la actualidad, debido a que sus propiedades potencian nuevas tecnologías y es uno de los principales incentivos para el establecimiento de sistemas con propiedades de materiales mejoradas, entre ellas el reforzamiento mecánico, lo cual ha ampliado el estudio de dichas propiedades en diversas aplicaciones. Por otra parte, la respuesta mecánica a pequeña escala es uno de los principales elementos facilitadores para la optimización de los distintos procesos asociados al ciclo de vida de diferentes componentes, desde su producción hasta su consumo, incluso su posible recuperación y repetición del ciclo, donde la caracterización del desempeño mecánico elástico y plástico de los materiales de los que se constituyen así como de sus fallas es un factor clave para el desarrollo de tecnología con mejores capacidades. En este contexto, herramientas como la simulación por elementos finitos ha permitido el desarrollo y un importante despliegue de las nuevas tecnologías, gracias al trabajo multidisciplinario que se puede realizar en muchos tipos de muestras y procesos.



METODOLOGÍA

El desarrollo de este proyecto consistió en simular una nanoindentación de un material compuesto con nanopartículas, por lo cual inicio con la instalación del Software Ansys Student 19.0 Student. Posteriormente se realizó una introducción a ANSYS Mechanical APDL para familiarizarse con el programa. Después se prosiguió con la realización de tutoriales de análisis estáticos y de contactos en APDL al mismo tiempo una breve Introducción de diseño por elementos finitos mediante comandos con el fin de aprovechar al máximo las funciones del Software. Una vez que se comprendió y se obtuvo cierta destreza sobre cómo utilizar ANSYS APDL.  Se continuó con simular geometrías nanométricas comprobando así que sería posible simular la nanoindentación en un material compuesto con nanopartículas dispersas. De tal manera que se simulo la geometría del indentador, sustrato y las nanopartículas. Se utilizaron técnicas de mallado en el modelo para obtener un mejor mallado y así evitar posibles errores en la solución del modelo. Después de tener un prototipo de la simulación se continuo con obtener los datos experimentales. Mediante imágenes de una muestra de SiO2 con nanopartículas de Au obtenidas del SEM, se obtuvo la información de la dispersión de las NPsAu y diámetro de las mismas, utilizando el software de ImageJ. En el laboratorio de Microscopía de Fuerza Atómica y Nanoindentaciónn se obtuvieron los datos experimentales de carga, deformación y módulo de Young de nanoidentación en dos muestras, una de SiO2 y otra de SiO2 con NPsAu. Posteriormente se adecuó la simulación de nanoindentación agregando las propiedades de los materiales, la profundidad de la nanoindentación y radio de las nanopartículas de oro. Con el objetivo de tener las mismas condiciones en la simulación de la experimentación. Una vez ejecutada la simulación con los parámetros de las pruebas experimentales. Se obtuvieron los datos de carga y desplazamiento del experimento de manera computacional mediante la utilización de Ansys Mechanical APDL.  Para validar los resultados obtenidos se realizaron los cálculos analíticos para obtener los datos correspondientes a la carga y deformación. Mediante la utilización del software Microsoft Excel se trazaron las curvas de carga-desplazamiento de los datos recabados de las dos pruebas experimentales, de las simulaciones y los valores obtenidos de manera analítica con el objetivo de realizar una comparación de los resultados. Por lo que se puede validar la simulación dado que las curvas de carga-deformación son muy aproximados a los obtenidos de manera experimental y analítica.


CONCLUSIONES

En este proyecto se demostró mediante simulación que las nanopartículas en el sustrato mejoran un poco la resistencia del material, dado que, de manera experimental y analítica se obtuvieron los mismos comportamientos. Así mismo mediante la simulación se pudo observar cómo se distribuyen los esfuerzos y se comprobó que al tener nanopartículas se reduce las concentraciones de esfuerzos en el sustrato. Por el momento la simulación sólo fue posible realizar dentro del límite elástico de las NPsAu, debido a que no se cuenta con una base de datos que contengan la información correspondiente a la plasticidad de las nanopartículas. Otra de las limitaciones fue el número de partículas que se pudieron agregar. Por lo cual se seguirá trabajando para poder realizar las simulaciones lo más cercano a la realidad.
Arredondo Lopez Sonia Guadalupe, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL


LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL

Arredondo Lopez Sonia Guadalupe, Universidad Politécnica del Mar y la Sierra. González Mena Sonia, Tecnológico de Estudios Superiores de Jocotitlán. Vizcarra Meraz Maricela, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El abastecimiento de productos agrícolas al mercado somete a los productores a incertidumbre por el posible decremento en el suministro de los mismos para exportación al no cubrir la demanda de los mismos, lo que ha llevado a los agricultores a buscar alternativas que permitan mantener sus cosechas aseguradas lo que obliga a los productores a buscar técnicas para monitoreo de las áreas agrícolas de una manera automatizada evitando un desgaste en los recursos La problemática que se presenta es recuperar la lectura de los tensiómetros agrícolas en las áreas de cultivo y validar la recolección de los de los datos, por lo que durante la estancia del verano de la investigación científica y tecnológica se trabaja en la automatización del trabajo agrícola en la recolección de datos revelados por los tensiómetros agrícolas implicando la seguridad y fiabilidad de los mismos, para evitar desvío en la información provocando alteraciones en la producción agraria. Los tensiómetros agrícolas son ubicados estratégicamente en ciertos puntos del área de cultivo, dependiendo de análisis de especialistas del tema; la recolección de los valores  que se proyectan debe ser realizada de manera periódica, es decir se debe realizar un recorrido diario por los terrenos de cultivo para obtener los datos revelados.



METODOLOGÍA

La metodología que se lleva a cabo es de tipo exploratorio al desarrollar un sistema único en su tipo, se deduce que hasta el momento no se han encontrado sistemas similares con la funcionalidad requerida por lo que este se elabora  de manera propia con conocimientos del equipo de trabajo, implementando un método de prototipos el cual se basa en realizar el sistema de manera experimental para obtener un modelo preliminar con funcionalidad antes de llegar al sistema final. Sinaloa es uno de los principales estados productores de hortalizas que abastecen la demanda en el país, la administración de las hectáreas productivas se debe llevar de una manera organizada y precisa para un correcto proceso y llegar a un producto satisfactoria que cumplan con los estándares de calidad solicitados por el mercado, algunos productores de la región han adoptado una herramienta que permite recuperar datos sobre la humedad de las tierras de cultivo: tensiómetros agrícolas, instrumentos que funcionan como una raíz artificial que miden la cantidad de agua retenida por el mismo, arrojando estos valores en el vacuometro, parte del mismo instrumento con un rango de valor de 0 a 100, su unidad de medida son los centíbares el material de fabricación y el modelo que se aplica varia y son usados según la preferencia del productor. La recuperación de los valores proyectados por los tensiómetros se realizara de una manera más confiable que proporcione directamente los valores a una Base de Datos sin intervención de terceros, ya que esta información puede estar expuesta en cierta parte a alteraciones o desvió de la misma, por lo que es conveniente implementar un sistema que facilite la recuperación de los datos; para los productores es muy importante asegurarse que la información que se les proporcione sea verídica; los datos que se recuperan son analizados por asesores del productor que se especializan en la producción y si los datos que se les proporcionan no son en su totalidad verídicos estos se pueden enfrentar a situaciones. Elota municipio del Estado de Sinaloa cuenta con extensas áreas de producción agrícola, por lo que la UPMyS  se involucra en el  desarrollo del sistema destinado para uno de los principales productores agrícolas de la región. Se realiza un sistema con apoyo de las tecnologías que permita administrar y recuperar los valores que arrojan los tensiómetros, desarrollando así una aplicación móvil para el sistema operativo Android con una interfaz entendible para el usuario. La Aplicación que se desarrolla se conecta a una Base de Datos que contempla los tensiómetros agrícolas y su correspondiente identificar de cada uno, proporcionándole a este un código QR único para cada uno. El encargado de recuperar los datos de los tensiómetros realizará su recorrido de forma normal, con la aplicación ya terminada e implementada, ejecutará un escaneo de Código QR del tensiómetro y la interfaz le permite capturar el valor que se muestra en el vacúometro al finalizar con la confirmación de captura de los datos inmediatamente se enviará a la Base de Datos en la cual los especialistas en el análisis de los datos tomaran las decisiones más convenientes para los cultivos.


CONCLUSIONES

El sistema de la Aplicación Móvil ya cumple con la funcionalidad solicitada, cumpliendo con las primeras cinco etapas de desarrollo del software ,encontrando el proyecto en la etapa de implementación limitándose aun en la misma  ya que los las tierras de cultivo aún no están preparadas para la siembra y por consiguiente el funcionamiento de los tensiómetros agrícolas, actualmente la pausa que se realiza se destina para afinar la aplicación de algunos detalles respecto a la interfaz gráfica mejorada y más agradable para el usuario, cabe decir que aún se le pueden implementar más funcionalidades al sistema destinado a la aplicación agrícola siendo útil para los productores agrícolas que quieren mantenerse informados de sus cultivos.
Arredondo Palafox Beatriz Adriana, Instituto Tecnológico Superior de Guanajuato
Asesor: Ing. Daniel Martinez Rodriguez, Instituto Tecnológico Superior de Guanajuato

GUíA DEL ESTUDIANTE PARA EL ESTUDIANTE. LAS 7 HERRAMIENTAS BáSICAS DE LA CALIDAD


GUíA DEL ESTUDIANTE PARA EL ESTUDIANTE. LAS 7 HERRAMIENTAS BáSICAS DE LA CALIDAD

Arredondo Palafox Beatriz Adriana, Instituto Tecnológico Superior de Guanajuato. Diaz Olmos Daniela Alejandra, Instituto Tecnológico Superior de Guanajuato. Asesor: Ing. Daniel Martinez Rodriguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de los puntos mas importantes en el control de calidad es el control basado en hechos reales y no en la experiencia, el sentido común y la audacia. Para poder asegurar nuestra calidad y la satisfacción del cliente, es necesario identificar las variables que determinan la calidad del proceso o características de calidad y luego determinar el estado de dichas variables a través de datos. La calidad es una herramienta básica para el desarrollo de los procesos y juega uno de los roles importantes dentro de la industria en el desarrollo, diseño, elaboración y mantenimiento de los procesos, servicios, productos, etc., para que sea el más económico, el más útil y siempre satisfactorio para el consumidor. Es un factor imprescindible en el desarrollo del perfil y formación profesional del Ingeniero industrial, es así, que es de vital importancia brindarle al estudiante las herramientas necesarias para su integración y desarrollo en el entorno que le aguarda como ingeniero industrial, siendo una de estas las siete herramientas básicas de la calidad, que son un conjunto de técnicas gráficas de gran utilidad para identificar problemas específicos, por lo tanto, es importante plantear una guía de estas técnicas que le permita al estudiante reforzar los conocimientos aprendidos para obtener una mejor compresión, desarrollo y aplicación. Es importante mencionar los objetivos del presente proyecto. Objetivos: • Reforzar los conocimientos del alumno para que comprenda, desarrolle y aplique las herramientas básicas de calidad, • Familiarizar al alumno en el uso de software estadísticos y aprendan a usarlo para un mejor aprovechamiento. La realización de los ejercicios en un software amplia mucho los conocimientos del alumno fundamentando la base de las herramientas básicas de la calidad y propicia a los estudiantes la oportunidad de validar la necesidad del desarrollo de mejores competencias. Las siete herramientas básicas de la calidad permite analizar problemas atinentes de la calidad y como su nombre lo dice consta de siete técnicas gráficas las cual son, Estratificación, Hoja de Verificación, Histograma, Diagrama de Pareto, Diagrama de Dispersión, Diagrama de Ishikawa y Gráficos de control, cada una de ellos te permite analizar y solucionar problemas y aunque no es necesario utilizarlas todas en solo problema, al menos tres de ellas te generaran una análisis y visión completa del problema. Así que la guía brinda: • Conceptos de las herramientas • Ejercicios Resueltos a mano paso a paso, • Ejercicios elaborados en Minitab (Software) paso a paso.



METODOLOGÍA

Se desarrollo una guía de ejercicios de las siete herramientas básicas de la calidad, donde se explica paso a paso cada uno de ellos y como interpretarlos. su punto principal de la guía es que el alumno comprenda los resultados de cada herramienta y aprecie el comportamiento del análisis que está realizando, en la guía también se implementó como primer punto la base teórica de cada uno de los aspectos de las herramientas para que el alumno conozca de mejor forma las técnicas y como segundo punto se desarrolló y solucionaron los ejercicios para cada técnica. Estas técnicas permiten la comprensión del comportamiento de las problemáticas analizadas accediendo a llevar mejoras en el estudio, los estudiantes serán capaces de analizar y aplicar mejoras en los procesos que se llevan a cabo en cualquier centro de trabajo.  


CONCLUSIONES

Se desarrollo una guía de ejercicios de las siete herramientas básicas de la calidad, donde se explica paso a paso cada uno de ellos y como interpretarlos. su punto principal de la guía es que el alumno comprenda los resultados de cada herramienta y aprecie el comportamiento del análisis que está realizando, en la guía también se implementó como primer punto la base teórica de cada uno de los aspectos de las herramientas para que el alumno conozca de mejor forma las técnicas y como segundo punto se desarrolló y solucionaron los ejercicios para cada técnica. Estas técnicas permiten la comprensión del comportamiento de las problemáticas analizadas accediendo a llevar mejoras en el estudio, los estudiantes serán capaces de analizar y aplicar mejoras en los procesos que se llevan a cabo en cualquier centro de trabajo.  
Arriaga Lopez Erick Fernando, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.


EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.

Arriaga Lopez Erick Fernando, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Castillo Andres, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Palomares Jose Luis, Instituto Tecnológico Superior de Ciudad Hidalgo. Torres Sánchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La beneficiadora de hule Fénix cuenta con un personal, de 35 personas para el desarrollo de su producción diaria, los cuales cuentan con algunas deficiencias en la aplicación del uso del equipo de protección personal, ya que no hay una evaluación de riesgos periódicamente. Por ello cabe mencionar que es muy fácil de detectar que la empresa no desarrolla ninguna actividad que mida los riesgos que causa el trabajo que lleva acabo cada uno de los trabajadores en su estación de trabajo, por lo que se puede decir que los trabajadores no cuentan con la disciplina necesaria para hacer uso del equipo de protección personal. En el aspecto de las áreas de trabajo en la parte de la recepción de la materia prima hay mucha agua dispersa en el suelo donde también en esa área no existe ningún tipo de señalamiento o sistema de secado para el suelo ya que al no contar con esto puede ocasionar accidentes en esa área determinada. En el área de enjuagado se detecta que existe una persona que opera al extremo superior de una escalera a una altura considerablemente como un factor de riesgo que no cuenta con señalamientos y de ningún tipo de instrucciones para mantenerse en esa área para no ocasionar algún accidente o lesión para el operario. Dentro del área de corte se encuentra que la persona que está encargada de realizar esta operación no cuenta con el equipo de protección personal adecuado para realizar su trabajo, así mismo el área donde realiza el corte está sucia y resbalosa, estos factores de riesgo y seguridad pueden ocasionar daños a la salud del trabajador.



METODOLOGÍA

Como primer punto de la metodología para abordar la problemática planteada, se presento un diagnóstico de la situación actual de la higiene y seguridad industrial en los puestos de trabajo en la purificadora del hule granulado HEM 20, es decir, se realizo un recorrido para determinar los riesgos y en base a ello elegir y aplicar el instrumento de medición, el cual es el primer objetivo específico del presente proyecto. De esta manera se pretende visualizar y contextualizar de mejor manera el objeto de estudio, para recopilar información relevante y entender el porqué del problema y por medio de esto, asegurar una buena propuesta para implementar y controlar la seguridad de los trabajadores dentro del área de trabajo. La empresa, cuenta con áreas delimitadas para el proceso que se lleva a cabo en el área de producción, las cuales cuentan con trabajadores a cargo de las máquinas que están trabajando de manera activa. Por lo tanto, es de gran importancia mantener la seguridad de los operadores en una meta permanente de cero accidentes. Es por ello que, se desarrollo un  formato de evaluación, donde se dio  a conocer la información obtenida por medio de un recorrido realizado en cada una de las áreas del proceso, la cual describe los factores de riesgo a los que están expuestos dichos trabajadores. Se desarrollo una matriz de evaluación de riesgos para la evaluación de cada área de trabajo basadas en las Normas Oficiales Mexicanas (NOM), donde se evaluo el riesgo al que esta expuestos los trabajadores, asi mismo como el grado de lesion y la probabilidad de qu estos puedan ocurrir. Para la realización del análisis y evaluación de riesgos a base de la metodología de William T. Fine en el cual se calcula el grado de peligrosidad cuya fórmula es: Grado de peligrosidad= (Consecuencias) (Exposición) (Probabilidad) Y JE (justificación económica) = Grado de peligrosidad / (Factor de costo x Grado de corrección) Una vez realizado el análisis y evaluación de riesgos en los puestos de trabajo, basándose en Normas Oficiales Mexicanas STPS, así como en la metodología de Williams T. Fine, se detectaron los factores de riesgos a los que están expuestos en las distintas áreas de trabajo, por lo que con el objetivo de cumplir la meta cero accidentes se hace un proyecto de mejora para la empresa.


CONCLUSIONES

Durante la estancia de este verano de investigacion cientifica  se logró adquirir conocimientos teóricos y practicos sobre el proceso de purificacion de hule natural HM20 ( Hule Mexicano Grado 20), en el cual se pudo detectar una problematica respecto a la higiene y seguridad industrial de la empresa, la cual nos permitio llevar acabo un analsis para la evaluacion de los factores de riesgo a los qu estan expuestos los trabajadores en sus respectivos puestos de trabajo.  Por lo que es de gran importancia mencionar que los resultados obtenidos de las metodologias empleadas en el proceso del proyecto, nos abrio un campo positivo. ya que pudimos dejar en manos una propuesta de mejora para el area ya antes mencionada, la cual se basa en las NOM'S ( Normas Oficiales Mexicas), y la metodologia de Williams T. Fine.
Arrieta Martinez Harumi, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

DISEñO Y CARACTERIZACIóN DE BIOCOMBUSTIBLES TIPO D2 PARA MAQUINARIA PESADA A PARTIR DE BIODIéSEL


DISEñO Y CARACTERIZACIóN DE BIOCOMBUSTIBLES TIPO D2 PARA MAQUINARIA PESADA A PARTIR DE BIODIéSEL

Arrieta Martinez Harumi, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

A pesar del bajo costo de la compra de biodiésel su uso en la vida cotidiana es menor que el diésel proveniente del petróleo. Esto se debe a que la viscosidad del biodiésel no es igual a la del diésel en temperaturas menores a 20°C, en las cuales el biodiésel puede llegar a endurecerse y dañar el funcionamiento del motor. El uso de aditivos o mezclas de biodiésel y diésel mejoran su rendimiento, pero aumentan los costos de su uso. Si se quiere usar biodiésel en mezcla al 100% es necesario tener un motor adaptado para biodiesel que es más costoso que un motor de diésel convencional, sin embargo, el ahorro del costo del biocombustible en la vida cotidiana remunera el gasto. El biodiésel de tipo D2 es el empleado para la maquinaria pesada debido a la mayor viscosidad comparada con la del diésel, esto es necesario para disminuir el desgaste del motor. Disminuir los costos de preparación del biodiésel D2 conlleva a la búsqueda de métodos más viables y en ocasiones amigables con el ambiente.



METODOLOGÍA

Caracterización del aceite vegetal Aceite vegetal comestible comercial: Elaboración de pruebas de índice de acidez de acuerdo con la norma mexicana de alimentos - aceites y grasas vegetales o animales - determinación de ácidos grasos libres - método de prueba nmx-f-101-scfi-2012.      2. Elaboración de biodiésel Se calentó en una parrilla 50 ml del aceite vegetal comestible comercial hasta los 50°C, simultáneamente se calentó 50 ml de metanol con agitación magnética, cuando el metanol alcanzo la temperatura de 50°C se adiciono 0.4 gramos de KOH. Una vez disuelto el KOH, se vertió lentamente el aceite caliente al metanol con agitación. Se mantiene en calentamiento y agitación la mezcla durante dos horas en un intervalo de temperatura de 50°C a 60°C para propiciar la reacción química. Después se dejó enfriar la mezcla y se vertió en un embudo de separación hasta que se distingan las fases. Se recuperó la fase más densa, es decir la fase inferior de color café. Se adicionó 5 ml de agua dentro del embudo de separación y se mezcló suavemente. Se deja reposar hasta que se distinga claramente las fases. Se recupera la primera fase que corresponde a glicerina, la segunda a metanol y la tercera al biodiésel.       3.Caracterización del biodiésel Se preparo una mezcla de 5 ml de hexano con 5 ml de acetato de etilo. Se vertió en un recipiente para cromatografía de placas. Se colocaron las muestras en un papel de silica con la ayuda de un capilar.      4.Generación de biodiésel D2 Se diseño un prototipo para inyectar aire caliente. Este fue elaborado con un cautín para producir calor y se le adapto un cople que sirvió para conectar un compresor de aire.


CONCLUSIONES

De acuerdo con las cromatografías realizadas y pruebas de infrarrojo se puede deducir que el biodiésel generado es parecido a un biodiésel comercial, por lo que se puede argumentar que puede ser utilizado como biocombustible. El prototipo diseñado si inyecta aire caliente pero aun me encuentro realizando las pruebas de inyección de calor para aumentar la viscosidad del biodiésel.
Arroyo Campos Indhira Sayani, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan

LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA


LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA

Aguilar Pacheco Perla Lizbeth, Instituto Tecnológico Superior de Uruapan. Arroyo Campos Indhira Sayani, Instituto Tecnológico Superior de Uruapan. Corona Madrigal José Francisco, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La Tablaroca consiste en una placa de yeso laminado entre dos capas de cartón, el sistema de ensamblado de una tablaroca (muro) consiste en canales de aluminio sirven como base o marcos del sistema; posteriormente la placa de yeso es atornillada en una de las caras del muro sobre las bases y postes metálicos, una vez teniendo una cara del muro se coloca el aislante de fibra de vidrio (colchoneta), finalmente se coloca la otra cara del muro. Este sistema presenta múltiples ventajas, algunas de ellas son: aislante térmico; aislante acústico; ligero, entre otras. Es un sistema con gran demanda en la construcción como muros divisorios. Tal como lo indica la Secretaria de Economía de la República Mexicana, en nuestro país se extraen anualmente 3.6 toneladas de yeso, de las cuales 3.2 toneladas son utilizadas en el ámbito de la construcción, de las cuales se producen aglomerantes y paneles de yeso. Por tanto, con esta investigación se busca sustituir la fibra de vidrio (colchoneta) por fibras naturales (fibra de hoja de pino) integrado en las láminas de yeso, ya que si la fibra de vidrio se encuentra en perfecto estado no representa riesgos para la salud; pero cuando su integridad se ve perturbada por la humedad o algún agente externo que deteriore su estructura, las fibras de vidrio se fraccionan en pequeñas partículas y este desprendimiento provoca una contaminación al ambiente, es decir se mantienen en suspensión por un periodo prolongado causando irritación en los ojos, molestias de irritación del tracto respiratorio superior (nariz, boca y garganta) entre otras, a diferencia de las fibras naturales (fibra de hoja de pino) puesto que este material es biodegradable y así mismo evitar posibles daños de salud, pero sin dejar de lado las ventajas de un muro de tablaroca.



METODOLOGÍA

Se realizaron 9 muestras en moldes hechos en bases de madera de 30.5 cm x 30.5 cm con un espesor de ½, se utiliza como desmoldante aceite para motor para que la extracción de las muestras sea más sencilla y evitar que estás sufran algún daño y además para que los moldes puedan ser reutilizados. Se requiere cortar las fibras de hoja de pino (huinomu)  a 2 de largo. Las mezclas se dosificaron con distintos porcentajes de fibras al  2%, 3% y 5% en yeso con un porcentaje de agua al 75%;  . Una vez hecha la mezcla de los materiales se vierte en el molde se le da un acabado lo más posible liso y se lleva a un lugar seco donde se dejará fraguar, posteriormente se curarán estas muestras. Las muestras cumplirán el tiempo necesario después de 26 días esto con el fin de alcanzar su máxima resistencia.   Ya terminadas las muestras, se corta una parte de una Tablaroca con las mismas dimensiones de estás y son llevadas al laboratorio para realizar las pruebas térmicas, después de esta prueba de deben cortar las muestras y el fragmento de Tablaroca en círculos de distintos diámetros para realizar la prueba de sonoridad.


CONCLUSIONES

Se puede concluir que las muestras hechas durante la estancia superaron las expectativas esperadas; pues nuestras muestras superaron el porcentaje óptimo de conductividad térmica de 0.13 variando de 0.15 a 0.18, sin embargo estas resultaron ser más pesadas, por tanto se mejoró la mezcla agregando un material más; baba de nopal esto con el fin de generar burbujas o huecos de aire en las láminas, lamentablemente los resultados no se pueden dar a conocer ya que estas últimas muestras están en proceso de curado.
Arroyo Estrada Karla Berenice, Universidad de Guadalajara
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNING PARA EL ENTRENAMIENTO DE AGENTES VIRTUALES


EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNING PARA EL ENTRENAMIENTO DE AGENTES VIRTUALES

Arroyo Estrada Karla Berenice, Universidad de Guadalajara. Godoy Lomelí Brian Gibran, Universidad de Guadalajara. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje profundo o DRL por sus siglas en ingles es uno de los temas más revolucionarios en nuestra época, que tiene que ver con la inteligencia artificial ya que por medio de este se pueden generar sistemas autónomos, que ayuden a solucionar problemas con los cuales la sociedad interactúa diariamente, por lo que abre a muchas nuevas aplicaciones en dominios tales como cuidado de la salud, robótica, redes inteligentes, finanzas entre otras. El funcionamiento de los algoritmos en base a este concepto es mediante un sistema multiagente el cual lleva a el código a un aumento de recompensa o al éxito de la tarea. Siendo este un indicador útil, pero proporciona solo una medida aproximada de las habilidades de comunicación aprendidas del agente. Así mismo Joelle Pineau profesora de la universidad McGill nos habla que, aun cuando se han creado varios algoritmos alrededor del mundo, en países como Estados Unidos y China, donde se generan cientos de artículos con base en este concepto de DRL son muy pocos los que funcionan correctamente. Ya que, aunque estos tengan la misma finalidad los datos que se obtienen diferencian mucho entre si dado a que se construyen sin una buena metodología. Dándonos así nuestra mayor problemática que es la falta de documentos que muestren una buena metodología y los pasos a seguir para la obtención de buenos resultados y código que sea posible ejecutar. Algo que cabe recalcar es que en México no se ha explorado lo suficiente este tema de investigación y, sin embargo, es un campo de investigación que tiene un gran potencial en el futuro de las industrias.



METODOLOGÍA

Para poder trabajar de manera más optima se tuvieron que plantear conceptos previos los cuales son necesarios al momento de adentrarnos a lo que fue el DRL, algunos de estos fueron explicados por nuestro investigador mientras que algunos otros estaban aclarados mediante la lectura de documentos que este mismo nos proporcionaba. Para poder comenzar a programar se utilizó un equipo de computación con sistema operativo Windows 10. Se instaló Anaconda® como ambiente de trabajo; junto con este paquete, se incluyó Python 3.7. Dentro de Anaconda® Navigator, se empleó Jupyter Notebook para comenzar el dominio del lenguaje Python. Dado que no todos conocíamos completamente el funcionamiento de este programa fue necesario tomar un curso introductorio a el ambiente de programación de Python organizado por el Instituto Tecnológico de Massachusetts (MIT) el cual abarcó temas básicos hasta los temas más avanzados mediante una serie de ejercicios en Jupyter y Spyder siendo útiles para poder generar la sintaxis correcta al momento de escribir código. Por consiguiente, se entrenó un modelo con MNIST la cual es una base de datos con números escritos con diferente caligrafía. Cuyo funcionamiento consiste en identificación de cualquier número del 0 al 9 que se está escribiendo, y calcular el promedio de exactitud del programa. Para indicar a que grupo pertenecía el valor introducido utilizando RandomForestClassifier. Una vez concluido el código, se implementó Deep Learning con la red neuronal convolucional (CNN). Se entrenó un modelo, con la misma base de datos de MNIST, pero incluyendo los paquetes de Keras, de red neuronal y posteriormente se guardó para evitar entrenarla cada vez que se ejecutara el código. Cada número ingresado en el programa fue predicho y clasificado con una gran exactitud del 99%. Keras es una API de redes neuronales de alto nivel, escrita en Python y es capaz de ejecutarse sobre TensorFlow. Para continuar con el curso entramos a la parte de aprendizaje por refuerzo profundo mediante una serie de actividades de la universidad de Berkeley California en donde se aprendieron conceptos nuevos como la función Q, la implementación del policy gradient y el entrenamiento de un algoritmo con recompensa. Con los códigos proporcionados en el mismo se ejecutaron en Python los códigos para comparar diversas políticas; esto refiere a que un agente tiene la oportunidad de escoger una acción de todas las historias posibles en un entorno virtual. Durante la primera asignación, el agente tiene una enseñanza por imitación. Se compara Behavioral Cloning y DAgger, esto con la finalidad de observar el crecimiento de aprendizaje y definir qué código es óptimo para el intermediario. Relacionando los dos códigos, se encontró que DAgger es un mejor código de implementación. Sus ventajas son que tiene un aprendizaje elevado con cada iteración, sin embargo, el tiempo de ejecución del programa es un poco más lento. En la segunda tarea, se desarrollaron políticas gradientes que ayudaron al agente en su toma de decisiones. Para reducir la varianza del gradiente de la política fue sumar las recompensas de la función Q, mejor conocido como reward-to-go. Por último, en la tercera actividad se entrenó el videojuego de Atari, Pong, con Deep Q-Network con la finalidad de observar el aprendizaje del agente virtual. Al finalizar, se graficaron los pasos por los que interactuó el juego teniendo como finalidad evaluar aprendizaje de la convolución de redes neuronales. También, se entrenó un agente para escalar una montaña y se ingresaron diferentes parámetros para conseguir un buen resultado.


CONCLUSIONES

Por medio de la estancia de investigación de verano delfín pudimos adquirir conocimientos teóricos relacionados a Machine Learning, Deep Learning y Deep Reinforcement Learning que nos ayudaron a comprender el entorno de programación como es que están estructurados los diferentes algoritmos, cuáles son sus principios de funcionamiento, la lógica de su ejecución y las ecuaciones fundamentales que hacen posible que el código pueda ir aprendiendo con una relación de entrada, salida y recompensa. Dejándonos así las bases del Deep Reinforcement Learning e incentivándonos a adentrarnos más a esta área de la Inteligencia Artificial en la cual aún faltan muchos aspectos por descubrir ya que es un área bastante amplia y revolucionaria que se puede implementar con múltiples finalidades.
Arroyo Rodríguez Andrea, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

MODELADO Y SIMULACIÓN DEL PROCESO DE FABRICACIÓN DE PUERTAS DE ACERO PARA SU OPTIMIZACIÓN MEDIANTE EL SOFTWARE DELMIA QUEST®


MODELADO Y SIMULACIÓN DEL PROCESO DE FABRICACIÓN DE PUERTAS DE ACERO PARA SU OPTIMIZACIÓN MEDIANTE EL SOFTWARE DELMIA QUEST®

Arroyo Rodríguez Andrea, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad es de suma importancia para todas las empresas que deseen permanecer activas en el mercado, implementar sistemas de producción más eficientes y eficaces que les permitan cumplir con estándares de calidad, cantidades de producción y tiempos de entrega adecuados, debido a la inmensa competitividad presente. Para el mejoramiento de estos procesos de fabricación, pueden existir diversas alternativas posibles, en este caso, la simulación se emplea como una herramienta que permite representar el proceso de fabricación real de la empresa, mediante un conjunto de elementos gráficos y lógicos, a lo que se denomina modelo de simulación. El cual permite analizar detalladamente el comportamiento del proceso de fabricación original y manipularlo realizando experimentos, para poder evaluar cada una de las alternativas de mejora y observar la reacción del sistema original con cada una de ellas, antes de ser implementadas. En este proyecto de investigación se trata el caso de una empresa de manufactura de partes metálicas, en específico de puertas de acero que se enfrenta constantemente a problemáticas de riesgo derivadas de inconsistencias y deficiencias presentes en su proceso de producción, causantes de su principal problema que es la entrega tardía de sus órdenes a los clientes, poniendo en riesgo la fidelidad de sus compradores al mostrarse insatisfechos con el rendimiento de la empresa, situación preocupante. Se trata de una empresa mexicana con un sistema de producción por lotes. En base a esto, se plantea el proyecto con la intención de lograr una reducción significativa de los tiempos de producción de la empresa, mejorar la competitividad de la misma y contribuir al incremento de la satisfacción de sus clientes. Se desea evitar la entrega tardía de sus pedidos, mediante una mejor programación de la producción y la optimización de la utilización de sus recursos. Con la intención de generar una propuesta de mejoramiento para la empresa, se empleará la simulación, modelando las líneas de manufactura implicadas, generando resultados para la toma de decisiones y poder seleccionar el mejor escenario para mejorar el parámetro del tiempo, sin necesidad de realizar grandes inversiones.



METODOLOGÍA

Se comenzó la investigación con una breve introducción a la simulación, una vez adquiridos los conocimientos básicos sobre simulación, se procedió a conocer el software de simulación industrial a utilizar, el DELMIA QUEST® una herramienta de última generación de aplicación especialmente industrial, con la intención de identificar su entorno y lograr dominar el lenguaje de simulación que maneja la plataforma. La estancia de investigación comenzó con un curso exhaustivo sobre el manejo del software de simulación y la comprensión de su funcionamiento, ejecutando a manera de práctica modelos de simulación pequeños que debían ser verificados. Para continuar con el proyecto de investigación, se planteó la utilización del software para el modelado de una planta industrial completa, comenzando con el entendimiento del sistema y sus procesos implicados, para esto, previamente el investigador proporcionó datos del proceso de fabricación. Continuando con la construcción del modelo representativo en el software (building), se comenzó con la identificación de las principales entidades del sistema y sus atributos característicos, seguido, la representación de las reglas que gobiernan el sistema a simular. Una vez construido el modelado del sistema representando cada una de las áreas de la empresa, se efectuó la verificación de su funcionamiento, mediante la adaptación y corrida del modelo buscando obtener un lote de productos de cantidad aleatoria que en este caso fueron 510, simulando este procedimiento 30 veces buscando obtener una muestra significativa. Si durante este proceso, el número de piezas era menor que las indicadas, el modelo no se consideraba representativo, de lo contrario se confirmaba la validez del modelo. Después de haber obtenido un modelo de simulación válido, se continuo con el análisis del proceso, buscando oportunidades de mejora e identificando situaciones como colas de entidades, recursos innecesarios, cuellos de botellas, etc. Ya que se detectaron diversas inconsistencias en el proceso de manufactura, se prosiguió a la experimentación en el modelo, efectuando la transformación de las operaciones actuales donde se encontraron las inconsistencias y realizar varias pruebas en el entorno de producción simulado. Particularmente para el proceso de fabricación de una puerta de 9 luces en la empresa, donde se detectaron un conjunto de mejoras que contribuirán a la empresa a la disminución de sus tiempos ciclo de producción, mediante la eliminación de recursos innecesarios y reubicación de recursos humanos que se encuentran en estado ocioso por una gran cantidad de tiempo. Para la comprobación de la efectividad de las mejoras encontradas, se realizó la simulación con semillas aleatorias en el software, la misma cantidad de corridas que en la verificación. Realizando la comparación de los tiempos obtenidos anteriormente y los arrojados con las mejoras. 


CONCLUSIONES

Este verano fue un gran fuerte de aprendizaje, generando conocimientos de simulación en un software de última generación con aplicación industrial como lo es el Delmia Quest®. Con el modelo de simulación desarrollado, fue posible la representación valida del proceso de fabricación de puertas de acero de 9 luces, conforme a la estructura y comportamiento del sistema real. Pudimos implementar actualizaciones en el modelo de simulación y realizar las modificaciones propuestas, obteniendo secuencias de trabajo más adecuadas y reducir el tiempo de ciclo durante el proceso de fabricación. Es indudable que hoy por hoy la simulación está demostrando su efectividad para resolver problemas. Estas actividades de simulación permiten a las empresas abordar y cambiar sus procesos de mejor forma para reaccionar rápidamente ante la competencia y beneficiarse de las nuevas oportunidades del mercado.
Arteaga Landin Elsa Guadalupe, Universidad de Colima
Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro

ANáLISIS DE LAS VARIABLES METEOROLóGICAS DE HURACANES QUE HAN IMPACTADO EN LAS COSTAS DEL PACíFICO MEXICANO, POR MEDIO DE REDES NEURONALES


ANáLISIS DE LAS VARIABLES METEOROLóGICAS DE HURACANES QUE HAN IMPACTADO EN LAS COSTAS DEL PACíFICO MEXICANO, POR MEDIO DE REDES NEURONALES

Arteaga Landin Elsa Guadalupe, Universidad de Colima. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Las costas del Pacífico mexicano son una de las zonas en donde es más probable que se formen ciclones tropicales en el mundo, provocando graves daños a la infraestructura y a la población en general, debido a los fuertes vientos, lluvias intensas, desbordamientos de ríos, inundaciones y deslaves en laderas. Por esta razón, es importante analizar los datos que registran las Estaciones Meteorológicas Automáticas (EMA), éstas son dispositivos que hacen mediciones de variables como velocidad y dirección de viento, presión barométrica, temperatura, humedad relativa, radiación solar y precipitación. La zona de estudio de los huracanes se delimitó a los estados de Jalisco, Colima, Michoacán, Guerrero y Oaxaca. El objetivo del proyecto es lograr la mejor simulación posible de diferentes huracanes que han impactado en la zona de estudio a través de la técnica de las Redes Neuronales y poder aplicar los resultados obtenidos a las zonas urbanas de dicha área en las regiones que presentan más vulnerabilidad ante este tipo de fenómenos de acuerdo a los Atlas Municipales de Riesgo. Para comparar los resultados con los mapas de riesgo se ha elegido la zona urbana de Manzanillo, en el estado de Colima.



METODOLOGÍA

En el proyecto de investigación se analizaron variables meteorológicas con los registros obtenidos de las EMAs ubicadas en los estados de la zona de estudio. Además se utilizaron datos estadísticos (media, desviación estándar y coeficiente de asimetría) del nivel digital en pixeles de las Imágenes Satelitales Digitales (ISD) de las fechas en que duraron los huracanes Beatriz (2011), Jova (2011) y Patricia (2015). Se eligieron EMAs ubicadas en los estados costeros que se mencionaron anteriormente que presentaran datos completos y registros de tormentas en las fechas en que duraron los huracanes elegidos. Los datos que proporcionan las EMAs y las ISD fueron ordenados y normalizados para poder crear las matrices con las que se formaron las Redes Neuronales. Para el análisis de las variables meteorológicas por medio de Redes Neuronales Artificiales (ANN), se empleó la herramienta nntool del software MatLab. Al crear una red neuronal se necesitan datos de entrada, datos de salida u objetivo y datos para la simulación, el análisis se realiza con diferentes funciones de transferencia, en este caso fueron las funciones logsig, tansig y purelin. La red neuronal requiere del 80% de una serie de datos para realizar el entrenamiento y el proceso de aprendizaje, el 20% de los datos restantes se usa para realizar la simulación y poder comparar los datos de salida con los datos del registro histórico. En el caso del proyecto se introdujeron los datos de dirección y velocidad del viento, temperatura, humedad relativa, radiación solar y los datos estadísticos de las ISD como datos de entrada; mientras que, como un primer intento de simulación, se eligieron los datos de presión barométrica y precipitación como variables de salida. Fue necesario crear diferentes combinaciones de Redes Neuronales, ya sea aumentando o disminuyendo el número capas y el número de neuronas en cada una de ellas, modificando las funciones de transferencia o eliminando variables del vector de entrada, con el fin de encontrar la combinación que mejor ajuste a la serie de datos creada con los registros de las EMAs. Para cada Red Neuronal fue necesario comparar los datos del registro histórico con los datos que generó la simulación en MatLab graficando las dos series, con la idea de que la gráfica de los datos simulados se parezca lo más posible a la de los datos registrados; logrando así una buena simulación del fenómeno que se quiere reproducir. Por otro lado, se tiene que verificar que el valor de la regresión dentro de las gráficas que genera el software se acerque lo más posible a 1, así como evitar que exista tanta dispersión de los datos respecto a la línea inclinada de referencia. De esta manera, la ANN que proporcione un mayor valor de regresión y que sus gráficas tengan la mayor similitud en cuanto a la forma, será la que se considera como el mejor resultado para la simulación del huracán.


CONCLUSIONES

En la realización de las ANN del huracán Patricia se tomó el registro de las estaciones Chapala, Nevado de Colima, Apatzingán, Uruapan, Atoyac, Las Vigas, Petacalco, Zihuatanejo y Laguna Chacahua, con un total de 763 datos para cada variable. Se realizaron 7 combinaciones diferentes para las ANN. Con estas combinaciones, la Red Neuronal que generó mejores resultados fue la ANN1 (Capa 1 con 12 neuronas y función tansig, Capa 2 con 12 neuronas y función tansig, Capa 3 con función purelin) con una regresión de 0.88663 y una gráfica con resultados ligeramente parecidos a la de los datos registrados. Es importante destacar que la red ANN7 (Capa 1 con 12 neuronas y función tansig, Capa 2 con 12 neuronas y función tansig, Capa 3 con 12 neuronas y función tansig, Capa 4 con función purelin) fue la que generó la gráfica más parecida en cuanto a la forma de los datos históricos para la variable de precipitación. Esta red neuronal tiene una regresión de 0.88638, que no varía tanto respecto a la regresión de la red ANN1, sin embargo la forma de la gráfica para la variable de presión barométrica no es tan similar a los datos registrados por la EMA. Considerando estos datos se puede observar que la función de transferencia tansig es la que mejor ajusta a la serie de datos del huracán Patricia. Sin embargo, se considera que los resultados aún pueden mejorar realizando cambios a los datos del vector de entrada. Por otro lado, será necesario realizar procedimientos extra para poder aplicar los resultados al municipio de Manzanillo en Colima, debido a que en el estado no se cuenta con EMAs. Sin embargo, ya se tiene una buena referencia de cuáles son los ajustes que se deben realizar en las Redes Neuronales para obtener mejores resultados.
Arteaga Nieto Daniel, Universidad Politécnica de Texcoco
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO


ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO

Arteaga Nieto Daniel, Universidad Politécnica de Texcoco. Castro Gameros David, Universidad Autónoma de Ciudad Juárez. Ortega Contreras Karen Rubi, Universidad Politécnica de Texcoco. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La pregunta de investigación es la siguiente: ¿Cuál es aquella necesidad de la sociedad que se puede suplir con tecnología de bajo costo y cómo hacerlo? En la actualidad la creación de políticas públicas que contribuyan a mejorar la calidad de vida de los habitantes de las urbes metropolitanas se ha visto sesgada por la injerencia que los contaminantes ambientales tienen en la salud de los habitantes. Para proponer las medidas necesarias de precaución es necesario contar con la evidencia científica que respalde las decisiones del estado. La ciudad de Cali, al igual que muchas ciudades latinoamericanas cuenta con una red de monitoreo de calidad del aire, en específico cuenta con 9 estaciones de monitoreo ambiental, las cuales tienen distintos sensores que miden la concentración de partículas PM10 y PM2.5, Ozono Troposférico (O3), Dióxido de Azufre (SO2) y Óxido de Nitrógeno (NOx). Sin embargo, todas las estaciones adolecen de, al menos, dos sensores de los 5 requeridos por la OMS. Objetivo General: Suplir la necesidad de capturar información sobre los indicadores que determinan la calidad del aire que permiten la creación de políticas públicas sustentadas en evidencia científica en ciudades que adolezcan de la tecnología necesaria para hacerlo. Es necesario aclarar los objetivos específicos de esta investigación: Construir una estación de monitoreo de calidad del aire con sensores de bajo costo. Montar la estación de monitoreo en un dron que permita su movilidad aérea. Medir la concentración de 4 contaminantes del aire y 2 parámetros físicos: O3, CO, material particulado, H2, y temperatura y humedad. Transmitir la señal medida a un display en que el usuario pueda tener acceso a los datos de los parámetros ya decodificados. 



METODOLOGÍA

Para dar cumplimiento a los objetivos específicos de la investigación se plantea la siguiente metodología específica para cada uno de ellos. Por medio del uso del equipo y material concesionado por el investigador el M.C. Andrés Garzón Valencia se llevó a cabo la construcción de la estación; de manera inicial se construyó en un Protoboard utilizando equipo electrónico de uso didáctico. En primer lugar, se llevó a cabo el inventariado del equipo; se investigó el funcionamiento, por medio de la consulta de sus hojas de datos, de cada uno de los sensores a ser utilizados en la construcción de la estación; se comprobó su funcionamiento en lo individual por medio de su conexión en un Protoboard y una computadora que permita la comunicación entre el microcontrolador y el programador. Una vez comprobado el funcionamiento de los sensores, todos fueron integrados en un mismo circuito que tiene cómo microcontrolador un Arduino UNO, el cual fue programado para recibir la señal transmitida por los sensores y decodificarla para ser leída por el usuario en un display.


CONCLUSIONES

Resultados parciales: Fue posible construir la estación de monitoreo utilizando el microcontrolador Arduino y cuatro sensores, el MQ-7 de CO, el AM2301 de Temperatura y Humedad, el MQ-8 de H2 y el MQ-131 de O3. De los sensores utilizados se obtuvieron sus lecturas, siendo incapaces de calibrarlos, puesto que es necesario hacerlo bajo condiciones físicas y químicas a las que no se tenía acceso. Sin embargo, se confirma que los sensores funcionan de manera correcta y demuestran una alteración en sus señales cuando son expuestos a distintas concentraciones de contaminantes de la manera esperada. Su montura en el dron no fue posible, puesto que fue necesario utilizar un dispositivo de comunicación inalámbrica al que no se tenía acceso por limitante en presupuesto, pero mediante literatura y experiencias en otros proyectos, se conoce que habría sido posible comunicarse, con toda fiabilidad, con la estación de monitoreo montada en el dron y recibir su señal en tiempo real. Conclusiones: Se concluye que es posible construir una estación de monitoreo de la calidad del aire que pueda ser montada en un dron. La tecnología existe y existe el marco tecnológico y empírico que permite su desarrollo. No es una tarea sencilla y requiere conocimientos, no sólo electrónicos e informáticos, también químicos, lo cual es muy importante para el desarrollo completo del proyecto. No fue posible concluir este proyecto de manera integral abordando todos los objetivos específicos, pero fue posible conocer qué es lo necesario para concluirlo y se descubrió un área, ya existente, pero con mucho potencial de desarrollo, en que los drones pueden utilizarse para el beneficio de una sociedad.
Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
Arvizu Vega Mariajose, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Avalos Martinez Isaac Andres, Universidad Autónoma de Baja California
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO E IMPLEMENTACIóN DE UNA CALCULADORA PARA DEFINIR LOS PARáMETROS DE MALLADO DE ELEMENTO FINITO EN PROCESOS DE SOLDADURA


DISEñO E IMPLEMENTACIóN DE UNA CALCULADORA PARA DEFINIR LOS PARáMETROS DE MALLADO DE ELEMENTO FINITO EN PROCESOS DE SOLDADURA

Avalos Martinez Isaac Andres, Universidad Autónoma de Baja California. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la industria el realizar cálculos para obtener los parámetros de mallado para soldadura requiere tiempo y esfuerzo del diseñador, debido a que estas pruebas se realizan de manera iterativa a prueba y error de las variables de la energia bruta, la corriente electrica, el voltaje y la velocidad de movimiento mientras se esta soldando, las cuales son complicadas de obtener. Ademas la creacion de reportes por medio de prueba y error es muy tardado. Por lo cual mediante la creacion de una aplicación se puede reducir el tiempo significativamente tanto en los calculos como en los reportes, con una mayor exactitud en los calculos realizados.



METODOLOGÍA

Documentación en Python para poder familiarizar con el software. Realizacion de pruebas iniciales para la comprension de python desde editor de código como Sublime Text. Curso de Python desde YouTube para adentrarme más a lo que son las interfaces y la manera de utilizar la paquetería PyQt5 en Python. Se inicio el desarrollo del algoritmo para la creación de la aplicación. Implementacion para que el usuario pudiera importar archivos CSV a la aplicación con el fin de poder agregarle más parámetros dependiendo el espesor de la placa a soldar. Investigacion acerca de SQlite y su paquetería en Python para crear una base de datos de la aplicación. Implementacion de mejoras en el algoritmo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y de esta manera ponerlos en práctica para el uso del software de Python. De tal manera que se logró finalizar con éxito el proyecto de la aplicación y se espera que se reduzca el tiempo al calcular los parámetros para el mallado de soldadura.
Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

OPTIMIZACIóN DE ALABES NECESARIOS EN EL ESTATOR DE COMPRESOR DE AXIALES PARA EFICIENTAR SU COSTO Y EFICIENCIA.


OPTIMIZACIóN DE ALABES NECESARIOS EN EL ESTATOR DE COMPRESOR DE AXIALES PARA EFICIENTAR SU COSTO Y EFICIENCIA.

Avila Lopez Brian, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Los compresores axiales han tenido gran importancia en la industria trasfiriendo energía al fluido, con el fin de transformarla en energía mecánica. Para ello los compresores llevan una gama de estudio para determinar la forma de los álabes, aumentando la eficiencia del compresor y reduciendo costos, para sus diversas aplicaciones como en la generación de energía, propulsión de aviones, barcos, helicópteros, submarinos y en más maquinaria. Según la revista El Economista; la Industria Aeroespacial en México está en auge, al presentar crecimiento en sus exportaciones de 11% en el 2018 respecto al año previo. Esto nos inclina a hacer investigación acerca de eficientar los costos de producción, y nos permita el incremento de la industria en México. De acuerdo con la Organización de Aviación Civil Internacional, la aviación contribuye en 2% a las emisiones de efecto invernadero a nivel mundial. Somos conscientes que no podemos dejar los aviones convencionales de una manera abrupta, pero si extraer de ellos la mayor eficiencia. Para ello se desarrolla investigaciones buscado la mejora formas en los álabes. Una de las problemáticas es el costo de fabricación de cada álabe. Su forma, material y maquinaria ocupada en su fabricación elevan su costo, por ello el desarrollo de los compresores axiales (parte compresión en un motor de avión) con el menor número posible de alabes con el fin de reducir el costo de producción y aumentado su eficiencia en la industria.



METODOLOGÍA

Se realizó una búsqueda de información de turbomáquinaria con el fin de entender la diferenciación entre una turbina y un compresor, con la información obtenida se analizó los componentes que son parte del compresor de un turborreactor, en específico el perfil aerodinámico de los álabes del estator para determinar su forma. El perfil aerodinámico consiste en la serie NACA-65, que busca la maximización de la sustentación, con una resistencia razonable. Se optó conveniente el uso del perfil NACA 65 410, por la amplia ocupación en trabajos anteriores como ANÁLISIS DE UNA CASCADA DE ÁLABES DE COMPRESOR AXIAL DE LA SERIE NACA-65 MEDIANTE CFD Y COMPARACIÓN CON LA CORRELACIÓN DE LIEBLEIN, Irene Matilde, Sevilla, 2017. El estudio de los perfiles alares se llevó a cabo por medio de una serie de alabes en forma de cascada, para ellos, se obtuvieron las mediciones del área de trabajo del túnel de viento subsónico (TecQuipment - AF 100 subsonic wind tunnel) las cuales se consideraron para el diseño del prototipo de la cascada. El prototipo se diseñó en un software de diseño asistido SolidWorks, contemplando las dimensiones del área de trabajo y la distribución de los ejes con cinco diferentes separaciones (3, 4, 5, 6 y 7 cm de eje a eje). Contemplando 5 álabes para las primeras tres mediciones y 4 alabes para las restantes, dentro de una caja de acrílico con un mecanismo que permita la movilidad de los álabes a ángulo deseado. Durante la construcción de la cascada, se ocupó madera de pino a la cual se le dio la forma del perfil NACA 65 410 por medio de lijado manual con dimensiones de 15cm de cuerda y 26cm de envergadura. Las placas de acrílico ocupadas contaba con un espesor de 2.7mm, con los cortes deseados. Los barrenos contaban con un diámetro de 3/16 in en los respectivos puntos de distribución de los ejes por toda la caja de igual manera en cada respectivo alabes y un barreno extra en la parte lateral izquierda de ½ in donde se sujeta el eje que mide el arrastre. Para determinar el ángulo el cual es presentado ante el túnel de viento se compone por medio de barra de acrílico que desliza los alabes y este se mide con un trasportador colocado en la parte superior del prototipo. Al túnel de viento se montó una balanza de arrastre y elevación (TecQuipment - AFA 2 Basic Lift and Drag Balance), y se verifico la conexión de los tubos pitot. Con el fin de montar la cascada de alabes y realizar las pruebas, siendo las variables, la distancia entre alabe y el ángulo de incidencia. Los datos experimentales se pudo calcular la velocidad de cada caso y asi completar una tabla en Excel, la cual nos permite el análisis de los resultados, y poder determinar la mejor opción. Por último, se empleará simulaciones dinámicas de fluidos computacional (Computational Fluid Dynamics, CFD) utilizando el software Ansys Fluent con las mismas especificaciones al túnel de viento. Los datos que se adquirieron se analizaran y compararan los datos obtenidos con los experimentales y así verificando que combinación tiene una mejor eficiencia de con el menor mayor espacio entre ellos, esto genera un menor número de álabes en la generación de un compresor axial de un turborreactor.


CONCLUSIONES

Durante la estancia en verano adquirí un amplio conocimiento de turbomáquinaria, en especificó, los compresores axiales de turborreactores. Como técnicas y la instrumentación para poder efectuar su estudio, por ejemplo, los túneles de viento y software de simulaciones. Durante la obtención de datos en el túnel de viento no fueron muy precisos, los álabes al ser lijados manualmente no obtuvieron las mismas dimensiones, el túnel de viento se encontraba con una des calibración y la temperatura dentro como fuera del laboratorio, ejercía una presión inversa al túnel de viento, dando lecturas algo imprecisas. Con las simulaciones por CFD se espera obtener una mejor claridad de los datos, y poder hacer la prueba con la cual se dará el menor número de alabes y el ángulo de incidencia. Sin en cambio los datos obtenidos experimentalmente, nos muestran que la separación más óptima entre cada eje de los álabes es de 3 cm lo que da un canal de 1.3 cm entre el extradós y el intradós, con un ángulo de incidencia de 7.5°, ya que muestra un arrastre menor y mayor incremento de presión dinámica. Esto nos servirá a deducir cuantos alabes se necesitan para cada compresor como mínimo para su máximo aprovechamiento.
Avila Lozano María Itzel, Instituto Politécnico Nacional
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Avila Lozano María Itzel, Instituto Politécnico Nacional. Nepomuceno Gomez Rosa Iveth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Peña Guardado Alejandra, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

  Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos. Una vez culminada la investigación, se espera dar respuesta a las siguientes preguntas: ¿Qué importancia tiene diseñar concretos de altas prestaciones con diferentes materiales, como el PET, EPS y ceniza de bagazo de caña? ¿Qué tan factibles son las características mecánicas utilizando adiciones en el concreto y en qué estructuras se recomienda aplicar? ¿Qué impacto ambiental se genera realizando concreto de material orgánico e inorgánico?



METODOLOGÍA

  Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados que se obtuvieron en las pruebas, son interesantes en cuanto a los cilindros que se realizaron con adición de PET, en forma de tiras demostraron ser resistentes a los 14 días obtuvo un 80.33% de su resistencia que equivale a 200.8kg/cm²,el diseño que se tomó como referencia fueron las proporciones para 250kg/cm², los resultados que se muestran refleja el total de su resistencia ya que la mezcla tubo acelerante, por cada kilo de cemento se agregó 23 mm de aditivo, de igual forma se diseñó una viga de PET con proporciones de 250kg/cm², al realizar la prueba a flexión llego a tolerar 32.72kg/cm², estos fueron los concretos mezclados con PET y en cada mezcla se le agrego 2 grs por cada kilo de cemento. En una de las pruebas el agregado grueso fue totalmente sustituido por unicel, con la finalidad de hacer concreto ligero y en este diseño se usaron proporciones para una mezcla de 200kg.cm² y a los 28 días obtuvo una resistencia de 13.69% que equivale a 23.22kg/cm² como se puede notar es diez veces menos resistente que el concreto convencional, con este diseño se realizó una viga que tolero 11.17kg/cm² en prueba a flexión, como el concreto ligero demuestra ser poco apto para uso en compresión se realizaron placas de concreto donde también se sustituyó la grava por unicel que se puede usar para muros, para ello se realizaron pruebas de carga y descarga para flexión, se diseñó con proporciones de 250kg/cm² y al hacer varios ciclos tolera 30kg/cm².  Para el concreto con adición de ceniza resultado de los gabazos de caña, el diseño fue con proporciones de 200kg/cm² y al total de cemento se le agregó el 15% de ceniza y a los 28 días que se ensayó el ultimo espécimen alcanzo un 62.51% de la resistencia que equivale a 125.01kg/cm². Al final se hizo un concreto convencional para hacer una comparación en las placas ligeras y la diferencia de carga que tolera cada una, el diseño fue de 250kg.cm², se apreció que esta es tres veces más resistente que la que contiene polvo de poliestireno expandido (EPS). En cuanto a la mezcla que se elaboró para la realización de block con ceniza de gabazo de caña, la resistencia obtenida no fue la necesaria de acuerdo a la norma NMX-C-441-ONNCCE-2013, ya que esta dice que con respecto a las medidas y peso del  block a elaborar se tiene que obtener una resistencia a la compresión de 35 kg/cm2 y los obtenidos en laboratorio fueron d un promedio 11.8 Kg/cm². Atribuimos estos datos a que no se llevó a cabo a debida granulometría de la ceniza de gabazo de caña.  
Avila Valencia Ana Claudette, Universidad de Sonora
Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara

LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA


LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA

Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo. Avila Valencia Ana Claudette, Universidad de Sonora. Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora. Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El interés por impulsar el desarrollo de las Micro, Pequeñas y Medianas Empresas (MIPYMES), ha sido cada vez mayor en los últimos años, no sólo en México, sino también en casi todos los países desarrollados o en proceso de desarrollo. En los últimos años se ha incrementado la localización industrial en la área metropolitana, principalmente en algunas ramas de punta como la electrónica, automotriz, zapatera y la cibernética, lo que ha impreso un nuevo sello a la estructura productiva y a la fisonomía de los suburbios tapatíos. Jalisco es la cuarta economía más importante de México en base a su contribución del 11.9% al Producto Interno Bruto Nacional (PIB); por sectores de actividad económica, los porcentajes de aportación al PIB estatal en el año 2015 fueron los siguientes: agricultura, ganadería, aprovechamiento forestal, pesca y caza, 6%; las industrias manufactureras aportaron el 23%; el comercio, restaurantes y hoteles, 25%; los servicios financieros e inmobiliarios, 12%, y los servicios educativos y médicos, 8%. (INEGI, 2015). Para impulsar un negocio no sólo se requiere interés, inversión y tiempo, ya que esto no garantiza su permanencia. De acuerdo con una investigación efectuada en el Centro Universitario de la Costa (CUCosta), 75 por ciento de microempresas del sector comercio en Puerto Vallarta no sobreviven los primeros cinco años a partir de su creación. Para México, las PYMES son un eslabón fundamental, indispensable para el crecimiento del país. Contamos con una importante base de Micro, Pequeñas y Medianas empresas, claramente más sólida que muchos otros países del mundo, debemos aprovecharla para hacer de eso una fortaleza que haga competitivo al país, que se convierta en una ventaja real para atraer nuevas inversiones y fortalecer la presencia de productos mexicanos tanto dentro como fuera de nuestra nación.



METODOLOGÍA

La investigación a realizar es una investigación mixta, cualitativa y de campo,  en un primer momento de alcance descriptivo, para soportar la observación, revisión de documentos y aplicación de cuestionarios. La unidad de análisis del proyecto de investigación descrito se enfocará a las microempresas de comercio del municipio de la ciudad de Puerto Vallarta. La recolección de la información se realizará por medio de una muestra probabilística estratificada de forma proporcional, esto es, conforme al giro comercial de la microempresa, proporcional a la cantidad de estas en el registro de licencias y en un periodo determinado, para de forma analítico-sintético se analizarán los indicadores de las empresas del municipio de Puerto Vallarta y dar respuesta a las interrogantes y objetivos de la investigación. Como primera actividad de investigación se realiza la recolección documental o información de soporte de la investigación la cual en parte se desarrolla con el acceso a biblioteca digital de la Universidad de Guadalajara, proporcionada por nuestro investigador, maestro José Luis López, además del acceso a la biblioteca del Centro Universitario de la Costa. Con acceso a un basta base de información gracias a estos recursos, además del sitios en Internet, en donde pudimos expandir la investigación gracias a sitios del INEGI como el DENUE, Secretaría de Economía, etc.


CONCLUSIONES

Las tecnologías de la información y comunicación han sido fundamentales para el desarrollo de las actuales empresas de comercio, no sólo en Puerto Vallarta, sino en el mundo. En la actividad de investigación colaboramos principalmente en el trabajo de recolección y revisión de información, como parte de los aspectos fundamentales de esta y hasta los principios de la realización y desarrollo del instrumento de investigación. Con el trabajo realizado podemos concluir que: Un 75% de las microempresas no duran más de 5 años por falta de conocimientos de las TICs. De acuerdo con un estudio realizado por el INEGI en el año 2014, logramos identificar que hay un total de 4 millones 926 mil 061 pymes en México. (INEGI, 2014). Según la revista expansión, las Pymes generan 81% del empleo en México. Existen 4.2 millones de unidades económicas en México. De ese universo, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), esta publicación fue hecha por la revista Forbes. (INEGI, 2014)   Hemos culminado este proyecto con gran satisfacción. Obtuvimos muy buena atención por el maestro, fue directo, nos explicaba cualquier duda.
Aviles Castillo Andres, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.


EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.

Arriaga Lopez Erick Fernando, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Castillo Andres, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Palomares Jose Luis, Instituto Tecnológico Superior de Ciudad Hidalgo. Torres Sánchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La beneficiadora de hule Fénix cuenta con un personal, de 35 personas para el desarrollo de su producción diaria, los cuales cuentan con algunas deficiencias en la aplicación del uso del equipo de protección personal, ya que no hay una evaluación de riesgos periódicamente. Por ello cabe mencionar que es muy fácil de detectar que la empresa no desarrolla ninguna actividad que mida los riesgos que causa el trabajo que lleva acabo cada uno de los trabajadores en su estación de trabajo, por lo que se puede decir que los trabajadores no cuentan con la disciplina necesaria para hacer uso del equipo de protección personal. En el aspecto de las áreas de trabajo en la parte de la recepción de la materia prima hay mucha agua dispersa en el suelo donde también en esa área no existe ningún tipo de señalamiento o sistema de secado para el suelo ya que al no contar con esto puede ocasionar accidentes en esa área determinada. En el área de enjuagado se detecta que existe una persona que opera al extremo superior de una escalera a una altura considerablemente como un factor de riesgo que no cuenta con señalamientos y de ningún tipo de instrucciones para mantenerse en esa área para no ocasionar algún accidente o lesión para el operario. Dentro del área de corte se encuentra que la persona que está encargada de realizar esta operación no cuenta con el equipo de protección personal adecuado para realizar su trabajo, así mismo el área donde realiza el corte está sucia y resbalosa, estos factores de riesgo y seguridad pueden ocasionar daños a la salud del trabajador.



METODOLOGÍA

Como primer punto de la metodología para abordar la problemática planteada, se presento un diagnóstico de la situación actual de la higiene y seguridad industrial en los puestos de trabajo en la purificadora del hule granulado HEM 20, es decir, se realizo un recorrido para determinar los riesgos y en base a ello elegir y aplicar el instrumento de medición, el cual es el primer objetivo específico del presente proyecto. De esta manera se pretende visualizar y contextualizar de mejor manera el objeto de estudio, para recopilar información relevante y entender el porqué del problema y por medio de esto, asegurar una buena propuesta para implementar y controlar la seguridad de los trabajadores dentro del área de trabajo. La empresa, cuenta con áreas delimitadas para el proceso que se lleva a cabo en el área de producción, las cuales cuentan con trabajadores a cargo de las máquinas que están trabajando de manera activa. Por lo tanto, es de gran importancia mantener la seguridad de los operadores en una meta permanente de cero accidentes. Es por ello que, se desarrollo un  formato de evaluación, donde se dio  a conocer la información obtenida por medio de un recorrido realizado en cada una de las áreas del proceso, la cual describe los factores de riesgo a los que están expuestos dichos trabajadores. Se desarrollo una matriz de evaluación de riesgos para la evaluación de cada área de trabajo basadas en las Normas Oficiales Mexicanas (NOM), donde se evaluo el riesgo al que esta expuestos los trabajadores, asi mismo como el grado de lesion y la probabilidad de qu estos puedan ocurrir. Para la realización del análisis y evaluación de riesgos a base de la metodología de William T. Fine en el cual se calcula el grado de peligrosidad cuya fórmula es: Grado de peligrosidad= (Consecuencias) (Exposición) (Probabilidad) Y JE (justificación económica) = Grado de peligrosidad / (Factor de costo x Grado de corrección) Una vez realizado el análisis y evaluación de riesgos en los puestos de trabajo, basándose en Normas Oficiales Mexicanas STPS, así como en la metodología de Williams T. Fine, se detectaron los factores de riesgos a los que están expuestos en las distintas áreas de trabajo, por lo que con el objetivo de cumplir la meta cero accidentes se hace un proyecto de mejora para la empresa.


CONCLUSIONES

Durante la estancia de este verano de investigacion cientifica  se logró adquirir conocimientos teóricos y practicos sobre el proceso de purificacion de hule natural HM20 ( Hule Mexicano Grado 20), en el cual se pudo detectar una problematica respecto a la higiene y seguridad industrial de la empresa, la cual nos permitio llevar acabo un analsis para la evaluacion de los factores de riesgo a los qu estan expuestos los trabajadores en sus respectivos puestos de trabajo.  Por lo que es de gran importancia mencionar que los resultados obtenidos de las metodologias empleadas en el proceso del proyecto, nos abrio un campo positivo. ya que pudimos dejar en manos una propuesta de mejora para el area ya antes mencionada, la cual se basa en las NOM'S ( Normas Oficiales Mexicas), y la metodologia de Williams T. Fine.
Aviles Palomares Jose Luis, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.


EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.

Arriaga Lopez Erick Fernando, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Castillo Andres, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Palomares Jose Luis, Instituto Tecnológico Superior de Ciudad Hidalgo. Torres Sánchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La beneficiadora de hule Fénix cuenta con un personal, de 35 personas para el desarrollo de su producción diaria, los cuales cuentan con algunas deficiencias en la aplicación del uso del equipo de protección personal, ya que no hay una evaluación de riesgos periódicamente. Por ello cabe mencionar que es muy fácil de detectar que la empresa no desarrolla ninguna actividad que mida los riesgos que causa el trabajo que lleva acabo cada uno de los trabajadores en su estación de trabajo, por lo que se puede decir que los trabajadores no cuentan con la disciplina necesaria para hacer uso del equipo de protección personal. En el aspecto de las áreas de trabajo en la parte de la recepción de la materia prima hay mucha agua dispersa en el suelo donde también en esa área no existe ningún tipo de señalamiento o sistema de secado para el suelo ya que al no contar con esto puede ocasionar accidentes en esa área determinada. En el área de enjuagado se detecta que existe una persona que opera al extremo superior de una escalera a una altura considerablemente como un factor de riesgo que no cuenta con señalamientos y de ningún tipo de instrucciones para mantenerse en esa área para no ocasionar algún accidente o lesión para el operario. Dentro del área de corte se encuentra que la persona que está encargada de realizar esta operación no cuenta con el equipo de protección personal adecuado para realizar su trabajo, así mismo el área donde realiza el corte está sucia y resbalosa, estos factores de riesgo y seguridad pueden ocasionar daños a la salud del trabajador.



METODOLOGÍA

Como primer punto de la metodología para abordar la problemática planteada, se presento un diagnóstico de la situación actual de la higiene y seguridad industrial en los puestos de trabajo en la purificadora del hule granulado HEM 20, es decir, se realizo un recorrido para determinar los riesgos y en base a ello elegir y aplicar el instrumento de medición, el cual es el primer objetivo específico del presente proyecto. De esta manera se pretende visualizar y contextualizar de mejor manera el objeto de estudio, para recopilar información relevante y entender el porqué del problema y por medio de esto, asegurar una buena propuesta para implementar y controlar la seguridad de los trabajadores dentro del área de trabajo. La empresa, cuenta con áreas delimitadas para el proceso que se lleva a cabo en el área de producción, las cuales cuentan con trabajadores a cargo de las máquinas que están trabajando de manera activa. Por lo tanto, es de gran importancia mantener la seguridad de los operadores en una meta permanente de cero accidentes. Es por ello que, se desarrollo un  formato de evaluación, donde se dio  a conocer la información obtenida por medio de un recorrido realizado en cada una de las áreas del proceso, la cual describe los factores de riesgo a los que están expuestos dichos trabajadores. Se desarrollo una matriz de evaluación de riesgos para la evaluación de cada área de trabajo basadas en las Normas Oficiales Mexicanas (NOM), donde se evaluo el riesgo al que esta expuestos los trabajadores, asi mismo como el grado de lesion y la probabilidad de qu estos puedan ocurrir. Para la realización del análisis y evaluación de riesgos a base de la metodología de William T. Fine en el cual se calcula el grado de peligrosidad cuya fórmula es: Grado de peligrosidad= (Consecuencias) (Exposición) (Probabilidad) Y JE (justificación económica) = Grado de peligrosidad / (Factor de costo x Grado de corrección) Una vez realizado el análisis y evaluación de riesgos en los puestos de trabajo, basándose en Normas Oficiales Mexicanas STPS, así como en la metodología de Williams T. Fine, se detectaron los factores de riesgos a los que están expuestos en las distintas áreas de trabajo, por lo que con el objetivo de cumplir la meta cero accidentes se hace un proyecto de mejora para la empresa.


CONCLUSIONES

Durante la estancia de este verano de investigacion cientifica  se logró adquirir conocimientos teóricos y practicos sobre el proceso de purificacion de hule natural HM20 ( Hule Mexicano Grado 20), en el cual se pudo detectar una problematica respecto a la higiene y seguridad industrial de la empresa, la cual nos permitio llevar acabo un analsis para la evaluacion de los factores de riesgo a los qu estan expuestos los trabajadores en sus respectivos puestos de trabajo.  Por lo que es de gran importancia mencionar que los resultados obtenidos de las metodologias empleadas en el proceso del proyecto, nos abrio un campo positivo. ya que pudimos dejar en manos una propuesta de mejora para el area ya antes mencionada, la cual se basa en las NOM'S ( Normas Oficiales Mexicas), y la metodologia de Williams T. Fine.
Ayala Castillo Gerardo Rafael, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)

SMART HOME FITNESS FOR PEOPLE WITH DISABILITY / CASAS INTELIGENTES PARA PERSONAS CON DISCAPACIDAD


SMART HOME FITNESS FOR PEOPLE WITH DISABILITY / CASAS INTELIGENTES PARA PERSONAS CON DISCAPACIDAD

Ayala Castillo Gerardo Rafael, Instituto Tecnológico Superior de Uruapan. Mendoza Valencia Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con el incremento de la tendencia de conectar todos los dispositivos y a todas las personas nace la necesidad de conocer lo que es el Internet de las Cosas (IoT) y las ventajas que esto tiene, de manera que gracias al IoT se pueden utilizar una colección de objetos físicos, softwares, sensores y accionadores, de manera que se puedan comunicar entre sí y realizar distintas tareas. Esto orientando a la creación de hogares inteligentes para personas con discapacidades visuales llegará a ser un impulso para la calidad de vida de estas personas, ya que podrán llegar a tener menos limitaciones para realizar sus tareas diarias, un poco más específico a mejorar su estado físico.



METODOLOGÍA

Generalizamos el concepto de Internet de las Cosas (IoT) como una colección de objetos físicos, softwares, sensores y conectividad de red, la cual habilita éstos objetos a reunir e intercambiar datos remotos para la interacción entre el mundo físico y cibernético.  Las soluciones basadas en el Internet de las Cosas han sido introducidas para varias áreas de aplicaciones, así como la de casas inteligentes, administración de agua, seguridad, control industrial, etc., y así mismo, este juega un rol bastante importante en cuanto al cuidado de la salud, ya que genera libertad y seguridad tanto a los pacientes  como a los doctores y cuidadores para facilitar el monitoreo y chequeo de la salud.  El Internet de las Cosas se refiere a un ecosistema en el que las aplicaciones y los servicios se basan en datos recopilados de dispositivos que detectan e interactúan en el mundo físico. Hoy en día existe una variedad de dispositivos conectados ya que están en constante expansión y abarca desde artículos que ofrecen una mayor conveniencia y estilos de vida mejorados, como asistentes activados por voz, dispositivos de control de salud, etc. Así mismo, podemos señalar que una casa es inteligente cuando facilita y agiliza ciertas tareas domésticas a través de la tecnología, lo que nos brinda un incremento en nuestra seguridad, optimizan nuestro tiempo y son amigables con el medio ambiente porque cuentan con un diseño sustentable que permite el ahorro de energía.   Principalmente, el sistema de una Smart Home se compone de dispositivos que conectados a Internet, permiten activar, monitorear y desactivar múltiples funciones. Controlador. Este dispositivo permite la conexión de todos los equipos inteligentes instalados. Con un controlador podrás gestionar hasta 220 dispositivos de toda tu casa, desde tu teléfono móvil. Cámara de seguridad. Es ideal para monitorear y escuchar lo que ocurre en tus espacios. También puedes activar su visión infrarroja integrada, para observar en la oscuridad e iniciar grabaciones con el sensor de movimiento. Sensor. Incluye en tu casa inteligente sensores que te permitan monitorear movimiento, temperatura y humedad. Sirena. Si lo que quieres es reforzar la seguridad de tu hogar o empresa, debes tener presente este dispositivo. Las sirenas se caracterizan por generar alertas sonoras de hasta 106 dB. Interruptores táctiles inteligentes. Tu casa puede lucir más elegante y moderna con uno de estos interruptores que puedes activar con solo deslizar la yema de los dedos; o si lo prefieres, programar el encendido o apagado de la luz de cualquier espacio de tu vivienda, desde tu celular. Termostato inteligente. Este dispositivo te permite controlar el aire acondicionado (temperatura, encendido y apagado). También te permite conocer la temperatura actual del medio ambiente. Cerradura inteligente. Con este dispositivo podrás olvidar las llaves ya que te permite controlar el ingreso a tu casa desde cualquier lugar, usando tu teléfono móvil. Esta cerradura de seguridad puede ser instalada en una puerta estándar, cuenta con un sistema de cierre rápido y una alarma anti-vandalismo. Plugin. Si deseas controlar la energía que gastas con tus equipos electrónicos debes incluir plugins en tu casa inteligente. Con solo conectar estos dispositivos, puedes hacer que tus tomacorrientes se conviertan en inteligentes, para encender y apagar desde tu tableta o celular, los dispositivos que allí se encuentren conectados. Bombillo Led. Crea ambientes con el tono de luz perfecto, dependiendo de la hora del día o de la noche. Las bombillas led te permiten ajustar la luz de tus espacios, crear escenas de encendido y apagado, e iluminación de alerta. Timbre inalámbrico. El timbre inalámbrico te permite ajustar melodías y volumen de tu puerta para recibir con sonidos agradables a tus visitantes.


CONCLUSIONES

A medida que avanza el tiempo, la humanidad va cubriendo poco a poco sus necesidades; hoy en día el uso de tecnologías de Internet se ha vuelto en mayor parte algo esencial para el ser humano, ya que estas brindan una gran cantidad de facilidad y agilidad a tareas que previamente eran consideradas como complicadas, añadido a esto, las tecnologías existentes se pueden utilizar en aplicaciones para mejorar la calidad de vida de personas con discapacidades, como en este caso lo son las discapacidades visuales, de manera que se pueden disminuir las limitantes de ellos para tener una mejor calidad de vida.
Ayala Ceballos Betzaida Jannai, Universidad de Guadalajara
Asesor: M.C. Juan Carlos Galeano Garibello, Universidad del Valle (Colombia)

APLICAR TECNICAS DE INTELIGENCIA ARTIFICIAL PARA OPTIMIZAR ACTIVIDADES EN PROCESOS DE LÍNEAS DE PRODUCCIÓN, UTILIZANDO HERRAMIENTAS PARA MINERÍA DE DATOS EN BIG DATA


APLICAR TECNICAS DE INTELIGENCIA ARTIFICIAL PARA OPTIMIZAR ACTIVIDADES EN PROCESOS DE LÍNEAS DE PRODUCCIÓN, UTILIZANDO HERRAMIENTAS PARA MINERÍA DE DATOS EN BIG DATA

Ayala Ceballos Betzaida Jannai, Universidad de Guadalajara. Asesor: M.C. Juan Carlos Galeano Garibello, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día en el mundo existen pocos proyectos que incorporan técnicas efectivas de análisis y optimización de datos para procesos industriales, por eso se ha utilizado la inteligencia artificial como un instrumento para que estas puedan buscar soluciones a problemas en los procesos industriales, considerando que muchos de estos se centran en simulaciones y modelos ya definidos para aplicarlos en sus líneas de trabajo de forma que sirven como base para obtener otros resultados, como en el caso de la automatización y la sistematización de procesos que interpretan los estado y los resultados generados los cuales son la base para la interpretación de los datos que son utilizados para la mejora de los procesos. Es de considerar que un proyecto que permita aprovechar el poder de la inteligencia artificial y a la vez las técnicas de aprendizaje de maquina en cuanto la búsqueda de patrones de secuencias de elementos que fortalezcan la forma como se debe interpretar los resultados, radica en utilizar técnicas que aprovechen el gran poder expresivo de la inteligencia artificial y el análisis de Big Data, considerando que en el medio aparecen gran cantidad de información que debe ser procesada, para ser identificada de manera precisa. Es de destacar que hay organizaciones, universidades y empresas que ofrecen gran variedad de sistemas que funcionan con poca efectividad a la hora de utilizar secuencias o patrones definidos, puesto que un sistema con tales características es complejo y los costos de implementación son altos. A razón de esto aparecen algunas alternativas por medio de aprendizaje de maquina o aprendizaje profundo usando heurísticas para la búsqueda de patrones en secuencias de comportamientos, sin afectar el funcionamiento integro de los mismos y en cambio aumentando su rendimiento funcional. En el proyecto se estudiará, evaluaran y desarrollaran estrategias por medio de la utilización de inteligencia artificial y de minería de datos para el análisis y optimización de Big Data, considerando técnicas de aprendizaje de máquina, aprendizaje profundo y algoritmos genéticos que permitan responder a ¿Cómo hacer un análisis y optimización de los procesos industriales, usando técnicas para el aprendizaje de maquina? Para poder dar solución a esta pregunta se ha optado por la utilización de la Inteligencia Artificial y Minería de Datos considerando que esta cuenta con técnicas avanzadas que pueden dar como resultado una aproximación a los valores esperados.



METODOLOGÍA

Este proyecto se desarrollará de una forma analítica, empezando con una investigación general sobre inteligencia artificial, Big Data y Minería de Datos,basandonos en comportamiento de resultados de producción; las técnicas y teorías para el desarrollo son complejas, por tal motivo se establecerá la estructura básica sobre la cual se realizara la generación de patrones en reconocimiento por medio de la utilización de sistemas de aprendizaje de máquina, que permita la búsqueda de secuencias de coincidencias para la optimización y análisis de los resultados de mejoramiento de las actividades en procesos de líneas de producción.   Se harán diversos análisis de datos utilizando distintas plataformas para dicha actividad, para de esta manera analizar las necesidades de los campos del conocimiento que el sistema espera cubrir.   La investigación bibliográfica se centrará sobre metodologías recientes utilizadas en este tipo de desarrollos, integrando algunas herramientas funcionales que permitan la operación óptima apoyando a identificar los requerimientos necesarios para establecer el mejoramiento de las actividades en procesos de líneas de producción.  


CONCLUSIONES

Este proyecto contribuirá a generar análisis efectivos para optimización de actividadesen procesos industriales utilizando técnicas de inteligencia artificial permitiendo aumentar la productividad de las líneas de manufactura en cuanto:     Análisis de información para utilizar sistemas más eficientes. Generar elementos de gran utilidad en las interpretaciones y la posterior creación de sistematización para mejora de procesos. Fortalecer la Línea de investigación de Inteligencia Artificial y Computación Evolutiva. Reducir el tiempo de la implementación de aplicaciones en Inteligencia artificialen procesos de producción.
Ayala Hernandez Antonio, Universidad Vizcaya de las Américas
Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)

MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)


MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)

Ayala Hernandez Antonio, Universidad Vizcaya de las Américas. Carmona Martínez Cristóbal, Tecnológico de Estudios Superiores de Valle de Bravo. González Meneses Karla Estela, Universidad de La Salle Bajío. Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven. Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven.



METODOLOGÍA

El proyecto MODIF-HABIT plantea un análisis comparado de viviendas y perfiles de hogares en tres ciudades: Bilbao, Madrid y Valencia, para valorar la capacidad de sus usuarios de modificar sus hábitos de uso y consumo teniendo además en cuenta el impacto que tiene el contexto socio-climático de los hogares sobre los consumos energéticos y condiciones de habitabilidad térmica interior. De este modo, y partiendo de una caracterización tanto climática como socioeconómica de los perfiles de hogares de la muestra disponible en las tres ciudades se diseñarán unos protocolos tanto de monitorización como de visualización que nos permitan obtener datos reales e información de los hogares de estudio. La campaña de monitorización de los hábitos y patrones de uso y consumo se llevara a cabo en las tres localidades seleccionadas, aunque en Madrid se seleccionaran dos áreas diferenciadas (una en la periferia y otra en una zona más urbana) con el fin de estudiar el efecto de la isla de calor. A la vez que se desarrolla la monitorización, se estudian cuatro escenarios con información relativa al consumo energético en los hogares mediante la visualización de distintos niveles de datos. De este modo se podrá evaluar y analizar por perfiles de hogar y condiciones climáticas, la capacidad de modificación de los hábitos de uso de los hogares en función del nivel de información disponible.


CONCLUSIONES

Con los resultados a obtener se pretende evaluar el potencial que tiene la visualización de datos de consumo energético sobre la modificación de los hábitos de uso en los hogares, así como la definición de estrategias que, adecuándose a la realidad socio-climática de los hogares, estén orientadas a la gestión eficiente de los recursos energéticos en el ámbito doméstico y la mejora de sus condiciones de habitabilidad.  
Ayala Padilla Abraham, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA


SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA

Alomía Hernández José Ramón, Universidad Veracruzana. Ayala Padilla Abraham, Instituto Tecnológico Superior de Ciudad Hidalgo. Cardona Martínez Salvador, Universidad de Guadalajara. García Carbajal Yasmín, Instituto Tecnológico de Morelia. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la identificación por radiofrecuencia (RFID) es una de las tecnologías con mayor crecimiento dentro de la industria de las tecnologías de la información y las comunicaciones (TIC) y de la identificación automática. En este contexto, RFID es una tecnología que puede utilizarse en un amplio espectro de aplicaciones, tales como control de acceso, seguimiento, seguridad, control de inventario, logística, entre otros. El objetivo es optimizar el control de acceso a los servidores garantizando la estadía de los equipos en el área de trabajo mediante el monitoreo constante, utilizando la tecnología RFID    para administrar eficientemente horario de entradas y salidas del personal.



METODOLOGÍA

El acceso por RFID se llevará a cabo a través de un Arduino Nano usando los siguientes componentes: • Módulo RFID RC522. • ESP8266-01. • Buzzer. • Led. • Reguladores de voltaje para 5V y 3.3V. • Cerradura eléctrica /Motor DC. • Sensor magnético. Se pretende desarrollar el módulo de acceso haciendo uso de ESP8266 debido a su bajo coste potencia de conexión y transmisión de datos, por lo que no es necesario hacer uso de una Raspberry Pi para la transmisión y evolución de datos de los usuarios. Una vez finalizadas las pruebas de funcionamiento y conexión en Protoboard se pasará a hacer el diseño de circuito impreso o PCB, se conseguirá o creará una carcasa para el circuito para finalmente realizar la conexión eléctrica-electrónica del circuito. El ESP8266 es la parte esencial de el modelo de acceso ya que a través de el el sistema RFID puede acceder al servidor y consultar el tag que se está leyendo en el momento y permitir el acceso. El sistema cuenta con las siguientes características: Comunicación Serial entre Arduino Nano y ESP8266 lo que permite tener una comunicación a internet. Comunicación I2C para LCD lo que permite ahorrar gran cantidad de pines y sólo utilizar los destinados a I2C Sensor magnético para mandar una notificación cuando la puerta haya sido abierta o cerrada, no basta con tener el acceso permitido desde el identificador RFID. Generalizando el funcionamiento de software y comunicación se encuentran los siguientes pasos para hacer la autenticación. El sistema está en espera de una lectura de tarjeta. El usuario acerca la tarjeta de identificación al sistema y este envía una señal hacia el ESP8266 a través de sus puertos seriales para así realizar una petición al servidor del tag. Se comprueba el acceso realizando una conexión con la API en la raspberry, verificando si el tag se encuentra entre los usuarios registrados dentro de la dirección URL. De ser así se manda un pulso eléctrico a la cerradura y esta debe ser desbloqueada. Una vez abierta la puerta el campo magnético del sensor desaparecerá y notificará al servidor que la puerta ha sido abierta. El sistema tendrá una espera de 7 segundos después de que el campo magnético del sensor de abra para dar tiempo al usuario para que cierre la puerta, de no ser así el buzzer emitirá un sonido constante y no permitirá que se ingrese otro tag hasta que el sensor magnético detecte que la puerta ha sido cerrada correctamente. De esta manera se puede implementar fácilmente una aplicación móvil o web de análisis de datos para monitorear qué es lo que está ocurriendo con los módulos en distintos puntos así como poder hacer la autenticación a través de las aplicaciones, sin necesidad de tener una tarjeta magnética, sólo la autenticación escolar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los componentes y equipos necesarios para el monitoreo constante de los servidores, sin embargo, al ser un extenso trabajo sólo se logró llegar a un prototipo funcional con la contrachapa. Los diseños de los PCBs están listos para ser enviados a maquilar para que después se les suelden los componentes y por último ser instalado en la puerta.
Baez Bernal Jesus Daniela, Universidad Autónoma de Occidente
Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato

CONVERSIóN TERMOQUíMICA DE RESIDUOS DEL POLIETILENO DE ALTA DENSIDAD (HDPE) EN HIDROCARBUROS.


CONVERSIóN TERMOQUíMICA DE RESIDUOS DEL POLIETILENO DE ALTA DENSIDAD (HDPE) EN HIDROCARBUROS.

Baez Bernal Jesus Daniela, Universidad Autónoma de Occidente. Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los plásticos son usados para todo tipo de aplicaciones industriales y su demanda es cada vez mayor, adicionalmente son clave en la innovación de muchos productos en diversos sectores, como construcción, salud, electrónica, automotriz, embalaje y otros. Por tener excelentes propiedades y ser de bajo costo, provocan que haya una alta producción de ellos dando como consecuencia la gran generación de residuos plásticos. Una solución a la reducción de residuos plásticos es el reciclaje termoquímico, por medio de este proceso se modifican las estructuras químicas de los polímeros garantizando la reducción del volumen de residuos y la generación de productos como combustibles alternativos para motores de combustión interna. Dentro del reciclaje termoquímico se encuentra el proceso de pirólisis, que consiste en realizar la degradación térmica en ausencia de oxígeno, durante este proceso los materiales poliméricos se calientan a altas temperaturas de manera que sus macromoléculas se descomponen en moléculas más pequeñas y se recuperan productos totales como una amplia gama de hidrocarburos líquidos y gaseosos. En este trabajo se realizaron pruebas de pirolisis con el objetivo de obtener combustibles alternativos a partir del polietileno de alta densidad (HDPE High Density Polyethylene, por sus siglas en inglés), y de una mezcla definida de polietilenos de alta densidad y de baja densidad con polipropileno.



METODOLOGÍA

Para todas las pruebas realizadas se usó 1 kilogramo de polímeros de posconsumo, el cual se vertió al tanque del reactor y se procedió al cerrado del tanque, verificando que el condensador estuviera perfectamente sellado. Después se empezó con el ajuste de temperaturas para la obtención de los diversos hidrocarburos para las distintas mezclas y productos puros. Una vez que los polímeros comienzan a degradarse en el interior del reactor se generan gases los cuales se condensan en una campana de condensación la cual contiene agua. Los gases que no se pueden condensar pasan por un filtro de carbón para ser expulsados como gases de CO2 y vapor de agua. Al enfriarse el reactor, se retiran los residuos formados. Posteriormente, al líquido obtenido se le realizaron pruebas fisicoquímicas para determinar su caracterización, como lo son viscosidad y densidad relativa. Para la viscosidad se calentó un vaso precipitado sobre una parrilla de calentamiento para llevar a una temperatura constante de 40° C, utilizando un termómetro. Después con una pipeta graduada de 25ml se introdujo en su rama ancha de 15 a 20 ml del líquido, se esperó a que el líquido alcanzara la temperatura del agua. Posteriormente, para medir los tiempos de escurrimiento se succionó el líquido del tubo capilar con ayuda de una perilla hasta que el líquido alcanzara el límite de los dos bulbos, se liberó el líquido y se registró el tiempo en el que el menisco del líquido tarda en pasar desde la marca graduada superior hasta la inferior, con la ayuda de un cronómetro. Se repitió este proceso 20 veces para sacar un promedio del tiempo. Para calcular la densidad relativa, primero se determinó la masa del picnómetro vacío al inicio de cada medición en una balanza analítica, posteriormente se pesó el picnómetro con agua destilada (incluyendo el termómetro y la tapa) y después se esperó a que secara. Se procedió a llenar el picnómetro con la muestra liquida de hidrocarburo, se colocaron las tapas y se pesó, después con la ayuda de una ecuación se realizaron los cálculos pertinentes para obtener la densidad relativa.


CONCLUSIONES

RESULTADOS Se obtuvo que el HDPE, tiene una disminución de color conforme al aumento de temperatura en los productos líquidos y se caracteriza por tener un color semi cristalino. Con respecto al porcentaje de masa del producto recuperado, este aumenta con respecto al aumento de las temperaturas a las que se manipulo el pirolizador. Para el HDPE se obtuvo a temperatura de 420 °C un 8.2% de líquido, a 440° C 36.5% de líquido, a temperaturas mayores a 440 °C se presentó formación de ceras con un 43.5%; el residuo carbonoso un 1.6% y gases no condensables 10.2%. El Producto a temperatura de 420° C presentó una densidad de 0.765 y una viscosidad de 2.092 cSt. A la   temperatura de 440° C una densidad de 0.778 y una viscosidad de 2.626 cSt. Para la mezcla definida de 50% HDPE, 25% PP y 25% LDPE, se observa que tiene un color claro semi cristalino. Con respecto al producto obtenido a 420° C se recuperó un 12.8%, a la temperatura de 440° C se recuperó un 46.3%, después de los 440° C un 2.2% de residuo carbonoso, 22.8% recuperado en cera y en gases no condensables 15.9%. Posteriormente se generaron los datos de densidad y viscosidad a las temperaturas de 420° C y 440° C, donde se obtuvo una densidad para los productos obtenidos a temperatura de 420° C de 0.762 y una viscosidad de 1.898 cSt y a una temperatura de 440° C se obtuvo una densidad de 0.780 y viscosidad de 2.620 cSt. CONCLUSIONES Durante el proceso de pirolisis se observó que los residuos plásticos del polietileno de alta densidad y de la mezcla, se degradan en su mayoría, a una temperatura de 440°C obteniendo un gran volumen de líquido, además se pudo percibir que los productos líquidos a mayor temperatura aclaran su color. El líquido obtenido, por sus propiedades fisicoquímicas, se puede mezclar con hidrocarburos a ciertos porcentajes, para así poderlos utilizar en motores de combustión interna. Para finalizar, es importante destacar que la pirolisis de productos de posconsumo contribuirá al medio ambiente con la disminución en volumen de los residuos plásticos, ya que todos los productos resultantes pueden ser utilizados en otras aplicaciones, contribuyendo así a mitigar uno de los principales impactos ambientales de tipo social que es la acumulación de residuos plásticos.
Báez Rios Dania Jareth, Instituto Tecnológico de Culiacán
Asesor: Dr. Estela Cerezo Acevedo, Universidad del Caribe

COMPARACIóN DE DIFERENTES MéTODOS PARA INCREMENTAR LA EFICIENCIA TéRMICA DEL PROTOTIPO DE PLANTA OTEC DE 1KWE


COMPARACIóN DE DIFERENTES MéTODOS PARA INCREMENTAR LA EFICIENCIA TéRMICA DEL PROTOTIPO DE PLANTA OTEC DE 1KWE

Báez Rios Dania Jareth, Instituto Tecnológico de Culiacán. Asesor: Dr. Estela Cerezo Acevedo, Universidad del Caribe



PLANTEAMIENTO DEL PROBLEMA

Existe una tecnología para generar energía eléctrica a través del aprovechamiento energético del gradiente térmico del océano; se llama Conversión de Energía Térmica Oceánica (OTEC). El objetivo de esta tecnología consiste en producir vapor para hacer rotar la turbina de un generador eléctrico. Para esto, utiliza el ciclo termodinámico Rankine. Una planta OTEC, es una máquina térmica. La eficiencia térmica es una medida del desempeño de una máquina térmica. Es importante que esta eficiencia sea alta para ahorrar material de tubería y que la planta mantenga un tamaño prudente. Pero, está limitada por la eficiencia de Carnot, que es la eficiencia máxima que puede alcanzar el sistema; depende del diferencial de temperatura. En la Universidad del Caribe, se diseñó y se está construyendo un prototipo de planta OTEC de 1kWe de ciclo cerrado. El sitio seleccionado, cuenta con un gradiente térmico de 20°C. Con lo anterior, se tiene como límite máximo una eficiencia de Carnot de 6.663%. Con el diseño actual del prototipo, el ciclo tiene una eficiencia térmica de 2.411%. Basada en el límite que podría alcanzar, la eficiencia térmica resulta baja. Esto crea la necesidad de investigar cómo incrementarla. Sin embargo, hay ciertos factores a considerar. Es importante cuidar que la calidad de la mezcla líquido-vapor a la salida de la turbina no disminuya para evitar la corrosión en la turbina. También, cuidar que el flujo de agua de mar, que circula por los intercambiares de calor, no incremente significativamente para conservar la misma bomba.



METODOLOGÍA

Primeramente, se realizó una evaluación de la temperatura media logarítmica para contar con una temperatura base para la entrada y salida del fluido de trabajo (R152a) en los intercambiadores; considerando que la temperatura media logarítmica de los intercambiadores propios para este tipo de planta es de 3 a 4°C. De acuerdo con el plan de trabajo, se investigó cómo incrementar la eficiencia del ciclo Rankine y, demandando incrementar la eficiencia sin agregarle equipo al prototipo, se decidió hacer los cálculos con los siguientes métodos: a)      Reducción de la presión del condensador. En el diseño actual del ciclo, la presión del condensador es de 398.7 kPa; siendo esta la presión de saturación a 12°C.  Para conocer hasta qué límite sería favorable reducir la presión, en base al rango permitido de la temperatura media logarítmica del condensador, se consideraron dos opciones: reducir hasta la presión de saturación de 11°C y de 10.5°C. Se elaboraron los cálculos para ambas opciones. b)      Incremento de la presión del evaporador. En el diseño actual del ciclo, la presión del evaporador es de 554.2 kPa (presión de saturación a 22.5°C). Se incrementó la presión hasta la presión de saturación de 23.5°C en base al rango permitido de la temperatura media logarítmica del evaporador (571.1 kPa). Después, surgió la curiosidad de combinar los dos métodos simultáneamente: c)      Reducción de la presión del condensador e incremento de la presión del evaporador simultáneamente. Así como los métodos por si solos, se tomaron las mismas consideraciones al combinarlos. Esto es; reducir la presión del condensador hasta la presión de saturación de 11°C (385.8 kPa) a la vez incrementando la presión del evaporador a 571.1 kPa y, para la otra opción, en lugar de reducirla a la de 11°C, reducirla a la de 10.5°C (379.5 kPa). Los cálculos termodinámicos, para los métodos seleccionados, se realizaron utilizando el programa EES. También, para cada método, se calculó el flujo de agua de mar necesario en el evaporador y en el condensador. Finalmente, se compararon los resultados de eficiencia térmica obtenidos por cada método; esto dio a conocer el método más viable para lograr el objetivo.


CONCLUSIONES

Considerando las características del diseño actual de ciclo (eficiencia térmica del 2.411%, calidad real a la salida de la turbina de 0.9973, flujo de agua de mar en el evaporador de 2.72 L/s y en el condensador de 3.52 L/s) se hizo la comparación en base a estas. a)      Al reducir la presión del condensador (11°C), se obtuvo: una eficiencia de 2.634%, calidad de 0.9971, flujo en el evaporador de 2.49 L/s y en el condensador de 6.43 L/s. Se observa que el flujo en el evaporador disminuye favorablemente, pero en el condensador aumenta inconvenientemente. Se tendría que modificar el equipo para que este gran flujo sea posible. Al reducir la presión del condensador (10.5°C), se obtuvo: una eficiencia de 2.744%, calidad de 0.997, flujo en el evaporador de 2.39 L/s y en el condensador de 9.25 L/s. Los flujos se comportan similar al anterior, por lo que se concluye lo mismo. b)      Al incrementar la presión del evaporador se obtuvo: una eficiencia de 2.624%, calidad de 0.9971, flujo en el evaporador de 3.33 L/s y en el condensador de 3.23 L/s. La calidad disminuye y ambos flujos de agua de mar aumentan, pero estos cambios son insignificantes a comparación de lo que incrementa la eficiencia térmica. c)      Al incrementar la presión del evaporador y reducir la presión del condensador simultáneamente (11°C), se obtuvo: una eficiencia de 2.845%, calidad de 0.9969, flujo en el evaporador de 3.07 L/s y en el condensador de 5.94 L/s. Este flujo en el condensador requeriría modificar el equipo. Al incrementar la presión del evaporador y reducir la presión del condensador simultáneamente (10.5°C), se obtuvo: una eficiencia de 2.955%, calidad de 0.9967, flujo en el evaporador de 2.96 L/s y en el condensador de 8.57 L/s. Este es el método que más incrementa la eficiencia térmica, pero, este también requeriría modificar el equipo. El método más viable para incrementar la eficiencia térmica del prototipo de planta OTEC de 1kWe es incrementar la presión del evaporador. Este método incrementa la eficiencia térmica hasta 2.624%; esto es, 0.213% más que la eficiencia térmica del diseño actual del ciclo.
Baltazar Aguilar Erik, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa

MODELO PREDICTIVO DE ALERTA TEMPRANA QUE INDIQUE LOS FACTORES DE LA DESERCIóN ESCOLAR APLICANDO MINERíA DE DATOS.


MODELO PREDICTIVO DE ALERTA TEMPRANA QUE INDIQUE LOS FACTORES DE LA DESERCIóN ESCOLAR APLICANDO MINERíA DE DATOS.

Baltazar Aguilar Erik, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los alumnos que ingresan a estudios de nivel superior no solamente están influenciados por los conocimientos académicos adquiridos a nivel media superior; sino que además tienen factores que influyen en su formación académica. A modo de ejemplo se pueden mencionar factores como las características personales, el entorno familiar y de vivienda; las habilidades en el uso de las tecnologías, las actividades de esparcimiento, económicas, etc. Algunos de estos factores como los conocimientos previos de nivel media superior se pueden adquirir del examen CENEVAL que se aplica a los alumnos de nuevo ingreso a la universidad. En nuestra investigación se plantea de inicio la pregunta ¿Cuáles son los factores que influyen en la deserción académica de los estudiantes de nivel superior? Por lo anteriormente expuesto, se requiere un modelo comprensible que nos permita saber cuáles, cuántos y el orden de los factores que influyen de manera determinante en la deserción de los estudiantes de nivel superior, así como el orden de importancia de los mismos.



METODOLOGÍA

Para realizar la investigación es necesario obtener la gran mayoría de datos de todos los alumnos inscritos actualmente en la universidad, así como los que ya desertaron, para eso se diseño una encuesta de 91 preguntas, en su mayoría de opción múltiple, esto nos ayudara para poder tener una base de datos que posteriormente tenemos que minar. Ocuparemos minería de datos y el método kdd. Con el método kdd vamos a estandarizar los datos de la base, siguiendo su procedimiento adecuadamente. La minería de datos integra numerosas técnicas de análisis de datos y extracción de modelos, capaz de obtener patrones, describir tendencias y regularidades, predecir comportamientos y explorar información computarizada proveniente de una base de datos. Para identificar los factores de utiliza arboles de decisiones con ese método podremos identificar fácilmente cada uno de ellos, al momento de ingresar datos de un nuevo alumno el proceso será semiautomático y nos dará un resultado de los factores que se cumplan con respecto a casos anteriores de alumnos que ya desertaron.


CONCLUSIONES

De los estudiantes es buena la respuesta de colaboración, sobre el tema de investigación es muy amplio y se podrán ver resultados a largo plazo, todo el tiempo cambian los factores y no son únicos o ciertos en su totalidad ya que cada alumno es diferente y puede o no influir en su desempeño académico o en su deserción académica.
Baños Hinojosa Paulina Berenice, Instituto Politécnico Nacional
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES


DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES

Baños Hinojosa Paulina Berenice, Instituto Politécnico Nacional. González Rivas Jesús Ramiro, Instituto Tecnológico de Culiacán. Treviño Trujillo Juan José, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Un cohete es un vehículo, aeronave o nave espacial que obtiene su empuje por la reacción de la expulsión rápida de gases de combustión desde un motor cohete (motor de reacción que genera empuje mediante la expulsión de gases que provienen de la cámara de combustión). Carlos Duarte Muñoz, 2018. El principio de funcionamiento del motor de cohete se basa en la tercera ley de Newton, la ley de la acción y reacción, que dice que "a toda acción le corresponde una reacción, con la misma intensidad, misma dirección y sentido contrario". La importancia de estos vehículos radica en dos características: su capacidad de alcanzar grandes velocidades y aceleraciones y poder funcionar en el vacío, al igual que a través de ellos investigar sobre los distintos fenómenos en el espacio y así experimentar mediante el lanzamiento de carga útil. Es por eso que la electrónica de cohetes es fundamental para cumplir estos objetivos de investigación, ya que con ella se puede obtener datos específicos a través de distintos tipos de sensores y artefactos electrónicos, como la ubicación, velocidad, aceleración, temperatura, presión, entre otros. Dentro de nuestro proyecto haremos uso de ella para la adquisición de datos de la IMU y GPS. La principal herramienta utilizada en el desarrollo de nuestro proyecto es la unidad de medida inercial (IMU) desarrollada especialmente para ser utilizada en cohetes de agua y aire comprimido. La IMU desarrollada cuenta con 10 grados de libertad, la selección de los sensores fue realizada teniendo en cuenta las características de vuelo de nuestro cohete. Para obtener estas variables es necesario programar cada uno de los componentes de acuerdo a las necesidades del cohete. El principal obstáculo en nuestro proyecto es la creación de un código que se apegue a las especificaciones del acelerómetro y al Sistema de Posicionamiento Global (GPS) al igual que el correcto almacenamiento de los datos, por lo que durante el verano, se estudiarán la características de cada uno de estos componentes, utilizando el lenguaje de programación en Arduino.



METODOLOGÍA

Componentes utilizados: -Acelerómetro de 9 ejes JY901 (Wit Motion) -Adafruit Ultimate GPS Logger Shield (Adafruit) -Arduino UNO R3 de Steren -Tarjeta microSD de 8GB El ensamble del circuito se hizo teniendo como base el Arduino UNO, al cual se le acopló de manera directa el GPS y sobre el se soldó el GPS. Las librerias usadas para laprogramacion de los comonentes son: "Adafruit_GPS.h", "JY901.h" y "avr/sleep.h". La información que se requería obtener del acelerómetro fue: -Aceleración, Velocidad, Posición, Ángulo  todos en los 3 ejes(x,y,z) Los 3 datos que se obtienen de manera directa del acelerómetro son las 3 aceleraciones, entonces para obtener las 3 velocidades se filtro por el método de pasa bajas del trapezoide para obtener los datos de aceleración suavizada, y después se integraron estos datos para obtener las tres velocidades deseadas. Para obtener la posición en los 3 ejes, se siguió el mismo paso de integración en la velocidad. Lo siguiente es el módulo GPS del circuito. Este componente trabaja a una frecuencia máxima de 10Hz, pero debido a la aplicación que se le va a dar se optó a trabajar con el a la frecuencia por defecto que tiene (1Hz). Este componente nos sirvió para obtener dos tipos de enunciados usados por la NMEA (National Marine Electronics Association, o la Asociación Nacional de Electrónica de la Marina): los enunciados GGA y RMC.  Lo último sería la adquisición de datos en la tarjeta SD, lo cual se logró generando dos archivos dentro del código: un archivo .csv para los datos del acelerómetro y un archivo .txt para los del GPS. Los datos se guardan en la tarjeta SD.


CONCLUSIONES

Durante la estancia de verano se logró adquirir diversos conocimientos teóricos y prácticos acerca de la electrónica que debe de tener un cohete para el censado de su aceleración, velocidad, posición, ángulos de giro, así como también su geolocalización, así como también el desarrollo del programa que tomará estas lecturas junto con los sensores usados, los datos obtenidos en pruebas de laboratorio, tanto como de la IMU como del GPS son los siguientes; 0.08/-0.06/0.97/0.03/-0.02/0.33/0.01/-0.01/0.11/-4.08/-3.62/-8.32 Los datos anteriores muestran aceleración, velocidad, posición y ángulos de inclinación, tomando para cada uno 3 casillas las cuales representan en cada uno de ellos (X, Y, Z) respectivamente, (lectura prueba acelerómetro). $GPRMC,020825.000, A,3144.9771, N,10625.4068, W, 0.61, 98.31, 110719, A*4ª Lo anterior nos proporciona; Hora (GMT) (020825.000), Latitud (3144.9771, N), Longitud (10625.4068, W),     Velocidad del viento en nudos (0.61), Angulo de ataque (98.31), Fecha (110719), (lectura prueba GPS). La realización de este proyecto proporciono conocimiento sobre algunos aspectos que se tiene que tomar en cuenta para el censado en el lanzamiento de un cohete, así como también, la utilización correcta de ambos sensores y su programación, adjuntando a esto el procesamiento y filtrado de datos para la obtención de muestras más limpias.  A pesar de la dificultad y de algunos contratiempos que se presentaron durante la realización del proyecto, su conclusión fue un éxito ya que después del montado del circuito en el cohete y efectuado su lanzamiento, se pudieron obtener los datos en la tarjeta micro SD preestablecida para el guardado de los datos del monitoreo en la cual se guardaron los dos formatos de archivos .CSV y .TXT registrado en el primero de ellos los datos del desplazamiento y el segundo los datos de la geolocalización listos ya para ser procesados con las herramientas establecidas.
Bañuelos Murillo Juan Antonio, Instituto Tecnológico de Tepic
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

HIDROLOGíA ESTOCáSTICA DE LA ZONA SURESTE DE LA CUENCA LERMA-CHAPALA


HIDROLOGíA ESTOCáSTICA DE LA ZONA SURESTE DE LA CUENCA LERMA-CHAPALA

Bañuelos Murillo Juan Antonio, Instituto Tecnológico de Tepic. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El agua es un elemento esencial para la vida de cualquier ser vivo, por lo que cualquier problema relacionado a esto generará afectaciones a toda la sociedad e incluso a la vida del planeta. La actualidad por la que pasa el Lago de Chapala que es el cuerpo de agua que se alimenta de alguna forma por la parte sureste de la Cuenca Lerma-Chapala es diferente a años anteriores, ya que con el tiempo ha estado bajando el nivel del agua de manera notoria y sin constante regulación. La parte que nos toca investigar es determinar si en algún futuro no muy lejano, se presentará de alguna forma sequía (insuficiencia de agua) o el agua necesaria para dotar a las poblaciones aldeanas. Y esto se obtiene mediante la modelación de series sintéticas utilizando modelos autorregresivos, las cuales nos arrojarán los gastos que se descargan en el lago de Chapala.



METODOLOGÍA

Para comenzar a estudiar la zona se obtuvieron datos de estaciones hidrológicas, mapas y cartas de las plataformas siguientes: BANDAS, CLICOM e INEGI. Descargados los datos, se comenzaron a validar las estaciones con pruebas de homogeneidad e independencia con el Software GESTAD desarrollado por el Ing. Sergio Eduardo Cázares Rodríguez. De las 75 estaciones solo 19 cumplieron. En el Software ARCGIS se crearon los mapas de las cuencas y estaciones meteorológicas, climatológicas e hidrométricas dentro de la zona este y sureste del lago de Chapala. En el programa Traslado de datos se interpolan las estaciones y los centroides de las cuencas para obtener datos en los centroides de cada cuenca y se extraen los datos de escurrimiento obtenidos en una hoja de Excel. En el Software EvalHID se cargan las cuencas y puntos de salida de cada cuenca junto con los datos de escurrimiento obtenidos anteriormente para calibrar y validar los datos mediante el modelo de Témez. Para la generación de las series sintéticas se utilizó el Software MASHwin 2.0 en el cuál primeramente se ingresan los datos de aportaciones que mejor se obtuvieron de la calibración y validación de datos de las subcuencas. Dónde se utilizaron 6 modelos diferentes: AR (1), AR (2) y ARMA con Series de Fourier y los mismos 3 modelos, pero con series estadísticas. Comparando los valores estadísticos originales y los validados se llegó a la conclusión de que el mejor modelo fue el AR (1) con series de Fourier. Se trataron de hacer dos grupos diferentes de cuencas que tuvieran relación entre sí, esto se hace con el Software JMP dónde se realiza un análisis multivariado o una conglomeración jerárquica por el método de Ward según los valores de K y la masa geológica de cada microcuenca. Después se volvieron a cargar las subcuencas con sus puntos de salida, pero ahora utilizando los parámetros de la cuenca calibrada y validada para cada grupo, de esta manera se obtuvieron las aportaciones de las 7 subcuencas diferentes para ingresarlas a MASHwin. Una vez elegido el modelo adecuado y obtenido las aportaciones correctas se intentó hacer una desagregación espacial de Lane para verificar si existe correlación entre las 7 subcuencas, pero ninguna resultó relacionarse con las demás. Por lo tanto, se generaron las series sintéticas para las 7 subcuencas. De estas series se sumarán las 7 subcuencas para cada serie diferente. Para finalizar, en el Programa Visión 2030 se obtendrán los datos de agua utilizada para otras cosas como el uso consuntivo, pérdidas, retornos, importaciones y exportaciones, evaporación, escurrimientos aguas abajo y aguas arriba, etc. De la suma total de las 7 subcuencas se les sumarán los valores anteriores.


CONCLUSIONES

Si los resultados obtenidos son menores o iguales a cero se puede concluir que posiblemente en un futuro se presenten sequías, en cambio si los valores fueran mayores a cero indicaría que existe suficiente o demás agua para satisfacer las demandas de las poblaciones aldeanas. Ya con esta información se puede proponer infraestructura para la regulación del agua y construir escenarios futuros para la gestión de la infraestructura planificada. Sin embargo, esto ya no me corresponde, al menos en esta investigación.
Barajas Aguilar Valeria Janeth, Universidad de Guadalajara
Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE LA RESPUESTA BIOACTIVA DE MEZCLAS DE BHAP:VB


ESTUDIO DE LA RESPUESTA BIOACTIVA DE MEZCLAS DE BHAP:VB

Barajas Aguilar Valeria Janeth, Universidad de Guadalajara. Asesor: Dr. Astrid Lorena Giraldo Betancur, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La bioactividad se puede definir como una propiedad de un material al producir una respuesta biológica específica en la interfase del material, lo que resulta en la formación de un enlace entre el tejido y éste. Actualmente, se ha estudiado la bioactividad en vidrios bioactivos y biocerámicas con el fin de encontrar materiales que puedan sustituir o mimetizar el hueso vivo y así mismo ser utilizado, principalmente, en regeneración de tejido óseo. Un biocerámico que ha sido altamente estudiado es la biohidroxiapatita, material osteoconductor de resistencia mecánica desfavorable y baja velocidad de reacción en soluciones biológicas; por tal motivo se ha buscado crear combinaciones que favorezcan al material. Se ha registrado en la literatura que ciertos vidrios bioactivos como el S53P4 presentan características bioactivas y bactericidas. El objetivo de este trabajo de investigación es evaluar la bioactividad de mezclas de biohidroxiapatita y vidrios bioactivos.



METODOLOGÍA

Para llevar a cabo este objetivo específico se utilizaron 2 muestras de vidrios bioactivos (VB), 1 de biohidroxiapatita (BHAp) y 4 de mezclas de BHAp:VB en proporciones de 80:20, 85:15, 90:10 y 95:5. Durante el procedimiento se siguió la metodología descrita en la norma ISO 23317 la cual específica el tiempo de inmersión y  las dimensiones de las muestras. Una vez pasados los tiempos de inmersión de 7, 14 y 28 días se realizaron las pruebas de caracterización usando difracción de rayos X (DRX), microscopía electrónica de barrido (MEB) y monitoreo permanente de pH.


CONCLUSIONES

 Durante la estancia de Verano Delfín en CINVESTAV, se logró realizar en su totalidad el trabajo que se propuso al iniciar; así mismo, se pudo concluir que la formación de la capa de apatita ya está presente a partir de 7 días de inmersión. Por otro lado, por medio de DRX se encontró la presencia de una fase de MgO antes de iniciar las pruebas, misma que ya no se encuentra presente después de los tiempos de inmersión establecidos. 
Barajas Rosales Perla Julissa, Universidad de Guadalajara
Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas

PROCEDENCIA DE INSUMOS EN ESTABLECIMIENTOS DE ALIMENTOS Y BEBIDAS EN VALLE DORADO, BAHÍA DE BANDERAS, NAY.


PROCEDENCIA DE INSUMOS EN ESTABLECIMIENTOS DE ALIMENTOS Y BEBIDAS EN VALLE DORADO, BAHÍA DE BANDERAS, NAY.

Barajas Rosales Perla Julissa, Universidad de Guadalajara. Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

La localidad de Valle Dorado ha manifestado una gran actividad económica, generando la demanda de nuevos establecimientos, dando como resultado micro pymes que dan como consecuencia empleo tanto para habitantes de la zona como productores o comerciantes. Esta fluctuación económica que se manifiesta podría llegar a ser un efecto positivo, si se mantiene dentro del municipio, disminuyendo la adquisición de insumos de otros estados, sectores, zonas o tiendas departamentales ajenos a Bahía de Banderas, dentro de la localidad de Valle Dorado. Sería una ventaja adquirir insumos dentro de la localidad y así mismo, brindar un entorno de rentabilidad y crecimiento económico. Beneficiando a los micro-pymes convirtiendo su municipio en un destino turístico gastronómico en desarrollo, evitando la consolidación para llegar al declive por falta de innovación  en el ámbito administrativo por medio de la materia prima u proveedores o competencia local. Generando más notoriedad gracias a la misma rentabilidad de la zona, con el consumo a nivel nacional y extranjero, reconocido como un punto gastronómico importante para degustar en la travesía del turismo. 



METODOLOGÍA

La metodología empleada de encuesta fue de forma empírica y personal con respuestas de opción múltiple, para la obtención de una información en concreto. Fueron aplicadas a 50 establecimientos de alimentos y bebidas que radican en Valle Dorado, tomando como referencia la avenida principal (Av. Valle de México). La importancia de la investigación de campo tiene como propósito dar un giro a todas aquellos establecimientos de alimentos y bebidas, establecidos en Valle Dorado, con la finalidad de recolectar información de valor agregado sobre la adquisición de la materia prima que realizan los diferentes negocios, así mismo conocer el porqué de su preferencia a ciertos proveedores existentes, como: tiendas de autoservicio, mercados, ambulantes, locales o productores externos al municipio de donde radican. Analizando las ventajas y desventajas que contrae a los negocios y al municipio, impulsando el consumo local, para un crecimiento auto sustentable y con mayor rentabilidad. Una vez realizadas las encuestas, se dio la tarea de registrar en plataforma online para su posterior análisis de los resultados y determinar la cantidad de establecimientos que adquieren sus insumos dentro del municipio Bahía de Banderas.  Procediendo a la elaboración de gráficos descritos para su fácil análisis y comprensión de la fluctuación económica de la zona.


CONCLUSIONES

Concluyendo este trabajo, en donde la evidencia demuestra que la zona de Valle Dorado, municipio de Bahía de Banderas, obtuvo un aumento en el número de establecimientos de alimentos y bebidas a partir del año 2017 al 2019, popularizando sus productos para el público local, turismo mexicano y especialmente extranjero y otras partes del mundo que pernotan cerca del área para pasar sus vacaciones en la zona, por lo que su número de asistencia aumenta en temporadas altas, superando al público local que visita los comercios. La demanda establecida convierte a esta zona en un  posible punto mercadológico potencial para crecimiento económico a favor del municipio Bahía de Banderas. Mantener esta fluctuación económica para beneficio, se requiere apoyar al comercio local, por tanto, se comprobó que los insumos utilizados provienen en su mayoría de tiendas de autoservicio como WALMART y SAMS CLUB, que a pesar de no ser de origen mexicano radican dentro del municipio de Bahía de Banderas, escogidos por su demanda en el consumo de mayoreo y menudeo para el público, así mismo, mencionar que las abarroteras y carnicerías locales también son fuente primaria como proveedores para estos comercios. El resto de materias primas se obtienen inclusive de otros estados de la república mexicana, pero principalmente del estado de Jalisco, especialmente porque son productos que no se pueden obtener en Bahía de Banderas o simplemente el comerciante prefiere adquirirlos por su calidad, los costes y el servicio que le brindan estos proveedores o empresa ajenos al municipio.
Barajas Zepeda Alondra, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca

ACONDICIONAMIENTO PARA LA ADQUISICIóN DE SEñAL EMG


ACONDICIONAMIENTO PARA LA ADQUISICIóN DE SEñAL EMG

Barajas Zepeda Alondra, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca



PLANTEAMIENTO DEL PROBLEMA

Existe en México un alto número de personas amputadas anualmente que rebasa los 700.000, pese  a que no existe una cifra determinada de personas que requieren una prótesis de miembros superiores se reporta una alta incidencia entre la población económicamente activa que va entre los 28 - 59 años, la cantidad mencionada anteriormente es alarmante la causa por la que son amputados el miembro superior puede ser diversa entre las más comunes destacan, por problemas circulatorios que pueden ser a causa de ateroesclerosis o diabetes y en casos muy graves requieren de la amputación, accidentes ya sea de tráfico, laborales o combate militar (este último mencionado era muy común en la antigüedad), cáncer de hueso, defectos congénitos es decir que ya viene desde que el bebé se desarrolla dentro del cuerpo de su madre. Tener una protesis mioelectrica permite ser accionado a través de la persona misma por medio de las contracciones que demande el musculo esto se lleva a cabo gracias a un EMG que registra de forma gráfica la actividad eléctrica producida por los músculos esqueléticos. Existen prótesis hoy en día que son muy avanzadas, desafortunadamente esto no es posible para la economía de todas las personas y solamente para grupos selectos que permitan costearla, por tal motivo en este verano de investigación se analizará la adquisición de señales bioelectricas creando de forma más económica un prototipo para prótesis mioelectrica, enfocándonos en el análisis de su adquisición.



METODOLOGÍA

Lo primero que se hizo fue el acondicionamiento de la señal para lo cual se requirió realizar diversos circuitos en una protoboard, la señal EMG se adquiere con electrodos comerciales que se ponen en contacto directo con la piel, su distribución depende de los músculos a estudiar, para este proyecto se seleccionó el musculo del bíceps colocando dos electrodos en él y un tercero de referencia en el hueso del cubito. El circuito para la adquisición de la señal EMG consiste básicamente en tres etapas: la primera es el acoplamiento, la segunda una etapa de filtrado y la tercera una etapa de aislamiento eléctrico. En cada etapa se hizo uso de amplificadores operacionales. El acoplamiento es posible por medio de seguidores de voltaje que refuerzan la señal proveniente del electrodo, para esta parte se hizo uso de un amplificador OPA4277P, posteriormente se somete a una amplificación ya que la señal que se obtiene del musculo es demasiado pequeña (del orden de mv) para lo cual utilizamos dos resistencias de 100kΩ para obtener una ganancia de 248, se hizo uso de un amplificador INA129P. La segunda parte, es el filtrado en el proyecto se usaron filtros activos del tipo Sallen Key son filtros activos, se utilizó un filtro pasa banda que se forma de la unión de un filtro pasa bajas (F.P.B.) y  pasa altas (F.P.A.) donde el filtro pasa bajas nos permite atenuar las frecuencias altas y medianas superiores que no entran dentro de la frecuencia de corte la cual es de 500hz y deja que pasen las frecuencias bajas que están dentro de la frecuencia establecida, por otra parte el filtro pasa altas (F.P.A.) nos permite detectar las frecuencias que están por arriba de la frecuencia del corte que es de 10 hz y que de igual manera atenúa las señales inferiores chicas y medianas, para estos circuitos se usó un amplificador OPA2277P haciendo uso de componentes como capacitores de poliéster de 15 nf y resistores de 1MΩ, 22KΩ. Para poder realizar las pruebas y para adquirir la señal EMG se implementó un circuito que proporciona seguridad al usuario al momento de realizar una prueba, debido a que estamos trabajando con instrumentos para visualizar la señal y estos están conectados a la línea de alimentación directamente se utilizó un amplificador ISO124P donde su principal función es aislar eléctricamente una etapa de otra.  La primera parte del ISO es alimentada por medio de batería de 9v conectadas en serie que proporcionan nuestros voltajes VDD1, VSS1 y GND1, la segunda parte del ISO es alimentada por una fuente bipolar que nos permite por el momento la visualización de la señal mediante el uso de un osciloscopio Tektronix que a su vez nos permite el almacenamiento de la señal obtenida.


CONCLUSIONES

En la estancia de verano se lograron los objetivos previos que era realizar la adquisición de una señal mioeléctrica así como adquirir conocimientos teóricos de la rama biomédica, el acondicionamiento de la señal que se adquirió resultó adecuado ya que nos basamos en parámetros de frecuencias establecidos que iban desde los 10 - 500 Hz, que sirvieron para determinar cuáles serían las adecuadas a considerar para el proyecto, de igual forma para los amplificadores se hizo investigaciones previas para conocer cuáles serían los ideales que lograrían amplificar la señal que estaríamos detectando del musculo, el filtrado que se realizó dentro del circuito logró detectar frecuencias hasta el rango que marcaba la frecuencia de corte en el caso de F.P.B. hasta los 500 Hz, en el caso del F.P.A. hasta los 10 Hz y las frecuencias que se probaron  para ver qué tan eficaz fue el filtro que se realizó, efectivamente atenuaba las que excedían el límite para que de esta manera nuestra señal al visualizarla fuera lo más clara posible, se hicieron pruebas con diferentes usuarios para medir su diferencia de potencial que proporcionaban al realizar las contracciones del musculo bíceps y luego mantener el musculo relajado se llegó a medir voltaje que rondaba desde los 2.00 hasta los 7.00 mv, se espera que más adelante se hagan pruebas de aislamiento eléctrico para verificar que el circuito sigue teniendo la misma eficacia que cuando los componentes electrónicos se colocaron. El proyecto aún es extenso pues se espera que más adelante se realice pruebas más específicas con las pinzas funcionales de la mano identificando cuales son las principales, procesarlas en una tarjeta de adquisición de señal como es el caso de la myDAQ de National Instrument esto con el propósito de leer la señal que es lo que nos está diciendo como con el propósito de que se logre realizar una prótesis mioelectrica accionada y que sea funcional para proporcionarla a un paciente candidato con el cual se permita comprobar que el proyecto es verídico.
Barrientos Correa Daniela, Instituto Tecnológico de Acapulco
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO


MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO

Barrientos Correa Daniela, Instituto Tecnológico de Acapulco. Tamay Canché José Eduardo, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico de Estudios Superiores de Valle de Bravo, cuenta con un sistema de información en el cual, tanto alumnos como personal docente y administrativo puede consultar, mediante una intranet, la información de cada uno de los usuarios registrados, así como realizar diversos trámites, como puede ser, en caso de los alumnos, la consulta de sus calificaciones finales, el registro de una o más actividades complementarias para su ciclo escolar en curso, o en el caso de docentes y directivos, consultar sus plantillas de trabajo, planes de estudio, realizar horarios de actividades, etc. Actualmente, el sistema sufre algunos inconvenientes. Uno de ellos, consiste en la asignación de privilegios al personal docente, administrativo, y alumnos, de acuerdo tipo de usuario, sin embargo, se requiere privilegios adicionales que no se encuentran dentro un grupo establecido, específicamente el personal de la institución. Debido a esto, algunos trabajadores que cuentan con funciones adicionales a las de su perfil, no pueden hacer uso de módulos fuera de su grupo establecido.



METODOLOGÍA

Debido a la problemática descrita anteriormente, se realizó un proceso de análisis del funcionamiento del sistema de información del Tecnológico de Estudios Superiores de Valle de Bravo, sobre todo en la estructura de la base de datos. Una vez finalizada la fase de análisis, se ha llegado a la conclusión de proponer la siguiente solución: realizar un catálogo de privilegios para ser asignados a los usuarios al momento de su registro, en el cual estén contenidos los diversos permisos o funcionalidades a los que pueden acceder los empleados cuando estos le son asignados, de esta manera, se busca que, lejos de usar plantillas predefinidas de permisos (roles), dichos privilegios sean asignados de acuerdo a la necesidad de cada usuario, propiciando un funcionamiento óptimo del sistema. Se espera lograr dicha solución, relacionando la nueva tabla de privilegios con la tabla de usuarios, para que, de esta manera, se identifiquen los permisos con que cuenta cada uno de ellos, y de ser necesario, posteriormente agregar más permisos a los mismos, los cuales se almacenarían en la base de datos. Se tiene contemplado que, a partir de estos permisos registrados para cada usuario en la base de datos, se muestre un menú para hacer uso de las diversas funcionalidades que tendrá permitidas, descartando la creación de múltiples menús para los usuarios, debido a la poca factibilidad que estos representan en cuanto a la optimización del sistema, incorporando así, un menú dinámico, que este en función de los permisos que tenga cada usuario. Es importante mencionar que, se busca realizar las actividades ya mencionadas, con la base de datos proporcionada por los asesores de investigación, lo cual implica una reducción de tiempo en cuanto al desarrollo, puesto que, solo se tendrían que agregar las tablas pertinentes. Aunado a ello, esta solución se desarrollará, en el framework de Laravel, un entorno que optimiza el trabajo en gran medida, gracias a los beneficios que este brinda.


CONCLUSIONES

Durante la estancia de verano, con el fin de mejorar la productividad y el rendimiento de una organización como lo es el Tecnológico de Estudios Superiores Valle de Bravo fue fundamental evaluar y analizar las técnicas que se utilizaron para desarrollar el módulo de acceso al sistema de información, y de esta forma, para poder lograr su eficacia y eficiencia en la gestión de sus usuarios, se tuvo que modificar el diseño de la base de datos, creando un nuevo modelo relacional con cardinalidades, así como un diagrama de flujo y el maquetado, por ende, se utilizaron nuevas metodologías de trabajo.
Barrios Vergara Luis David, Corporación Universitaria del Caribe (Colombia)
Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO SERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA, TRáFICO Y CONTAMINACIóN EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.


MICRO SERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA, TRáFICO Y CONTAMINACIóN EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.

Barrios Vergara Luis David, Corporación Universitaria del Caribe (Colombia). Fernandez Vertel Sebastian David, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México es una de las ciudades más habitadas del planeta lo que ha ocasionado un alto índice de contaminación y sobrepoblación, haciendo esta última que la demanda de uso de transporte sea excesiva, dando como resultado la congestión del tráfico terrestre. Asimismo, para 2019 México desplazaría a Japón del décimo lugar en habitantes. La movilidad es un problema tanto local como global que se ve muy repercutido en la ciudad de México, la cual, a lo largo del tiempo.   



METODOLOGÍA

Se desarrolló un servicio de notificación que le proporcione al usuario mostrar los índices de la calidad del aire en la zona en la que se encuentra, notificaciones para considerar precauciones a partir del nivel de contaminación que hay en dicha zona de la ciudad, y por último, pero no menos importante, recomendaciones para usuario. La implementación de esta aplicación ayudara a evitar que las personas padezcan de enfermedades o malestares por exposición a altos niveles de contaminación, tomar conciencia de la contaminación ambiental, así como el elegir alternativas de modo de traslado más ecológicas.   Para dicho desarrollo lo primero que se realizo fue la Selección del crawler y web scraper para el recopilado de información en Twitter de acuerdo a los siguientes criterios de búsqueda y recopilación (Crear tabla comparativa de las herramientas):   Geolocalización (regiones o coordenadas) Keywords Tiempo Usuario (cuenta verificada, antigüedad...)   Por lo consiguiente se definió la estructura de la base de datos en MongoDB, con la obtención de una pequeña muestra (100 tweets aprox.) de diferentes tiempos, usuarios y localizaciones para modelar. Para dicha muestra fue necesario hacer una limpieza y preparación de dichos datos, para finalmente integrarlos a la base de datos.   También se realizó un scraping de la página web oficial de la calidad del aire de CDMX para obtener datos en tiempo real de lo que sucede en las estaciones localizadas en cada una de las delegaciones de la ciudad.   Se investigaron algoritmos, herramientas y frameworks para el procesamiento de lenguaje natural, análisis de sentimientos y predicciones, en los lenguajes Java, C, C# o Python   Por último, se selección de la tecnología para desarrollar el backend y frontend, para la visualización de la información y servicio de notificaciones a través de una aplicación web progresiva que informe y dé recomendaciones a las personas. Esto fue representado en un semáforo de forma gráfica, de tal modo que muestre al usuario el índice de calidad de aire que hay en la zona en que se encuentra el usuario en la Ciudad de México y zona metropolitana.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la recolección de datos de una red social (Twitter), así como el manejo de ellos en una base de datos no relacional (Big Data), se experimentaron e investigaron nuevas herramientas para el desarrollo del proyecto.   En el desarrollo del proyecto se extendió ya que es un tema muy complejo y se tuvieron que usar herramientas previamente no dominadas y conocidas, haciendo esto un obstáculo para la terminación del proyecto.  
Barrozo Preciado Karla Guadalupe, Instituto Tecnológico de Los Mochis
Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro

MONITORIZACIóN Y CONTROL DE EQUIPO INDUSTRIAL POR MEDIO DE TECNOLOGíAS DE INDUSTRIA 4.0


MONITORIZACIóN Y CONTROL DE EQUIPO INDUSTRIAL POR MEDIO DE TECNOLOGíAS DE INDUSTRIA 4.0

Barrozo Preciado Karla Guadalupe, Instituto Tecnológico de Los Mochis. Lerma Sarabia Fernando Alberto, Instituto Tecnológico de Los Mochis. Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el laboratorio de sistemas tecnológicos aplicados de la Universidad Politécnica de Querétaro se cuenta con distintos tipos de cámaras para estudio de la corrosión cosmética de autopartes plásticas. En particular, se desarrollan pruebas durante largos periodos de tiempo, lo cual demanda un monitoreo y control a distancia de manera continua y permanente. Considerando los horarios del personal, y la logística de acceso al laboratorio, los equipos no pueden ser monitoreados las 24 horas los 7 días de la semana. Por lo tanto es fundamental desarrollar un sistema que permita monitorear y controlar los equipos de ensayo de manera remota y en tiempo real.



METODOLOGÍA

La primera etapa del proyecto consistió en consultar toda la información referente al controlador de temperatura del horno de pruebas. Se investigó la página web del fabricante del equipo. Posteriormente se realizaron pruebas de configuración de comunicación entre el controlador y la computadora con un software del fabricante. No obstante, los resultados estaban demarcados por errores de comunicación. A partir de los códigos de error, el fabricante SAMWONTECH ofrecio un servicio de soporte técnico postventa.  Una vez solucionado este problema, se Instaló el programa Serial Port Monitor y se configuró los protocolos con ayuda de nuestro asesor. Finalmente, se logró establecer la comunicación entre el controlador del horno y la computadora de acceso remoto. Por otra parte, se trabajó de manera paralela en el desarrollo de la aplicación móvil que es el medio por donde se va a monitorear y controlar el equipo de manera remota. Los datos adquiridos por el controlador, son transmitidos a la nube en tiempo real, mediante un dispositivo Arduino. Igualmente, este dispositivo tiene un módulo RS485 y un termopar tipo K para estar tomando las temperaturas del horno de manera externa al controlador. La plataforma firebase fue utilizada para la implementación de la base de datos, con enlace a la aplicación móvil en Android. Actualmente ya se cuenta con la aplicación móvil terminada, el montaje del Arduino con sus módulos, y la base de datos. Están pendientes los comandos de trama para comunicación serial RS-485 directamente desde la aplicación móvil.


CONCLUSIONES

Durante esta estancia de verano obtuvimos conocimientos de Arduino (montaje de módulos y código), manejo de controles de temperatura industriales, protocolos de comunicación de tipo industrial, bases de datos en la nube, sistemas embebidos y scada. El retraso que tuvimos por los inconvenientes al hacer la comunicación, dilató el tiempo de culminación del proyecto. Sin embargo, se está estudiando la estructura de la trama que envía el controlador para subir y bajar la temperatura. Esperamos que al tener completos los comandos de operación del horno se pueda desde la aplicación móvil controlar y monitorear las variables del equipo.
Bartolo Silverio Lizbeth, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas

PROPUESTA DE MEJORA DE PRODUCTIVIDAD EN LA FABRICACIóN EN SERIE DE LOSA TéRMICA EN TUXTLA GUTIéRREZ CHIAPAS.


PROPUESTA DE MEJORA DE PRODUCTIVIDAD EN LA FABRICACIóN EN SERIE DE LOSA TéRMICA EN TUXTLA GUTIéRREZ CHIAPAS.

Bartolo Silverio Lizbeth, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El siguiente documento presenta una propuesta de mejora en la producción artesanal basada en el desarrollo de tecnologías sustentables, bajo la línea de investigación de vivienda, contexto y sustentabilidad aplicada en prototipos experimentales desarrollados en la facultad de arquitectura en la UNACH en Tuxtla Gutiérrez Chiapas para la transferencia tecnológica [1]en viviendas de interés social y trabajando bajo el método de aprender haciendo. Además estas tecnologías tiene el objetivo de maximizar el confort térmico dentro de la vivienda y minimizar la transferencia de calor al interior que se origina principalmente a través de la envolvente y el techo de la misma, todo esto bajo el marco del programa interinstitucional de investigación Delfín 2019.   [1] Es una forma de obtención de conocimientos, ideas, métodos, diseños y técnicas para mejorar los procesos del país y con ello el desarrollo de las formas o procesos de producción favoreciendo la competitividad del país que recibe las entregas (Hassan, Jamaluddin, & Menshawi, 2015).



METODOLOGÍA

Por lo anterior se seleccionó el proceso de fabricación artesanal para la losa térmica a través de la metodología para el desarrollo de proyectos de investigación a través de la cual se definió el planteamiento del problema por lo que se propone una mejora de la productividad[1] a través del diseño de un proceso de producción en serie y la cual tiene su objetivo en la mejora de procesos para hacerlos más eficientes[2], eficaces[3] y competitivos. (Duran, 2007). Por lo anterior se procedió a realizar un diagrama de flujo de actividades en el proceso posterior a ello mediante el software ProModel se programaron todos los elementos involucrados en la operación del proceso de prefabricado de la losa térmica. [1] una razón matemática entre el valor de todos los productos y servicios fabricados o prestados y el valor de todos los recursos utilizados en hacer o prestar el servicio, en un intervalo de tiempo dado (Duran, 2007). [2] en un proceso de fabricación, debe tener estrecha relación con el costo-beneficio que se esté generando puesto que para que proceso sea eficiente los ingresos deben de ser mayores a los egresos de llevar a cabo el proceso (Rodriguez, Caldera, & Vega, 2007). [3] se define como el logro exitoso de los objetivos establecidos, es el grado en que se satisfacen las necesidades del cliente (Rodriguez, Caldera, & Vega, 2007).


CONCLUSIONES

En la obtención de los resultados una vez simulado el modelo el cual tuvo una duración de 3 horas y 11 minutos de obtuvo una mejora en los tiempos de operación en las distintas áreas de trabajo (locaciones) así como sus respectivos porcentajes de utilización y se tuvo una secuencia de actividades y mejora de tiempos oscilando entre 15 y 20 minutos para cada unidad de losa térmica. De esta manera se obtuvieron oportunidades de mejora en el proceso para mejorar el sistema de producción y minimizar la generación de cuellos de botella[1] que evitan que el proceso sea más rápido y eficiente. 1] Son la principal razón para que la empresa no tenga ganancias ilimitadas es por los llamados factores limitantes, denominados por el autor como restricciones o "cuellos de botella (Goldratt, 1990).
Barzalobre Cruz Ulises, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango

SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE


SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE

Aguayo Tut Oscar Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Barzalobre Cruz Ulises, Instituto Tecnológico Superior de Huauchinango. Castro Sánchez María Luisa, Corporación Universitaria del Caribe (Colombia). Ventura Ahumada Víctor Manuel, Universidad de Colima. Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diversos dispositivos que le ayudan a las personas con discapacidad visual a utilizar el sistema Braille, un ejemplo de ello son las distintas impresoras y máquinas de escribir que atañen la estructura de éste sistema, pero dichos dispositivos solo suplen la necesidad básica de comunicación e intercambio de conocimiento y en estos tiempos de tecnología e innovación eso ya no es suficiente, puesto que ahora la preocupación tiene una trascendencia más avanzada y enfocada a la comodidad de las personas que utilizan este sistema y por ende los dispositivos, además de lo expuesto anteriormente hoy por hoy no existe un sistema ergonómico que integre los sistemas de escritura, lectura e impresión para el sistema Braille, que le permita a la persona con discapacidad visual escribir de forma cómoda, leer lo que está escribiendo, tener la oportunidad de corregir si tuvo algún error y luego imprimir lo escrito.



METODOLOGÍA

Para el diseño del sistema de tracción se tomó en cuenta el funcionamiento que debe obedecer en el dispositivo y con base a eso se diseñaron los componentes de éste sistema que son dos pares de rodillos que se encuentran unidos por un eje, 4 micro rodillos, una rampa y un chasis en el que se encontraran todos los sistemas. En este mismo sentido y para el diseño del sistema de impresión se tomó el mismo criterio que para el primer sistema y con base a ello se diseñaron cada una de las estructuras del sistema las cuales son el diseño del recorrido que va a realizar los punzones, los punzones que se integraron a los solenoides y por último la estructura de soporte de los solenoides. Basándose en los diseños descritos anteriormente, se procedió a la manufactura de cada uno de los componentes de cada sistema, tomando en cuenta que no todos son maquinables y por ende solo se realizaron aquellos que si cumplían con la condición, recalcando que éste proceso se dividió en dos partes, una que fue realizada en la impresora 3D y la segunda en el CNC, para la primera solo fue necesario el diseño de las piezas los cuales se realizaron en el software SolidWork, luego de esto se imprimieron las siguientes piezas: los rodillos, los micro rodillos, las estructuras de soportes de los micro rodillos, la camisa de soporte de  los solenoides, los rodillos de tracción para la banda y los rodillos de riel para la banda. Para la segunda parte se apoyó en el software MastercamX5, en el cual se estableció el tipo de maquinado de cada pieza, el tipo de cortador o broca a utilizar para la fabricación y se obtuvo el código G, el cual fue introducido en el CNC, para la fabricación de las piezas, es importante mencionar que las piezas maquinadas en el CNC fueron: las bases laterales del chasis, las bases laterales de la rampa, el chasis, la base de soporte para el motor NEMA y la base de soporte para el motor de 5V, luego de la fabricación de las piezas se integró todas las piezas de los sistemas. En éste mismo sentido se procedió con el dimensionamiento del sistema eléctrico, estructurando un circuito de alimentación con batería de respaldo el cual lo integran diversos componentes como resistencias, condensador, diodo, SCR, su funcionamiento se encuentra fundamentado en la conmutación entre la energía eléctrica proporcionada por la red y la fuente de respaldo, éste se puede analizar en dos momentos, uno cuando existe alimentación por parte de red eléctrica y otro cuando existe una interrupción en éste flujo, la primera parte permite el suministro de energía para los diversos componentes del sistema y de la misma manera cargar a la batería de respaldo, cabe destacar que cuando se encuentra en este estado el circuito el tiristor se encuentra por un pase de cero, esto es causado por la respuesta positiva que existe del ánodo con respecto al cátodo denominado como polarización inversa. En el segundo momento se alimentará el circuito por medio de la batería de respaldo, ocasionando que en el SCR exista una polarización directa y de forma simultanea exista una corriente suficiente a través de la compuerta que lo active permitiendo el flujo de corriente hacía todos los componentes del sistema. Tomando en consideración cada uno de los sistemas que se diseñaron se procedió con el diseño ergonómico del dispositivo en el que por una parte se tomó en cuenta la ubicación espacial de la integración de todos los sistemas y por la otra se enfocó en el control de escritura del dispositivo, cabe destacar que para poder diseñar éste control se realizó un estudio  sobre las dimensiones de la mano de una muestra de 30 personas y sobre la cual se tomaron medidas basándose en la medidas antropométricas las cuales fueron la largura de la mano, la largura de la palma y la altura de ésta misma, el diámetro de agarre, la distancia del final del pulgar hasta el final del dedo índice y la largura del dedo índice, medio, anular y pulgar, y a partir de éstos se estructuró la forma del control y la ubicación de los botones de escritura.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir diversos conocimientos relacionados al diseño, la manufactura, el sistema eléctrico, la ergonomía y el manejo de varios software de diseño y manufactura como Solidwork y MastercamX5, en los que se realizaron los diferentes diseños de la conformación mecánica del dispositivo y sobre el cual se puede decir que si se quiere obtener una propuesta eficiente se debe realizar múltiples pruebas para así encontrar la manera más óptima, posterior a ello y basándose en lo aprendido cabe destacar que para ampliar los conocimientos adquiridos se aprendió a utilizar la máquina CNC, para realizar el maquinado de las piezas. Por otra parte, en el sistema eléctrico se puede decir que si se desea garantizar un flujo eléctrico continuo y confiable en todos los sistemas mencionados anteriormente en caso de que exista de una interrupción en el suministro de energía proporcionada por la red eléctrica se hace necesario la implementación de una batería de respaldo en el que el circuito se fundamente en la implementación de un tiristor SCR.
Bastian Leyva Francisco Javier, Universidad Autónoma de Guerrero
Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León

CARACTERIZACIóN DE MATERIALES CEMENTANTES (CENIZA DE BAGAZO DE CAñA DE AZúCAR, HUMO DE SíLICE Y ESCORIA DE ALTO HORNO) EN CORROSIóN


CARACTERIZACIóN DE MATERIALES CEMENTANTES (CENIZA DE BAGAZO DE CAñA DE AZúCAR, HUMO DE SíLICE Y ESCORIA DE ALTO HORNO) EN CORROSIóN

Bastian Leyva Francisco Javier, Universidad Autónoma de Guerrero. Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La corrosión hoy en día es una problemática bastante fuerte para la industria de la construcción, ya que este fenómeno afecta dicha industria de manera muy impactante. Ocasionando perdidas de millones de pesos o en el peor de los casos quitando vidas humanas. Es por tal motivo que se hacen diversos estudios científicos, como el presente, la corrosión es un enemigo para esta industria, ya que a la hora en que nosotros construimos dejamos por un lado este enemigo que es la corrosión. Hacemos mas fuertes nuestras estructuras o que estén bien cimentadas, nos olvidamos de la corrosión ignorando que tal fenómeno daña a una edad muy prematura lo que realizamos y acortando la vida nuestras construcciones.



METODOLOGÍA

Para la presente investigación se realizaron cubos de morteros de 5cm x 5cm con los siguientes materiales: Cemento CPC 30R Arena de la región (Nuevo León) Acero al carbono Agua A/C 0.60 Adiciones cementantes: Ceniza de bagazo de caña de azúcar Escoria de alto horno Humo de sílice Se fueron realizando los cubos de morteros sustituyendo a un 5%, 10% y 15% el cemento por cada una de las adiciones cementantes. Fueron sometidos a dos diferentes soluciones NaCl y K2SO4. Para el presente trabajo se emplearon las siguientes técnicas electroquímicas: Resistencia a la polarización lineal (RPL) Medición de potenciales (Ecorr) Microscopio electronico de barrido (MEB)


CONCLUSIONES

Con base a la presente investigación realizada se concluye que el uso de las adiciones cementantes resulta ser benéfica cuando los cementos se encuentran en un sistema expuesto a sulfatos, ya que se pudo comprobar lo que marca la literatura, que los cloruros afectan el acero de refuerzo y los sulfatos el concreto o cementos.                                                                                                       
Bastidas Zavala German Adrian, Universidad Autónoma de Sinaloa
Asesor: Dr. Leonel Soriano Equigua, Universidad de Colima

ALGORITMOS DE BEAMFORMING COORDINADO APLICANDO INVERSIóN DE MATRICES Y DESCOMPOSICIóN DE VALORES SINGULARES


ALGORITMOS DE BEAMFORMING COORDINADO APLICANDO INVERSIóN DE MATRICES Y DESCOMPOSICIóN DE VALORES SINGULARES

Bastidas Zavala German Adrian, Universidad Autónoma de Sinaloa. Parra Monzón Kimberly Maritsa, Universidad Autónoma de Sinaloa. Asesor: Dr. Leonel Soriano Equigua, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Con el incremento del número de usuarios de telefonía celular y redes de área local inalámbrica, aunado a la demanda de altas tasas de transmisión y recepción en bits por segundo, es necesario modernizar o proponer nuevos sistemas de telecomunicaciones inalámbricos que puedan soportar las necesidades requeridas por los usuarios. En particular la capa física del sistema de telecomunicaciones puede tomar ventaja de la aplicación de antenas múltiples tanto en el transmisor como en el receptor, para ello es necesario estudiar e innovar técnicas o métodos de procesamiento de señal que permitan tomar ventaja para alcanzar altas capacidades de enlaces. En específico el enlace de bajada es el que demanda mayor tráfico entre los usuarios.



METODOLOGÍA

En busca de mejorar los enlaces de bajada para la transmisión de datos, se realizó una simulación de un sistema MIMO multiusuario con Beamforming Coordinado utilizando dos métodos: inversión de matrices y descomposición de valores singulares. Para llevar a cabo el algoritmo, es necesario realizar una serie de distintos pasos que se mencionan brevemente a continuación. Se inicializan los vectores de combining de los usuarios a vectores unitarios. Se define una matriz de canal efectiva. Se calculan los vectores de beamforming. Se verifica el criterio de parada. Como nota, el algoritmo termina cuando se cumple un número máximo de iteraciones o la diferencia entre el anterior y actual beamforming es muy pequeña. Se cuantifican los vectores de beamforming. El transmisor selecciona el índice del libro de códigos que corresponde al código que maximiza el SINR y así obtener el vector cuantizado. La cuantización se realiza por usuario. Se cancela la interferencia residual. Se envía el índice de libro de códigos, a través de un enlace de feedfordward limitado. El receptor recibe el índice, se extrae el vector del libro de códigos correspondiente al índice y se calcula el vector combining empleando MRC. Como parte final de las simulaciones realizadas se obtuvieron gráficas de desempeño SNR vs sumrate, las cuales permiten observar que entre mayor SNR exista, la transmisión de datos alcanza mayores velocidades en bits por segundo.


CONCLUSIONES

El objetivo principal de este verano científico, consistió en analizar y programar métodos eficientes para el cálculo de los vectores de beamforming y combinación en un sistema MIMO multiusuario involucrando CBF (Beamforming Coordinado), aplicando los métodos de inversión de matrices y descomposición de valores singulares. Los métodos revisados contemplan cuantización de baja complejidad y se desarrollaron en una plataforma de simulación a través del software Matlab. Al término de la estancia se puede concluir que es de vital importancia mantenerse actualizado en los diversos temas acerca de las telecomunicaciones, así como, conocer el proceso que se lleva a cabo en la transmisión de datos de las diversas tecnologías de uso diario que tienen un gran auge actualmente. Cabe destacar que parte de los términos empleados en esta investigación eran totalmente desconocidos para nosotros ya que no estábamos tan adentrados al área de telecomunicaciones.
Bautista Gongora Jasivy Alejandra, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DESARROLLO DE UN PRODUCTO SUSTENTABLE


DESARROLLO DE UN PRODUCTO SUSTENTABLE

Bautista Gongora Jasivy Alejandra, Consejo Quintanarroense de Ciencia y Tecnología. Be Poot Leticia Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

CASA-UNAM es una propuesta de solución a los retos de vivienda, que se presentan en la Zona Metropolitana del Valle de México, la cual se elaboró y desarrollo por más de dos años de trabajo teórico-práctico. Este prototipo considera los conceptos de Urbanismo, Arquitectura, Sustentabilidad, Nuevos Sistemas y Tecnologías, Eficiencia Energética, Balance Energético, Procesos de Construcción, Innovación, Desempeño y Funcionalidad, así como la Comunicación social. Se plantea un sistema constructivo que integra las tecnologías y sistemas que llevan a la vivienda a un punto óptimo de desarrollo en los temas sociales, ambientales y económicos. Una de las principales aplicaciones y objetivos del proyecto, es ayudar a comunidades o viviendas donde sea complicado y costoso construir una casa convencional. Por esta razón, algunas de las características del proyecto son ser adaptable a cualquier superficie, ligero, flexible y de un precio accesible para personas de bajos recursos. Retomando características del proyecto, se pretende el rediseño de un nuevo módulo para la elaboración de una vivienda sustentable aplicado a una comunidad de Sabidos y así como cabañas sustentables para un complejo turístico en Xul-Ha, ubicados en el estado de Quintana Roo. Se pretende realizar a base de Bambú y blocks de Sargazo, materiales resistentes, sustentables, fácil producción y manejo, realizados en el mismo estado, apoyados de otros materiales de la región.



METODOLOGÍA

El proyecto CASA-UNAM se concibió mediante un concurso en donde participó la UNAM (Decatlón Solar Europa2014) que ganó el primer lugar en la categoría de Ingeniería y Construcción, entre otros reconocimientos de dicho concurso. Al ser un proyecto relevante para la arquitectura y construcción, se planteó la idea de poder ser aplicada a diversos tipos de zonas de la República Mexicana, siendo Quintana Roo nuestro lugar de origen tenemos información sobre el tipo de escases que se tiene en las comunidades que se tienen, es así como surge la idea de crear un prototipo con bases del proyecto CASA-UNAM, ampliando el panorama en cuanto a materiales y procesos constructivos. Una vez analizada la información del proyecto antes mencionado, se realizaron las especificaciones y pautas del lugar donde se ubicará dicho proyecto, ya que se tiene que adecuar al contexto de su establecimiento. En este caso las comunidades de Sabidos y Xul-Ha constan de clima y características diferentes al del estado de México, por lo cual se especificó los aspectos de mayor relevancia que se tomarían en cuenta: Lugar, terreno de ubicación, clima, asoleamiento, vientos dominantes, etc. Información de la comunidad, densidad, nivel de escolaridad, tipo de trabajo, accesibilidad. Ambiente de confort, calidad, contacto con la naturaleza. Lograr mayor familiarización con el entorno, cuidado de la naturaleza, protección de los recursos naturales. Y espacios del proyecto. Al recopilar información más específica de las comunidades a trabajar se conocieron como son los habitantes, las costumbres y el tipo de clima que se tiene. Así se llegó a la conclusión de usar materiales y sistemas constructivos de la zona, como lo son los blocks convencionales de concreto, no obstante encontramos que en el mercado está surgiendo la tendencia de materiales innovadores y sustentables como lo son los blocks de Sargazo, y mediante un análisis de comparación en diagramas de polaridad y en tablas de criterios de evaluación de dichos productos, se eligió como el material más óptimo para su aplicación los blocks de Sargazo, ya que resultaron ser más sustentables y económico para el tipo de proyecto que se está realizando. Otro material analizado para la aplicación en el proyecto fue el bambú, gracias por su resistencia, fácil manejo y por el costo reducido se tomó como la mejor opción para reemplazar el acero. Con dicha información procesada se realizaron análisis más específicos, como los son de los usuarios, su viaje de ruta que mostraba el tipo de usuario en específico se tiene, al igual que el escenario en donde se va a trabajar y cuáles son las necesidades por resolver, dando como resultado las primeras alternativas de solución que se pueden lograr. Se procedió hacer el diseño del módulo a emplear, así como los métodos de construcción a utilizar. Se acordó tomar en cuenta las características del proyecto CASA- UNAM para una mejor solución. Definiendo lo anterior se realizaron dos proyectos diferentes (uno en cada comunidad), pero con las mismas alternativas y solucionando las necesidades que se tenían en cada una. A continuación, se presenta la descripción de cada proyecto. El primero es una casa sustentable para la comunidad rural de Sabidos, que tiene como finalidad disminuir el costo y la creación de una vivienda digna para las familias. El segundo proyecto es el diseño de modelos diferentes de cabañas, así como sus espacios necesarios para diseñar un complejo ecoturístico en la comunidad de Xul-Ha. Características similares aplicadas en los dos proyectos: Materiales: bloques de sargazo, bambú y materiales de la región. Estructura de CASA-UNAM elaborada a base de material de acero y aplicado. en este proyecto por medio del material Bambú. Muros de sargazo. Uso de paneles solares. Uso de canaletas para recolección de aguas pluviales.


CONCLUSIONES

En la estancia verano delfín se realizó un estudio sobre materiales sustentables que pueden ser aplicados en zonas de Quintana Roo, así como saber cuáles son los óptimos al tipo de clima y suelo de donde se van a emplear. Dichos resultados se daban por medio de diversas aplicaciones de análisis con respecto a los usuarios existentes, para ello se tuvo que realizar estudios de la zona, entorno y condiciones que se tienen, esto ayudando a saber cuales son las necesidades reales, logrando así la mejor solución o alternativa, sin dejar a un lado las técnicas de sustentabilidad.
Bautista Licona Rosa Isela, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas

PROPUESTA DE UN SISTEMA DE PRODUCCIóN, PARA LA FABRICACIóN EN SERIE DE VIGA LOSA


PROPUESTA DE UN SISTEMA DE PRODUCCIóN, PARA LA FABRICACIóN EN SERIE DE VIGA LOSA

Bautista Licona Rosa Isela, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

A lo largo de la historia el ser humano como impulsor y materializador ha demostrado que los procesos de transformación de la materia prima y los avances tecnológicos, industriales, políticos y sociales entre otros, son capaces de ser mejorados de acuerdo a experiencia y conocimientos que son la principal base para la mejora continua. (Lugo, 2015). Debido al desarrollo de las tecnologías y un mercado cada vez más globalizado, es necesario apuntar a la maximización de la eficiencia de los procesos productivos, elevar los niveles de productividad, reducción de costos y aumento de la rentabilidad para así lograr una ventaja competitiva de carácter sustentable, ya que no solo es necesario hacer las cosas bien, si no más importante es hacerlas cada día mejor.  (Lugo, 2015).  



METODOLOGÍA

La investigación se realizó con una metodología general del proyecto en la cual se parte de una idea primaria, una teoría y un diagnóstico de la situación actual, que nos da una visión más compleja para poder identificar la problemática que se pretende resolver o realizar una aportación de mejora, a partir de ello se indaga en el estado del arte a fin de poder identificar las investigaciones previas sobre el tema, que se hallan desarrollado en los últimos años para poder continuar la investigación y sustentar respecto a ello. Del estado del arte se genera una hipótesis, se realizan las evaluaciones previas que puedan identificar si se cumple o se rechaza y así poder realizar una propuesta alternativa que podría o no dar solución a la problemática. (Gabriel Castañeda Nolasco, 2018) Base a esta metodologia además de integrar la transferencia tecnológica, se han desarrollado tecnologías específicas para techos de la vivienda bioclimática. Una de estas tecnologías es llamada viga losa, consiste en componentes prefabricados para la construcción de techos que reducen la ganancia térmica al interior de la vivienda. Se estudió el proceso de producción de esta tecnología para integrarla al concepto de sistema de producción[1] en serie, ya que debido a la búsqueda de la sustentabilidad, es necesario maximizar la eficiencia de los procesos productivos, elevar los niveles de productividad, reducir los costos (monetarios y ambientales) para lograr una ventaja competitiva de carácter sustentable (Lugo, 2015). En primer lugar se desarrolló un mapeo de procesos, de igual manera se definieron las variables de medición para establecer las comparaciones básicas de un antes y un después. Luego se propusieron estrategias de mejoras que fueron simuladas.                    


CONCLUSIONES

Se establecieron estrategias para hacer la producción de viga losa más eficiente, la cual está en proceso de prueba ya que por las limitaciones de tiempo no se a realizado un trabajo de campo para obtener un análisis de tiempos actuales y observar si la propuesta es factible o no de acuerdo a lo establecido.
Bautista Rodríguez Katya, Instituto Tecnológico de Morelia
Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA


SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA

Bautista Rodríguez Katya, Instituto Tecnológico de Morelia. Hernandez Hernandez Stefhany Pamela, Instituto Tecnológico de Pachuca. Hernández Moreno Vianey, Instituto Tecnológico de Pachuca. Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Guanajuato al ser catalogada patrimonio de la humanidad y una de las ciudades más bellas de México, es una zona en la que según estudios de SECTUR (Secretaría de turismo), cada año incrementa el turismo nacional (92 %) e internacional (8%) en la capital del estado, a excepción del año pasado que tuvo un decremento significativo. El panorama es alentador, sin embargo, a pesar de que la ciudad cuenta con guías turísticas e información tangible acerca de algunos de los lugares emblemáticos todavía no existe alguna plataforma virtual donde se pueda acceder fácilmente a la información turística de cada uno de los sitios, eventos importantes, servicios, entre otros, de Guanajuato desde antes de la llegada del visitante, ya que la información encontrada en sitio muchas veces es insuficiente para satisfacer al cliente o en dado caso, inexistente. Actualmente el incremento del uso de las nuevas tecnologías ha tenido un gran impacto en la sociedad, ayudando en distintos sectores del país, entre ellos el turismo, creando clientes globalizados con grandes demandas. Debido a ello, es que a lo largo del presente proyecto, se utiliza una de las tecnologías en tendencia, la realidad aumentada o por sus siglas en inglés AR, pues con la creciente llegada de turistas, es importante utilizarla como una herramienta de apoyo para el usuario, mezclando elementos físicos y tangibles con elementos virtuales en tiempo real permitiendo que el visitante visualice e interactúe con la ciudad mediante un dispositivo tecnológico mejorando la comprensión y la experiencia turística independiente.



METODOLOGÍA

Por la naturaleza de la investigación,  fue necesario incluir la investigación de campo para poder conocer las necesidades del proyecto, al igual que la recolección de información de cada uno de los lugares que se pretende tener en la aplicación, ya que, al ser una investigación aplicada en la cual se quiere promover, aumentar y atraer el turismo en Guanajuato, se busca obtener la información relevante y necesaria para el turista y así crear una aplicación amigable para el mismo.   Para iniciar el proyecto, se comenzó con la recolección de información específica necesaria para satisfacer los requerimientos de los turistas; esta fue seleccionada gracias a las necesidades detectadas por cada una de las integrantes del equipo al conocer y vivir en la entidad guanajuatense. A partir de esta información, se prosiguió a efectuar un prototipo del diseño de la aplicación sobre el cual se estuvo trabajando a lo largo de todo el verano de investigación; se utilizó el programa de animación y desarrollo Unity para poder desarrollar la aplicación propuesta.  Se inició con la recabación de información de cada uno de los lugares emblemáticos, siendo esta los horarios, costos, dirección, información histórica y cultural del lugar y fotografías de cada uno de estos. Al mismo tiempo, se prosigue con el diseño de la interfaz de la aplicación y el diseño de experiencia para que al usuario le sea intuitivo y de uso fácil.  Transcurrido este proceso, al estar implementando la información de los lugares en el software, se llevó a cabo la implementación de los modelos 3D de cada uno de los lugares elegidos para el prototipo y de sus fotografías en la aplicación para poder obtener una lectura del lugar emblemático con ayuda de la AR; cada avance efectuado en la aplicación es probado en celulares para poder comprobar su óptimo funcionamiento. Una vez que ya se tiene el prototipo se procede a probarla en la ciudad de Guanajuato para poder comprobar cada uno de los elementos de la misma, y de ser necesario, la corrección de algún elemento de la aplicación. 


CONCLUSIONES

Durante la estancia de verano en la ciudad de Guanajuato se lograron concluir las metas iniciales de la fase preliminar del proyecto, aprendiendo del uso de las nuevas tecnologías, los programas digitales para la aplicación de información turística con realidad aumentada y al mismo tiempo, conocer la ciudad, su historia y arquitectura. Se espera que en un futuro tenga un impacto importante en la ciudad y en la comunidad turística haciendo que la experiencia del usuario sea de una manera interactiva y didáctica para conocer los lugares emblemáticos de una de las ciudades más importantes e históricas del país incrementando el turismo exponencialmente. De igual forma, que esta investigación sirva como ejemplo para su implementación en otras ciudades dentro de la República Mexicana.
Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.


MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.

Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango. Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango. Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca. Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca. Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de las tareas mas importantes en robotica es la deteccion de obstaculos, esta tarea ha sido estudiada por decadas, uno de los principales problemas en la misma es considerar la incertidumbre en los sensores, este problema se incrementa considerando los ambientes estructurados en los cuales debe navegar los robots de servicio. Entre las diversas opciones tecnologicas una de las mejores son los sensores ultrasonicos, que, aunque son complicados de modelar, su respuesta es rapida y segura para ser implementados en ambientes no controlados. Sin embargo, en el caso de la medicion con cierto tamaño y orientacion no sean visto por el sensor, o que en general aparezcan mas lejos de lo que realmente estan, para esto se necesita implementar un algoritmo para la cracion de mapas de ocupacion para la deteccion de obstaculos aplicado en un robot movil de servicio. Será diseñado en LabVIEW y mediante un análisis estadístico se construirá un modelo probabilista del sensor para mejor la detección, además de utilizar un modelo logarítmico para crear y fusionar los mapas temporales en un mapa global único.



METODOLOGÍA

Considerando un ambiente estructurado, en el cual navega el robot, es necesario considerar primero un modelo estatico del sensor que permita parametrizar el funcionamiento del sensor bajo incertidumbre. Considerando los parametros estadisticos y mediante una validacion estadistica es posible estimar el funcionamiento del sensor considerando que el valor no siempre es confiable. Extendiendo este analisis a un proceso dinamico, es posible considerar los efectos del movimiento del robot en la deteccion y como esta afecta en la incertidumbre, esto nos permite refinar la deteccion y tener una mejor respuesta en la contruccion del maoa y por lo tanto en la deteccion y despazamiento del robot en el ambiente. El modelo del robot considera diversos aspectos, como, por ejemplo: el espacio donde el robot se desenvolvera y el entorno del cual recibira informacion para establecer las instrucciones de programacion correctas. Fijar el valor de la velocidad a la cual el robot seguira una pared y asi determinara si el programa cumple con las restricciones establecidas.  


CONCLUSIONES

Es un proyecto muy viable que forja los conocimientos de practicantes de robótica, como de estudiantes de ingeniería en electrónica, mecatrónica, sistemas computacionales y en el área de control, por tanto se debe cumplir con ciertos conocimientos de las diversas ramas mencionadas para llevar a cabo éste proyecto. La finalidad de la práctica ha sido poner a prueba los conocimientos adquiridos a lo largo de los pequeños proyectos anteriormente realizados, ya que se necesita saber el manejo del sensor ultrasónico y del control y ajuste de la velocidad de los motores, para elaborar un programa que establece instrucciones al robot para seguir una pared.
Be Poot Leticia Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DESARROLLO DE UN PRODUCTO SUSTENTABLE


DESARROLLO DE UN PRODUCTO SUSTENTABLE

Bautista Gongora Jasivy Alejandra, Consejo Quintanarroense de Ciencia y Tecnología. Be Poot Leticia Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

CASA-UNAM es una propuesta de solución a los retos de vivienda, que se presentan en la Zona Metropolitana del Valle de México, la cual se elaboró y desarrollo por más de dos años de trabajo teórico-práctico. Este prototipo considera los conceptos de Urbanismo, Arquitectura, Sustentabilidad, Nuevos Sistemas y Tecnologías, Eficiencia Energética, Balance Energético, Procesos de Construcción, Innovación, Desempeño y Funcionalidad, así como la Comunicación social. Se plantea un sistema constructivo que integra las tecnologías y sistemas que llevan a la vivienda a un punto óptimo de desarrollo en los temas sociales, ambientales y económicos. Una de las principales aplicaciones y objetivos del proyecto, es ayudar a comunidades o viviendas donde sea complicado y costoso construir una casa convencional. Por esta razón, algunas de las características del proyecto son ser adaptable a cualquier superficie, ligero, flexible y de un precio accesible para personas de bajos recursos. Retomando características del proyecto, se pretende el rediseño de un nuevo módulo para la elaboración de una vivienda sustentable aplicado a una comunidad de Sabidos y así como cabañas sustentables para un complejo turístico en Xul-Ha, ubicados en el estado de Quintana Roo. Se pretende realizar a base de Bambú y blocks de Sargazo, materiales resistentes, sustentables, fácil producción y manejo, realizados en el mismo estado, apoyados de otros materiales de la región.



METODOLOGÍA

El proyecto CASA-UNAM se concibió mediante un concurso en donde participó la UNAM (Decatlón Solar Europa2014) que ganó el primer lugar en la categoría de Ingeniería y Construcción, entre otros reconocimientos de dicho concurso. Al ser un proyecto relevante para la arquitectura y construcción, se planteó la idea de poder ser aplicada a diversos tipos de zonas de la República Mexicana, siendo Quintana Roo nuestro lugar de origen tenemos información sobre el tipo de escases que se tiene en las comunidades que se tienen, es así como surge la idea de crear un prototipo con bases del proyecto CASA-UNAM, ampliando el panorama en cuanto a materiales y procesos constructivos. Una vez analizada la información del proyecto antes mencionado, se realizaron las especificaciones y pautas del lugar donde se ubicará dicho proyecto, ya que se tiene que adecuar al contexto de su establecimiento. En este caso las comunidades de Sabidos y Xul-Ha constan de clima y características diferentes al del estado de México, por lo cual se especificó los aspectos de mayor relevancia que se tomarían en cuenta: Lugar, terreno de ubicación, clima, asoleamiento, vientos dominantes, etc. Información de la comunidad, densidad, nivel de escolaridad, tipo de trabajo, accesibilidad. Ambiente de confort, calidad, contacto con la naturaleza. Lograr mayor familiarización con el entorno, cuidado de la naturaleza, protección de los recursos naturales. Y espacios del proyecto. Al recopilar información más específica de las comunidades a trabajar se conocieron como son los habitantes, las costumbres y el tipo de clima que se tiene. Así se llegó a la conclusión de usar materiales y sistemas constructivos de la zona, como lo son los blocks convencionales de concreto, no obstante encontramos que en el mercado está surgiendo la tendencia de materiales innovadores y sustentables como lo son los blocks de Sargazo, y mediante un análisis de comparación en diagramas de polaridad y en tablas de criterios de evaluación de dichos productos, se eligió como el material más óptimo para su aplicación los blocks de Sargazo, ya que resultaron ser más sustentables y económico para el tipo de proyecto que se está realizando. Otro material analizado para la aplicación en el proyecto fue el bambú, gracias por su resistencia, fácil manejo y por el costo reducido se tomó como la mejor opción para reemplazar el acero. Con dicha información procesada se realizaron análisis más específicos, como los son de los usuarios, su viaje de ruta que mostraba el tipo de usuario en específico se tiene, al igual que el escenario en donde se va a trabajar y cuáles son las necesidades por resolver, dando como resultado las primeras alternativas de solución que se pueden lograr. Se procedió hacer el diseño del módulo a emplear, así como los métodos de construcción a utilizar. Se acordó tomar en cuenta las características del proyecto CASA- UNAM para una mejor solución. Definiendo lo anterior se realizaron dos proyectos diferentes (uno en cada comunidad), pero con las mismas alternativas y solucionando las necesidades que se tenían en cada una. A continuación, se presenta la descripción de cada proyecto. El primero es una casa sustentable para la comunidad rural de Sabidos, que tiene como finalidad disminuir el costo y la creación de una vivienda digna para las familias. El segundo proyecto es el diseño de modelos diferentes de cabañas, así como sus espacios necesarios para diseñar un complejo ecoturístico en la comunidad de Xul-Ha. Características similares aplicadas en los dos proyectos: Materiales: bloques de sargazo, bambú y materiales de la región. Estructura de CASA-UNAM elaborada a base de material de acero y aplicado. en este proyecto por medio del material Bambú. Muros de sargazo. Uso de paneles solares. Uso de canaletas para recolección de aguas pluviales.


CONCLUSIONES

En la estancia verano delfín se realizó un estudio sobre materiales sustentables que pueden ser aplicados en zonas de Quintana Roo, así como saber cuáles son los óptimos al tipo de clima y suelo de donde se van a emplear. Dichos resultados se daban por medio de diversas aplicaciones de análisis con respecto a los usuarios existentes, para ello se tuvo que realizar estudios de la zona, entorno y condiciones que se tienen, esto ayudando a saber cuales son las necesidades reales, logrando así la mejor solución o alternativa, sin dejar a un lado las técnicas de sustentabilidad.
Becerra Cervantes Luis Ruben, Universidad de Guadalajara
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.


ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.

Becerra Cervantes Luis Ruben, Universidad de Guadalajara. García Valdez Andrea Alejandra, Universidad Politécnica de Sinaloa. González Huerta Stacy, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México al año 2014 de acuerdo al INEGI, el 6% de la población total, es decir, 7.1 millones de habitantes del país no pueden o tienen mucha dificultad para hacer alguna de las ocho actividades evaluadas, : caminar, subir o bajar usando sus piernas; ver (aunque use lentes); mover o usar sus brazos o manos; aprender, recordar o concentrarse; escuchar (aunque use aparato auditivo); bañarse, vestirse o comer; hablar o comunicarse; y problemas emocionales o mentales. En este proyecto nos centramos en el problema de mover o usar sus brazos o manos. Del mismo modo en Mexico las mayoría de las amputaciones son a causa de enfermedades como la diabetes o accidentes laborales, siendo así que en el año 2012 la encuesta nacional de salud y nutrición se percató que existían mas amputaciones de mano completa y/o dedos de la mano que cualquier otra amputación. Específicamente se procura evitar la amputación del pulgar debido a la importancia de sus movimientos. La diferencia de la amputaciones de mano o dedo pulgar respecto a otras, yace en la funcionalidad que presentan estos órganos en el cuerpo, siendo el movimiento de oposición por ejemplo, el que le permite al ser humano realizar mucho tipos sujeciones.  El dedo pulgar presenta una problemática al momento de modelar, ya que la articulación trapeciometacarpiana cuenta con movimientos mas complejos y por lo tanto más difíciles de representar.  Es por esto por lo que en el presente trabajo nos enfocamos en realizar principalmente los movimientos articulares del pulgar de manera correcta, es decir un pulgar que permita realizar oposición con cada dedo y que permita realizar movimientos de la mano (aquellos que involucran al pulgar) básicos en la vida de cualquier persona. En este proyecto se presenta el diseño de una mano bajo criterios biomecánicos, mismo que se utilizará para la fabricación de una prótesis robótica de mano, haciendo énfasis en el dedo pulgar.  



METODOLOGÍA

Se realizó un análisis biomecánico de la mano para poder entender los movimientos articulares de los dedos. Una vez que se entendieron los tipos de movimientos que cada dedo realiza de acuerdo con su tipo de articulacion se procedio a pensar en un modelo de cinematica directa que considera diferentes aspectos. Primero se extrajeron medidas antropométricas de la mano y se realizó el modelo de cinemática directa en Matlab y se representó de manera gráfica. Posteriormente se diseñó un modelo de la mano en CAD de acuerdo con el modelo cinemático obtenido anteriormente en el cual se procuró respetar los rangos de movilidad de cada articulación así como las medidas antropométricas utilizadas. Finalmente, se construyó mediante impresión 3D un prototipo del modelo previamente diseñado.


CONCLUSIONES

Después de haber realizado el análisis, diseño y construcción de la mano, pudimos percatarnos de la importancia que tiene un órgano como la mano para la función del cuerpo.  La construcción final del prototipo es capaz de imitar muchos de los movimientos de la mano, pero debido a la complejidad de algunas de las articulaciones y el tipo de piezas utilizadas, no se logra crear un modelo ideal que imite completamente los movimientos. Este prototipo, sin embargo, logra realizar los movimientos de manera efectiva y está pensado de manera que permita la integración de motores que hagan de este un prototipo robótico de una prótesis de mano.
Bedoy Vazquez Rigoberto, Universidad de Sonora
Asesor: Dr. Carlos Vargas Hernández, Universidad Nacional de Colombia (Colombia)

SíNTESIS QUíMICA DE NANOPARTICULAS DE COBRE


SíNTESIS QUíMICA DE NANOPARTICULAS DE COBRE

Bedoy Vazquez Rigoberto, Universidad de Sonora. Asesor: Dr. Carlos Vargas Hernández, Universidad Nacional de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Síntesis Química de Nanoparticulas de Cobre Asesor: Dr. Carlos Vargas Hernández, Universidad Nacional de Colombia. Estudiante: Bedoy Vázquez Rigoberto, Universidad de Sonora. Existen numerosos métodos para obtener nanoparticulas metálicas como Ag, Fe, Au, etc. Estas nanoparticulas metálicas y semiconductoras han sido el foco de atención de los investigadores en las últimas décadas, debido a las propiedades físicas y químicas que adquieren estos elementos en base a la forma y tamaño nanometrico. Ya que estas propiedades atómicas de ciertos compuestos o materiales en particular pueden variar considerablemente que las que normalmente se encuentran en estado sólido en bulto, aumentando así el número de posibilidades de propiedades de ciertos materiales para determinados fines en específico. Dentro de las nanoparticulas metálicas semiconductoras existen varias pero resultan un poco costosas es por ello que las nanoparticulas de cobre están siendo consideradas una propuesta alternativa de las nanoparticulas de oro, plata y paladio en varias áreas de aplicación, tales como conductividad térmica y microelectrónica, así como también en la microfabricacion de conductores como electrodos y líneas conductivas. Considerando los altos costos en este tipo de aplicaciones las nanoparticulas de cobre pueden ser utilizadas como una propuesta o alternativa barata de un material conductivo.



METODOLOGÍA

En 500 ml de agua se prepara el quelato Polivinilpirrolidona (PVP) -Sulfato de cobre y la solución reductora de borohidruro de sodio. La síntesis se realizo a 21 °C y PH 8. El complejo PVP-Cobre se prepara disolviendo 1.25 gramos de CuSO4 5H20 en 500 ml de agua, agitando por 5 minutos utilizando un agitador magnético hasta homogenizar la solución enseguida se añaden 0.0625 gramos de PVP, manteniendo la agitación por 5 minutos más, para permitir que la formación del complejo se complete. La relación óptima en peso entre ellos se encontró que debe de ser de 1 a 20 (WCuSO4 5H2O/Wen = 20 siendo W peso). El pH de la solución es de 8. En seguida se prepara la solución reductora disolviendo 0.9 gramos de borohidruro de sodio en 200 ml de agua. La relación molar CuSO4/en/NaBH4 es 5:1:12 respectivamente. Finalmente las nanoparticulas de cobre se obtienen añadiendo a una velocidad de 20 ml/min la solución de borohidruro de sodio a la solución que contiene el quelato PVP-Cobre, agitando a 700 rpm, que la solución de borohidruro de sodio tenga una concentración de 0.1 M a 0.15 M y se adicione a una velocidad de 20 ml/min. En este trabajo se recupero inmediatamente después de la síntesis el producto por filtración, este mismo se lavo con 5 ml de etanol al 98% y se guardo en un tubo de ensayo herméticamente bien sellado, para evitar que el cobre se oxide por contacto al medio ambiente. Posteriormente la muestra se caracterizo utilizando Espectroscopia UV-Vis visualizando que el Cobre absorbe a una longitud de onda de 346 nm según la grafica obtenida de los datos arrojados por el analisis.


CONCLUSIONES

En esta estancia de verano se logro sintetizar nanoparticulas de cobre por el método de vía húmeda. Dicho método resulta rápido y económico llevarlo a cabo ya que sus compuestos iníciales son de fácil acceso. Existen otras vías de síntesis de cobre, pero también se buscan las mejores opciones de obtención más eficientes y rápidas en laboratorio. Resulta interesante porque para obtener resultados óptimos hay que manejar bien las variables estequiometricas de los reactivos involucrados para una mejor síntesis. Se muestran datos del análisis de una de las muestras obtenidas.
Beltrán Alvarado Edgar, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

DESARROLLO DE UN ALGORITMO PARA REALIZAR SUGERENCIAS DE COMPARTIR AUTOMóVIL


DESARROLLO DE UN ALGORITMO PARA REALIZAR SUGERENCIAS DE COMPARTIR AUTOMóVIL

Beltrán Alvarado Edgar, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La migración de personas hacia las grandes ciudades, ha generado el crecimiento de la población, por lo que, el uso desmesurado del parque vehicular ha provocado problemas de tráfico en las grandes ciudades. En este trabajo se propone un algoritmo para realizar la sugerencia de compartir automóvil entre usuarios conductores con peatones a partir de las trayectorias obtenidas con el monitoreo de la ubicación de los usuarios.



METODOLOGÍA

Inicialmente se buscó información acerca del problema  de la movilidad  en grandes ciudades y las soluciones ofrecidas por las «smart cities»; se encontró que este problema es persistente y aun no hay una solución definitiva. Se realizó el análisis, diseño y programación de una aplicación móvil para obtener una base de datos de la ubicación de cada usuario. Con los datos de las ubicaciones se realizó el análisis, diseño y programación de un algoritmo para determinar el tipo de movilidad que tiene cada usuario. En este caso se requirió usar la distancia entre cada coordenada utilizando la fórmula de Haversine y el radio equivolumen de la Tierra. Se usó la velocidad y la aceleración para hacer una estimación empírica del tipo de movilidad del usuario: caminando, automóvil o detenido. A partir de esta información junto con los datos del perfil del usuario, se buscarán las intersecciones en las trayectorias de los usuarios para conocer quiénes pueden compartir su auto. Los resultados se visualizarán en un tablero de control que elabora otro de los integrantes de este programa Delfín.  


CONCLUSIONES

Con el algoritmo desarrollado se detecta el tipo de movilidad del usuario (detenido, caminando o en automóvil). Estos datos se utilizan en la sugerencia de compartir automóvil con otros usuarios y de esta forma reducir el volumen del parque vehicular coadyuvando en la solución de problemas de vialidad.
Beltran Islas Flavio Cesar, Universidad Autónoma de Occidente
Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente

E.R.R: ESCUADRÓN ROBÓTICO DE RESCATE


E.R.R: ESCUADRÓN ROBÓTICO DE RESCATE

Beltran Islas Flavio Cesar, Universidad Autónoma de Occidente. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El objetivo de ERR, es asistir como un medio de exploración terrestre, acuático y aéreo con la capacidad de realizar múltiples tareas, tales como: labores de búsqueda, rescate, traslado, localización y recolección de basura. En situaciones de búsqueda y/o rescate el modulo terrestre trabaja con mayor eficacia, debido a que está equipado con una base para celular, que permite hacer llamadas y transmisión de video, así como saber su ubicación mediante distintas aplicaciones. En caso de encontrar alguna persona, cuenta con un parlante y  una bengala de alerta aérea. También, puede emplearse como un medio de apoyo para trasladar objetos o víveres ante desastres naturales o extravió, en los que se requiera desplazamiento a grandes distancias. El envío de material médico vital es una prioridad. México es uno de los países más vulnerables ante los fenómenos meteorológicos, y que el 15% del territorio se encuentra expuesto a riesgos asociados a las lluvias o huracanes, por lo que el modulo acuático conlleva grandes retos, realizando las mismas funciones en agua e incluso la recolección de desechos que son perjudícales para la salud, ya que ERR es resultado de la concientización, tratando de reducir y atender los destrozos y daños provocados por el hombre y la naturaleza. Y por último, el modulo aéreo permite que los otros dos módulos trabajen con mayor eficacia, dado que la respuesta a un desastre natural debe ser inmediata si quiere salvar vidas. Por tanto, su principal objetivo es localizar aquellas situaciones en las que se requiera asistir, dando un servicio completo en las problemáticas mencionadas.  Este robot bien puede diseñarse dependiendo de las condiciones en las que se requiera su manipulación, ya que solo se adaptarían materiales que refuercen su mecanismo dependiendo del contexto y actividad con medidas a escala.



METODOLOGÍA

Para dar sustento teórico a nuestra investigación nos basamos en las siguientes referencias. Se les llama desastres naturales, y la Agencia Europea de Medio Ambiente (EEA) los define como cambios violentos, súbitos y destructivos en el medio ambiente cuya causa no es la actividad humana, sino los fenómenos naturales. De acuerdo con esto, un desastre natural es el resultado de un proceso que ocurre normalmente en la naturaleza, pero que al contacto con la civilización humana provoca efectos adversos y a menudo demoledores que una simple lluvia o la exhalación de un volcán no ocasionan. Sin humanos, una inundación u ola de calor no constituye un desastre natural. Pueden causar la muerte de los seres vivos, daños materiales, pérdidas económicas, daño a la belleza natural y pueden constituir una vía de propagación de enfermedades. México es altamente vulnerable a fenómenos hidrometeorológicos por su situación geográfica. Reducir la vulnerabilidad resulta crucial en una región que ha visto cómo la proporción de desastres naturales ha aumentado a través de los años. El impacto es aún más devastador para aquellos que viven en áreas remotas y aisladas sin acceso a la información básica y medios de comunicación que son esenciales para proporcionar notificaciones de alertas vitales (Rodríguez, 2016). Por otra parte, de acuerdo con otra problemática a tratar, el director general del Consejo Nacional de Ciencia y Tecnología (Conacyt), Enrique Cabrero Mendoza menciona que la ciencia tiene que organizarse cada vez mejor para ofrecer más soluciones y mejores estrategias para la atención de desastres naturales. El desarrollo tecnológico per se no garantiza el progreso, su importancia radica en el uso/aplicación que se le da no sólo en la vida diaria sino en casos de crisis. La tecnología se convierte en un recurso importante para el apoyo a ciudadanos después de desastres como un sismo. Comparando el pasado sismo del 19S con el de 1985, podemos darnos cuenta del gran avance de la tecnología que está al alcance de los ciudadanos comunes. (Marroquin, H.,  2017).


CONCLUSIONES

Se realizó una amplia investigación acerca de los temas mencionados, con el fin de mejorar la idea principal para el proyecto, tomando en cuenta problemas actuales. En cuanto al desarrollo, se creó una estructura con tubos PVC especial para una silla de ruedas, añadiendo 6 llantas, cada una con su respectivo motor; adaptadas para poder girar adecuadamente. Después, se agregó una tarjeta de radio frecuencia para manipular el robot mediante un control remoto. Una base para teléfonos celulares para poder transmitir vídeo, saber la ubicación del robot y poder realizar llamadas, cuenta con una tira de luces led, localizador bluetooth, bengala de S.O.S y una alarma de sonido. Por último, se buscaron ideas que ampliaran el funcionamiento del robot, atendiendo las problemáticas actuales, como lo son las inundaciones, por lo que se creó una base que permitiera al robot su manipulación acuática, para la realización de las mismas funciones y añadir la recolección de desechos. Además, se adaptó un dron con la finalidad de brindar mejor localización. RESULTADOS Y DISCUSIONES. ERR es resultado de la concientización, tratando de reducir y atender los destrozos y daños provocados por el hombre y la naturaleza. Siendo un robot que por sus capacidades, podrían ser utilizados en catástrofes. Se cumplió con el objetivo principal, logrando funcionamiento y uso adecuado del robot.
Beltrán Silva Nicole, Universidad Autónoma de Sinaloa
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

CONCRETOS DE ALTAS PRESTACIONES


CONCRETOS DE ALTAS PRESTACIONES

Beltrán Silva Nicole, Universidad Autónoma de Sinaloa. Rivera Ramos Mónica Leneth, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Benavides Hernandez Verónica Lizeth, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Miguel Ramón Sosa Baz, Universidad Autónoma de Campeche

REALCALINIZACIÓN ELECTROQUÍMICA DE CONCRETOS REFORZADOS FABRICADOS SIN Y CON ADICION DE CLORUROS E INHIBIDOR DE LA CORROSION.


REALCALINIZACIÓN ELECTROQUÍMICA DE CONCRETOS REFORZADOS FABRICADOS SIN Y CON ADICION DE CLORUROS E INHIBIDOR DE LA CORROSION.

Benavides Hernandez Verónica Lizeth, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Miguel Ramón Sosa Baz, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El acero presente en el concreto se encuentra protegido contra la corrosión debido a su elevado carácter alcalino del hormigón entre pH 12.5 a 13.5, sin embargo, la presencia de agentes corrosivos como los iones cloruros  y y la carbonatación del concreto hacen que la vida útil sea menor, debido a la corrosión del acero de refuerzo. El ataque por corrosión es generalmente es evitado por la alta alcalinidad proporcionada por la solución de poros del concreto (pH >12.5). Así, una capa pasiva se forma en la superficie del acero, la cual le proporciona una adecuada resistencia a la corrosión del acero de refuerzo, la cual puede ser destruida por la carbonatación del concreto y la presencia de iones cloruros, los cual provocan que el concreto pierda su alcalinidad natura e inicie el proceso de la corrosión, cuando disminuya por debajo del pH de 12.5 a menos de 9. La corrosión de las armaduras de acero es el más serio problema de durabilidad en estructuras de concreto armado. La realcalinización electroquímica es una técnica de rehabilitación que consiste en devolverle la alcalinidad natural del concreto, mediante la inducción de iones alcalinos hacia el interior del concreto. De esta manera se puede restablecer la pasividad que ha sido perdida. Por otro lado, otra ventaja en caso de la presencia de iones cloruros es que esta misma técnica sirve como otra técnica de rehabilitación llamada extracción electroquímica de cloruros.



METODOLOGÍA

VIGAS DE CONCRETO Las vigas utilizadas para esta investigación corresponden las siguientes dimensiones: 30 cm x 15 cm x 20 cm, así mismo el concreto utilizado fue diseñado con una razón agua/cemento 0,5 utilizando cemento Portland. Cada viga cuenta con 6 varillas corrugadas con diámetro nominal de 3/8 y se recubrió parte del refuerzo con pintura epóxica dejando una distancia de 15 cm descubierta, teniendo cada viga una varilla polarizada. El espesor de recubrimiento de concreto es de 1.5cm, posterior a su elaboración y previo a realizar los estudios se curaron por 28 días en cuarto húmedo. SECADO DE PROBETAS Previo a ingresar las probetas dentro de la cámara de carbonatación, fue necesario disminuir al máximo el agua libre dentro de los poros del hormigón con el fin de que el dióxido de carbono pudiera ingresar con mayor libertad hacia el núcleo de la probeta, ya que las condiciones que favorecen la carbonatación corresponden a una humedad relativa alrededor de 55 [%HR] y temperatura de 25 [°C]. REALCALINIZACIÓN ELECTROQUÍMICA Se fabricaron tres series de especímenes con una relación agua/cemento 0.69, usando cemento Portland tipo I. Con dimensiones de 20x20x30 centímetros y varillas con espesores de recubrimiento de 15, 20 y 30 mm.   Se trabajó sobre vigas pre-dañadas con un avance de carbonatación de 4 cm de profundidad. En cada  una dela 6 varilla se enrollo cable de cobre #12 dejando una parte del mismo expuesto en ambos lados y la parte intermedia recubierta de cinta adhesiva. El exterior de la viga fue recubierto con malla metálica y en su unión superior se añadió alambre de cobre, esto con el objetivo de poder realizar la medición de potencial de la malla. Una vez terminado este paso se introdujeron las vigas en tambos de agua, cuidando que no se cubrieran completamente y recubriéndolas con plástico para evitar perdida de agua, por evaporación. Los especímenes fueron sumergidos  en contenedores con una solución de CaCO3 1 molar. Se midió el potencial de media celda durante los 30 días del proceso de la realcalinizacion. Se aplicó una densidad de corriente de 2 A/m2 de acuerdo a la con la norma-europea-1504. Se colocó una resistencia conocida de 100 Ohms con la finalidad que aplicar un potencial contante, misma se calculó tomando la dimensión del área de trabajo de la varilla de una longitud de 15 cm. Por lo tanto, el potencial aplicado fue dentro del máximo intervalo de -950 mV y de -900 mV. Las mediciones se centraron en medir el paso de potencial en cada resistencia, el potencial entre la mala y la varilla y el potencial entre el polo positivo y negativo de la fuente. Se midió también el potencial de la varilla polarizada eligiendo para ello la varilla número 5 para cada espécimen y la también las otras no conectadas a la fuente de poder, estas se midieron respecto a un electrodo de referencia de cobre/sulfato de cobre saturado. Al término de los 30 días se verificara el avance de la migración de iones alcalinos usando indicadores acido-base y se presentara mediante un registro fotográfico.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la electroquímica y ponerlos en práctica para poder realizar pruebas de carbonatación y corrosión, así mismo dar solución a estos problemas con el método de realcanización, una vez registrados los datos obtenidos en Excel y se graficaron, sin embargo, al ser un trabajo extenso, aún se encuentra en la fase experimental.
Benítez Hernández Gillyan Isarel, Instituto Tecnológico de Toluca
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA


AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA

Benítez Hernández Gillyan Isarel, Instituto Tecnológico de Toluca. Budet Martínez Moises, Tecnológico de Estudios Superiores de Chicoloapan. Maya Barrera Karla, Instituto Tecnológico de Toluca. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El PET (Polietileno Tereftalato ) hoy en día abarca una gran cantidad de contaminación para el planeta, tomando como referencia a México y Colombia,  ya que se reciclan poco más de 100 mil toneladas al año, lo cual nos dice que es un índice bajo del nivel de producción que es sumamente elevado. Con esto, se quiere demostrar que la implementación del proyecto haría que se recicle al menos el 40% anual de PET. Tomando en cuenta que la recolección y selección actual contempla ciertos riesgos que exponen la integridad física del personal, además que el proceso no es el más adecuado, lo cual conllevaba a que la planta de reciclaje tenga pérdidas y que la calidad del PET no sea la apropiada para sacarlo nuevamente al mercado.     Objetivo General. Crear una herramienta para la automatización del proceso de selección y retiro del plástico dañado, utilizando un sistema de implementación de la industria 4.0. Objetivos Específicos. o Identificar los equipos, instrumentos o personal involucrados en el proceso para verificar su estado actual de funcionamiento. o Investigar, recopilar y buscar fuentes de información sobre procesos automáticos de selección y reciclaje de plástico. o Diseñar la estrategia de control para el funcionamiento del proceso a realizar. o Vincular de manera sincrónica las partes mecánicas y electrónicas para obtener un sistema autónomo. o Seleccionar e implementar las características de instrumentación requeridas y el software para su programación. o Evaluar la estrategia de controladores lógicos de programación (PLC). o Implementar los equipos e instrumentación necesaria para la operación del proceso.



METODOLOGÍA

      La necesidad a cubrir es evitar el ingreso de PET que no es utilizado en el proceso de reciclaje, ya que es una problemática que ha sido de larga data; para prevenir esta incidencia se pretende seleccionar el producto adecuado, aumentar la calidad del mismo y disminuir la inversión de tiempo que pueden causar los cuellos de botella; así como disminuir el riesgo al que está expuesto el recolector de PET al realizar su labor. La automatización es fundamental para el proceso de separación de plásticos y hacer un uso eficiente de los equipos y sistemas asociados. Se establecerá una automatización mediante la sustitución del personal por seleccionadores programables mediante sensores de infrarrojo ópticos de identificación de colores para retirar el plástico que no cumpla con las especificaciones; con la ayuda de las energías renovables, en este caso la energía eólica.  


CONCLUSIONES

A través de la automatización e instrumentación se espera aumentar la eficiencia del proceso de recolección y reciclaje del PET. Lo que se busca es que los trabajadores dejen de realizar trabajos manuales repetitivos de selección y separación, por medio de la automatización e instrumentación de sistemas mecánicos innovadores de manipulación, ayudando así al cuidado del medio ambiente con tecnologías rennovables.
Bermúdez Cárdenas Alejandro, Universidad de La Salle Bajío
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

IMPACTO DE LOS LIMITADORES DE CORRIENTE DE FALLA EN LA PROTECCIóN DIFERENCIAL DEL TRANSFORMADOR


IMPACTO DE LOS LIMITADORES DE CORRIENTE DE FALLA EN LA PROTECCIóN DIFERENCIAL DEL TRANSFORMADOR

Bermúdez Cárdenas Alejandro, Universidad de La Salle Bajío. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Hoy en día existe gran variedad de componentes de protección para los Sistemas Eléctricos de Potencia, por lo cual es importante saber de su funcionamiento y de cómo actúan algunos elementos en conjunto, el presente trabajo pretende estudiar los efectos que causan los limitadores de corriente de falla en la protección diferencial en transformadores, se analizó el impacto en del limitador y se simularon varios escenarios de un Sistema Eléctrico de potencia de prueba en el programa PSCAD / EMTDC para diferentes condiciones de operación, tales son como fallas internas y externas, como cortos circuitos entre fases y tierra. El objetivo principal es ver en que manera afecta el limitador de corriente de falla a su modo de operación y como se podría solucionar a futuro.



METODOLOGÍA

Para la realización de este proyecto se utilizaron principalmente dos documentos, tanto para obtener los conocimientos requeridos y entrar en el en tema como para tomar algunos datos para las simulaciones, los cuales son: Vázquez, E.,(2016),Protección Diferencial en transformadores de Potencia, Monterrey México, Académica Española y Fernández, E., (2016), Evaluación del impacto de los FCL en redes eléctricas de media tensión(Tesis de doctorado), Universidad autónoma de Nuevo León, Nuevo León.. De los cuales se obtuvieron el algoritmo para la protección diferencial y el circuito limitador de corriente de falla resonante que se llegaron a simular en el programa para sistemas eléctricos de potencia PSCAD / EMTDC.


CONCLUSIONES

Por medio de las simulaciones realizadas se observo que el funcionamiento de la protección diferencial por si sola es el adecuado,  Sin embargo, las señales de entrada de las protecciones diferenciales pueden verse afectadas negativamente por el limitador de corriente de falla, lo que ocasiona un mal funcionamiento de esta protección. A pesar de que existen métodos para solucionar este problema, no se llegan a tocar en este análisis y se da como resultado que a pesar de que el limitador de corriente de falla llega a reducir una sobre corriente por otro lado puede que afecta en el funcionamiento adecuado de la protección diferencial. Por lo cual es importante considerar a fondo todo tu sistema eléctrico de potencia y las maneras en que se tiene pensado proteger, ya que si se llegan a poner algunos elementos en especifico puede que este no opere de la manera adecuada y no pueda proteger de una falla al sistema. A continuación se muestran las señales obtenidas en las simulaciones y se observa como se afectan entre sí.   https://www.dropbox.com/s/6yj8e6en382y8ik/Simulacion.png?dl=0   Se muestra la protección diferencial en energización A), en falla y su señal de disparo del relevador B) C)  y en presencia del FCL D).
Bermúdez Morales Valeria, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Alonzo García, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ESTUDIO DEL COMPORTAMIENTO DE FLUJO TURBULENTO EN UN MEDIO POROSO MEDIANTE SIMULACIóN


ESTUDIO DEL COMPORTAMIENTO DE FLUJO TURBULENTO EN UN MEDIO POROSO MEDIANTE SIMULACIóN

Bermúdez Morales Valeria, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Alonzo García, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Un medio poroso es aquél que está compuesto por una matriz sólida con espacios interconectados que están llenos de fluido. La generación de flujo turbulento dentro de un medio poroso es fenómeno que tiene lugar en varios campos de la industria y de la ingeniería, como son la nuclear, la química, la mecánica, y la geofísica, entre otras. Al trabajar con flujo en medios porosos una problemática no trivial es la dificultad para medir parámetros del fluido que fluye a través de ellos, como la energía cinética turbulenta (k) y la razón de disipación de turbulencia (ε). Es por esto por lo que numerosos estudios han recurrido al uso de modelos para simulación de flujo turbulento en medios porosos, donde se opta por modelar los poros con formas geométricas simples debido a que resulta impráctico realizar simulaciones con muchos detalles geométricos. Este es el caso de estudios como el de F. Kuwahara et al. y Yang et al.



METODOLOGÍA

Se creó una unidad de volumen representativa (UVR) del medio poroso con poros esféricos en un arreglo de forma de Cubo Centrado en el Cuerpo de tal manera que la porosidad fuera ϕ=0.8 y se trabajó con número de Reynolds de poro (Rep) constante de 105 para realizar la validación del método de trabajo que se siguió en este trabajo con los resultados de las simulaciones realizadas en el trabajo de Yang et al. Para demostrar la independencia de la malla, se hizo una malla base de 1,014,703 elementos (1M) y después se hizo una malla más burda de 501,448 elementos (500k) y dos mallas más finas, una de 2,068,731 elementos (2M) y otra de 4,178,928 elementos (4M). El código comercial ANSYS FLUENT® 15.0 fue el que se utilizó para realizar las simulaciones. Para el modelo viscoso se eligió el modelo k-ε estándar, se eligió el algoritmo SIMPLE como método de solución y discretización espacial de segundo orden para todos los parámetros. Las condiciones de frontera para las caras por las que pasaría el flujo (dirección x), las caras laterales y las superficies de los poros fueron periodicidad, simetría y pared sin resbalamiento, respectivamente. En [2] se toma la condición de simetría para las caras superior e inferior, pero se vio que en otros estudios se tomaba la condición de periodicidad. Se encontró que establecer periodicidad en dos pares de caras que comparten aristas es bastante complicado, por lo que se procedió a determinar, mediante una geometría que no presente este problema de compartir aristas, si se obtienen resultados diferentes si la condición de frontera de las caras superior e inferior es periodicidad en lugar de simetría. Esta comparación se realizó con un arreglo de prismas cuadrados como el que se utiliza en el trabajo de F. Kuwahara et al. y se determinó que la diferencia porcentual entre los resultados obtenidos con una condición o la otra para k y ε es de 0.098% y 0.155%, respectivamente. Así, se determinó que la diferencia entre resultados era despreciable, por lo que, debido a su relativa facilidad, se eligió trabajar con la condición de frontera simetría para las caras superior e inferior. La diferencia porcentual entre el valor para k adimensional obtenido con la malla 1M y el obtenido para la malla 2M fue de fue de 0.85% y esa misma diferencia entre la malla 2M y la 4M fue de 5.1%. Ambos valores se consideraron suficientemente pequeños para determinar la independencia de la malla, por lo que se trabajó con la malla 1M. El valor reportado por Yang et al. para k adimensional para ϕ=0.8 es de 0.148, teniendo así que el porcentaje de error obtenido con la malla 1M fue de 6.08%, lo cual valida los resultados obtenidos con el procedimiento presente. Una vez elegido el tamaño de malla a utilizar, se extraen los resultados para los parámetros de interés y se determinan los planos o secciones sobre los cuales nos interesa estudiar su comportamiento. Para esto último se busca una región sobre la cual se encuentre, a criterio propio, los mayores gradientes de presión, k y ε. Representar estos parámetros de forma gráfica es de gran utilidad para entender el comportamiento de estos dentro de un medio poroso


CONCLUSIONES

A lo largo de esta estancia de investigación se adquirieron conocimientos teóricos sobre la dinámica de fluidos en medios porosos y la relevancia de su estudio para emplearse en la industria. También se adquirieron conocimientos prácticos para el manejo de programas relacionados a la Dinámica de Fluidos Computacionales y la interpretación de resultados para desarrollar un pensamiento crítico y analítico. Se pudo observar que existe un amplio gradiente de velocidad en la sección entre el poro central y la pared por la que sale el fluido de la UVR, por lo que se identifica esta sección como una sección de interés. Se espera poder realizar un análisis más profundo del comportamiento del flujo turbulento en un medio poroso variando la razón de aspecto entre los poros esféricos en las esquinas y el poro esférico en el centro del cuerpo de la UVR, pero debido a la extensión de este trabajo, aún no se pueden mostrar los datos de esta nueva configuración para ser comparados con el caso base expuesto en este trabajo
Bernal Valenzuela Leslie Alexandra, Instituto Tecnológico de Culiacán
Asesor: Dr. Angélica Hernández Quintero, Universidad Autónoma de Aguascalientes

OPTIMIZACIóN Y SISTEMATIZACIóN DEL PROCESO DE PRODUCCIóN EN EL áREA DE BORDADO EN LA EMPRESA E-CAR


OPTIMIZACIóN Y SISTEMATIZACIóN DEL PROCESO DE PRODUCCIóN EN EL áREA DE BORDADO EN LA EMPRESA E-CAR

Bernal Valenzuela Leslie Alexandra, Instituto Tecnológico de Culiacán. Asesor: Dr. Angélica Hernández Quintero, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Hoy en día las grandes empresas están más enfocadas en mejorar la realización de sus procesos productivos, esto para satisfacer la demanda del mercado de una forma más productiva, optimizando el desarrollo de sus procesos, contabilizando el consumo de materia prima, mejorando la calidad de sus productos y servicios y apostando tecnológicamente para el buen desarrollo de estas actividades. Según Kauffman (Kauffman, 2001) las PYMES carecen de sistema de planeación, organización, administración, y control eficientes, así como tecnologías propias para su gestión y desarrollo de sus actividades productivas, todo esto contra la globalización que se está viviendo en esta época, la falta de recursos financieros y otras problemáticas externas e internas. E-car es una pequeña empresa en el estado de Aguascalientes la cual está enfocada en la realización de bordados, uniformes y maquila. E-car distribuye sus productos de manera local, nacional e internacionalmente. Unas de las problemáticas encontradas en la empresa fue la falta de un sistema de seguimiento del pedido en el área de bordado el cual conlleva la falta de contabilización, optimización y administración adecuada de su materia prima e insumos. Por lo tanto, se decidió realizar este proyecto en el área de bordado dado a que era una área relativamente nueva en la empresa y de sumo interés. La propuesta a abordar es desarrollar un programa en VBA de Excel (Macros) para realizar el seguimiento del pedido, conocer los defectos de materia prima, producto terminado y fallos de la maquinaria, y posteriormente con la información obtenida, calcular el consumo total de materia prima, insumos y mano de obra en el desarrollo de un pedido, por lo tanto, la empresa E-car podrá saber cuál es la inversión y cuál es su utilidad en cada pedido. 



METODOLOGÍA

Se realizó un diagnostico general de la empresa donde se tomaron apuntes de las necesidades que se encontraban en E-car, para posteriormente elegir las problemáticas con mayor área de oportunidad. De todas las problemáticas detectadas se decidió abordar el seguimiento del proceso de producción en el área de bordado.   Una vez seleccionado el problema se entrevistó a directivos y colaboradores para recolectar información vital sobre los diversos procesos que englobaban el área de bordado, los cuales son: proceso de pedido, compra de insumos, ponchado, bordado, limpieza y doblado y entrega. Asimismo, se realizó una lista sobre los defectos más comunes encontrados en materia prima y producto terminado y fallos de la maquinaria. Se le solicitó a E-car los diversos formatos que utilizaban para las actividades en el desarrollo del pedido, cabe mencionar que actualmente la empresa E-car realiza todo el seguimiento del proceso mediante formatos impresos. Una vez recopilada y clasificada la información necesaria, se realizó el formato de seguimiento en Excel donde además se incluían fechas de inicio del pedido y terminado del pedido para conocer posteriormente cuánto fue el tiempo de respuesta total para la entrega del producto.  Dada a la complejidad para la introducción de la información y visualización de imágenes, se tomó la decisión de crear un apoyo al formato anteriormente desarrollado. Dicho apoyo fue realizar con el lenguaje de VBA en Excel, un programa con una interfaz más intuitiva para una rápida recolección de información del pedido. Para esto, se planeó un diagrama de flujo de la forma que no fuera tan complicado el planificar el cómo irán a interactuar las diversas pantallas entre sí.  Posteriormente, se planificó la distribución de información de cada una de las pantallas y que objetos la integrarían y después se desarrollaron y programaron las pantallas en el lenguaje de VBA. Una vez finalizado el programa, se realizó una revisión con los directivos de la empresa donde se llevó a cabo una retroalimentación y una prueba sobre el programa recopilando más información para mejorar el funcionamiento del programa y adaptarlo más a sus necesidades. Se realizaron los nuevos cambios del programa. Posteriormente se le entregó el archivo del programa a la empresa para su futura implementación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre diseños de experimentos, no obstante, al ser un extenso proyecto aún se encuentra en fase de utilización por la empresa, dado a que aún no se recolecta la suficiente información para poder realizar un diseño de experimentos y analizar más profundamente las actividades de la empresa.   Se espera que el programa sea de gran utilidad para el personal de la empresa E-car, para el desarrollo de sus actividades como también, unificar, ordenar y almacenar la información vital para el proceso de producción, como además contabilizar y analizar el número de defectos en sus productos terminados.
Bernal Venegas Abel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro

SISTEMA DE MONITOREO DE TEMPERATURA Y TIRANTE HIDRáULICO EN COLUMNAS DE FILTRADO VERTICALES


SISTEMA DE MONITOREO DE TEMPERATURA Y TIRANTE HIDRáULICO EN COLUMNAS DE FILTRADO VERTICALES

Bernal Venegas Abel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen problemas de abastecimiento de agua en la zona del bajío del país, por tal motivo se debe recurrir a un saneamiento de agua para poder reutilizarla dentro de las casas habitación, evitando así el desfogue a la red de drenaje de este vital líquido. Para hacer una reutilización de esta agua, es necesario realizarle un proceso de tratamiento, ya que debe cumplir con la norma NOM-003-SEMARNAT-1997, la cual regula la calidad del agua tratada que está en contacto con los seres humanos. Para tener un mejor control de la calidad del agua y los resultados es necesario realizar una automatización de este proceso con la ayuda de sensores, microprocesadores y software que permita observar los cambios que existen dentro de las columnas.



METODOLOGÍA

Para el desarrollo de este proyecto se implementan columnas verticales en las cuales se ingresa agua gris sintética, y mediante una diferencia de granulometrías de tezontle dentro de la columna y carrizo se obtiene un filtrado de esta agua, mejorando los valores de las mediciones de pH, coliformes fecales, grasas y aceites, demanda bioquímica de oxígeno (DBO5), entre otras. Comparando las condiciones iniciales a las finales, se busca mejorar la calidad de ésta. Para poder realizar un análisis de estos datos es necesario automatizar el proceso desde regado de la columna, evitando así variaciones en las medidas por diferencias de caudal de ingreso de aguas grises y observando la cantidad de retención de líquido que existe dentro de la columna. Para la realización de este proyecto, se efectúa la medición de la temperatura del agua a través de cada columna, mediante cuatro sensores de temperatura, midiendo la temperatura del agua en su inicio, en dos puntos dentro de la columna y la salida. Todo esto se realiza con una placa Arduino mega, la cual nos permite realizar el código necesario para la manipulación de los sensores y actuadores, teniendo como sensores principales, los de medición de temperatura LM35 y DS18b20. Los primeros sirven para realizar una medición de temperatura en zonas donde no es muy necesario que estén completamente dentro de la columna, ya que estos se deben aislar manualmente y los segundos se emplean para medir la temperatura del fluido dentro de las columnas. Además, se desarrolla el análisis del volumen de líquido de entrada contra el volumen de líquido a la salida, mediante sensores ultrasónicos hc-rs04, los cuales nos permiten conocer el tirante hidráulico en las columnas. Con esta información, se puede determinar el volumen de líquido que se está reteniendo en el sistema, mediante una diferencia entre el volumen de entrada y el de salida, a esto se le llama balance hídrico. Para obtención de datos, el programa previamente desarrollado en Arduino, se carga a la placa y ésta se comunica mediante el puerto serial con el programa realizado en MATLAB, el cual nos permite crear bases de datos y archivos de Excel para tener un control del registro histórico de los acontecimientos en las columnas, permitiendo la manipulación de información. Además, se tuvo participación en otras actividades como la medición de tirante en un canal de área conocida para prevención de desastres por excedente de agua dentro de las cuencas hídricas en las ciudades, mediante el uso de un sensor ultrasónico hc-rs04, reloj en tiempo real (RTC) y un módulo lector de tarjetas MicroSD.


CONCLUSIONES

Durante el periodo de estancia en el verano de investigación, se logró poner en marcha un sistema automatizado para monitoreo de columnas verticales y se obtuvieron aprendizajes en el manejo de periféricos desconocidos hasta el momento. Sin embargo, al ser poco tiempo, se queda en fase experimental, ya que faltan realizar más pruebas. Es un proyecto con potencial en el que, logrando las condiciones adecuadas en su fase de investigación, podrá ser utilizado dentro de los hogares o escuelas para efectuar un saneamiento del agua a pequeña escala.
Bojorquez Veliz Sergio, Universidad Autónoma de Occidente
Asesor: M.C. Hugo Galindo Flores, Universidad Autónoma de Occidente

AISLAMIENTO Y CARACTERIZACIóN DE ACTINOBACTERIAS A PARTIR DE SEDIMENTOS MARINOS DEL GOLFO DE CALIFORNIA


AISLAMIENTO Y CARACTERIZACIóN DE ACTINOBACTERIAS A PARTIR DE SEDIMENTOS MARINOS DEL GOLFO DE CALIFORNIA

Bojorquez Veliz Sergio, Universidad Autónoma de Occidente. Asesor: M.C. Hugo Galindo Flores, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los sistemas de producción de alimentos son altamente dependientes de uso de agroquímicos para el control de plagas y enfermedades, entre los cuales destacan los plaguicidas organofosforados, en la actualidad los  organofosforados y carbamatos se sitúan dentro de las categorías toxicológicas extremadamente peligrosas y altamente peligrosas (Ia y Ib) son responsables de la mayor parte de las intoxicaciones agudas y muertes (González y Robledo, 2010). Su alto grado de toxicidad hace inseguro su manejo por parte de los usuarios se reconoce que el uso de plaguicidas genera enfermedades en la salud y tanto como a los ecosistemas. Existen procesos físicos, químicos y biológicos que permiten la remediación de sitios contaminados con plaguicidas. Los procesos biotecnológicos han sido utilizados para la degradación de plaguicidas mediante aislados y consorcios microbianos que son capas de degradar (Trejo, 2002).  Las actinobacterias, han sido de gran interés en los últimos años en el campo de investigación agrícola e industrial ya que son un grupo diverso de bacterias filamentosas que se caracterizan por la capacidad de producir compuestos benéficos para la inhibición de patógenos, en el crecimiento vegetal y degradación de plaguicidas, entre otros. 



METODOLOGÍA

Preparación muestras del sedimento: Se realizó el día 18 de junio una muestra mixta,  para lo cual, de cada muestra de sedimento se tomó  1 g. Para las muestras de hoja, tallo y raíz se pusieron en tubos falcón con 70 % de etanol a cada muestra por 5 minutos y 0.9%  en hipoclorito de sodio por 20 minutos, en total fueron 7.5 ml y 42.5 ml de agua destilada. Preparación de medios y diluciones seriadas: Se utilizaron 5 medios de cultivos Medio para 125 ml Por 1 litro AIA 2.75 gr 22 gr MM 6.88 gr 55.1 gr AEA 4.7 gr 38 gr AN 2.8 gr 23 gr AESM 2 gr de sedimento Tabla 1: Medios de cultivo utilizados Se hizo un mix  para cada una de las muestras y tomar 1 g luego se colocarán en 9 ml de agua destilada (dilución 10-1), luego se extraerá 1 ml de la suspensión formada y se colocará en 9 ml de agua destilada (dilución 10-2), se realizarán 4 diluciones decimales sucesivas de cada muestra, tomando la última para el conteo poblacional de microorganismos, misma metodología para cada muestra. Todo este procedimiento se realizará en completa esterilidad en una campana de flujo laminar.  Siembra de diluciones: Día 21 de Junio se sembraron las diluciones 1x10-4  de cada una de las muestras en los cinco medios preparados con una repetición para cada una en total fueron 50 caja Petri. Incubación: Día 21 de Junio se metieron en la incubadora por 4 días a 28 °C. Aislamiento y caracterización macroscópica: Día 24 de Junio se obtuvo un banco de 60 microorganismos de las cuales 16 presentaron características macroscópicas a las actinobacterias y fueron esos 16 aislados con los que se trabajaron. Caracterización microscópica: Mes de Julio, a la colección de cepas bajo experimentación se realizó prueba de tinción Gram. En un portaobjeto de vidrio para microscopio previamente desinfectado, se colocó una capa delgada de cepa bacteriana, enseguida se fijó la muestra por calor pasando rápidamente el portaobjeto sobre un mechero de Bunsen, posteriormente se posiciono el portaobjeto en una bandeja de metal poco profunda para tinción y se empapo la muestra con algunas gotas de cristal violeta, se esperó entre 30 y 60 segundos, se enjuago el cristal violeta con agua destilada inclinando el portaobjetos cuidadosamente. Enseguida se empapo la muestra con algunas gotas de Yodo dejando reposar 60 segundos y liego se enjuago cuidadosamente con el mismo método, luego se agregó decolorante (acetona y etanol 1:1) y se enjuago rápidamente, enseguida se empapo la muestra con algunas gotas de safranina durante 45 segundos y se enjuago posteriormente, se secó el portaobjeto y se procedió a identificar las bacterias mediante un microscópico óptico. Las bacterias Gram Positivas obtienen un color violeta debido a que poseen gruesas paredes celulares, mientras que las bacterias Gram Negativas obtienen un color rosado. Extracción de ADN: Mes de Julio se realizó la extracción tomando 200 µl de una suspensión bacteriana y se adiciono 500 µl del reactivo DNAzol (Invitrogen, Carlsbad, CA, USA Cat. No. TR 118) y se dejó por 5 minutos a temperatura ambiente. Posteriormente se centrifugo  a 10,000 x g por 10 minutos; el sobrenadante fue transferido a un tubo estéril, se adiciono 500 µl de etanol al 100 % (Faga-lab, Sin. Méx., Cat. No. 21-12-1902), se mezcló  por inversión, se incubo a temperatura ambiente por 3 minutos y se centrifugo a 12, 000 x g por 5 minutos; se eliminó el sobrenadante, se adiciono etanol al 75 %  (Faga-lab, Sin. Méx., Cat. No. 21-12-1902) y se centrifugo a 12, 000 x g por 3 minutos dos veces; se eliminó el etanol y se dejó secar la pastilla por 3 minutos a temperatura ambiente. La pastilla se resuspendio en 20 µl de agua ultra pura (UP) (GIBCO, NY, USA Cat. No. 1333818) y se almaceno a -20°C (Galindo- Flores, 2008).


CONCLUSIONES

En el trascurso de la realización del Verano Científico durante este tiempo, se estuvo en contacto con un investigador el cual en ese momento era jefe del departamento de Ingeniería y Tecnología en la Universidad Autónoma de Occidente Unidad Regional Guasave, principalmente platicando sobre los problemas actuales en la región donde se encontró al ser un valle agrícola y un municipio conocido como el corazón agrícola de México y los grandes problemas que esta actividad acarrea impactos ambientales y, posteriormente hubo una plática de la gran diversidad de microorganismos que existen en las rizósfera de manglar y el potencial biotecnológico que estas bacterias tienen como promotoras del crecimiento vejeta, degradación de plaguicidas e inhibición de patógenos. Los resultados generados por la realización del Verano Científico fueron los siguientes: 16 aislados bacterianos con características gran positivas 10 aislados capaces de crecer en carboximetilcelulosa como única fuente de carbono Obtención de 5 aislados capaces de inhibir el hongo Sclerotinia sclerotiuorum
Bonfiglio Avila Keila Yacelin, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México

DEFINICIÓN DEL NIVEL DE SEGURIDAD EN EL SERVICIO DEL TRANSPORTE PÚBLICO DE LA COMUNIDAD ESTUDIANTIL DEL CENTRO UNIVERSITARIO UAEM NEZAHUALCÓYOTL


DEFINICIÓN DEL NIVEL DE SEGURIDAD EN EL SERVICIO DEL TRANSPORTE PÚBLICO DE LA COMUNIDAD ESTUDIANTIL DEL CENTRO UNIVERSITARIO UAEM NEZAHUALCÓYOTL

Bonfiglio Avila Keila Yacelin, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El uso del transporte público en la ciudad de México genera gran utilidad como medio de traslado, puesto que un gran porcentaje de los ciudadanos los prefieren, no obstante, la seguridad del usuario se ve violentada en muchas ocasiones.



METODOLOGÍA

El objetivo de este estudio fue realizar una interpretación a partir de los resultados de la herramienta de investigación (encuesta) sobre las percepciones de seguridad de los usuarios para diferentes modos de transporte en la Ciudad de México. Para ello, se diseñó una encuesta basada en un estudio sobre la seguridad en el transporte público; fueron aplicadas a 383 usuarios del transporte público.


CONCLUSIONES

Los resultados indicaron que los usuarios son violentados, en las etapas de acceso y espera donde ellos sufren agresiones verbales y no verbales, mientras a bordo sufren además las agresiones físicas. Asimismo, los niveles de agresiones sexuales dependen del transporte y la hora del viaje. En general, para hombres y mujeres existen diferentes razones para no denunciar las agresiones, aunque quieran hacerlo, las mujeres por ser despreciadas y los hombres por evitar ser un blanco de burlas. Estos resultados sugieren que para lograr que las personas mejoren la percepción de la seguridad durante el uso y espera, para autobús y metro respectivamente, aumente la existencia policías en las paradas y a bordo de los transportes, además de colocar cámaras para que logren identificar los abusos de los agresores. 
Botello Brito Diana Laura, Instituto Politécnico Nacional
Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)

SISTEMAS MULTIAGENTE PARA IOT


SISTEMAS MULTIAGENTE PARA IOT

Botello Brito Diana Laura, Instituto Politécnico Nacional. Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se desarrollará una extensión de una plataforma de agentes SPADE para gestionar dispositivos IoT, se medirá a partir de sistemas Multiagente que son una Agrupación de agentes autónomos, de carácter heterogéneo e independientes, que interactúan entre sí, a menudo con el objetivo de resolver un problema complejo, difícil de solucionar para un único agente.



METODOLOGÍA

Se quiere desarrollar una clase en Python que permita el registro, envío, recepción, así como la interrupción de la transmisión, lo que permitirá tener un control del mensaje que se va a transmitir, detallando los datos con los que se va a trabajar, para ello implementamos esta metodología. La distribución del proyecto fue realizada mediante un plan de trabajo, dividido por semanas, en la cual cada uno de los colaboradores aporta un avance y debe estar al pendiente de futuras modificaciones. En el inicio de la estancia se detalló el rol de cada uno de los colaboradores, hubo una reunión informativa con el propósito de tener un panorama amplio del problema a solucionar mediante el software ya pensado. Se definieron las metas a seguir a corto, mediano y largo plazo, así como las herramientas con las cuales se desarrollarán las diferentes aplicaciones. La instalación de Python, SPADE y la librería sleekxmpp, así como tener conocimiento sobre el manejo de SPADE. Se ha desarrollado el código de tal manera que estuviera bien organizado para que cualquier persona comprenda las fases del programa, que sea muy intuitivo. Se desarrolló una aplicación en Python, utilizando PyCharm como IDE, así como las siguientes tarjetas: linkit smart 7688 duo y Raspberry Pi zero W, logrando mayor compatibilidad al momento de realizar un envío y recepción de mensajes. Algunas de los elementos que contiene esta clase son:   Permite suscribir y eliminar a un usuario, así como verificar la presencia de los usuarios conectados en ese momento. La clase IoT que extiende las funcionalidades desde SPADE contando con elementos básicos para el envío y transmisión de datos. El proyecto está basado en la librería sleekxmpp. El objetivo es proporcionar soporte para todos los XEP actualmente activos (final y borrador). Dado que la adición de soporte XEP se realiza a través de complementos fáciles de crear, la esperanza es proporcionar también una base sólida para implementar y crear XEP experimentales. Cada vez que se presenta algún avance se realiza una retroalimentación para verificar que el programa sea acorde a los objetivos, y se corrige en caso de inconsistencias.   Para finalizar se va a desarrollar un caso de estudio enfocado a la medición de la humedad y temperatura. Para ello dispondremos de dos dispositivos conectados usando nuestra clase: uno lee la temperatura y otro la humedad, compartiendo esa información con distintos agentes. Realizaremos pruebas del correcto funcionamiento, evaluaremos nuevamente los objetivos planteados en un inicio en la estancia, pero no solo realizaremos las pruebas con los datos relacionados a la humedad o temperatura, se puede implementar en otras áreas.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el funcionamiento del lenguaje Python, así como el uso de la librería en cuestión. Al ser un trabajo muy amplio consideramos que aún queda mucho por desarrollar y puede ser implementado en cualquier área o espacio para determinar ciertos valores, es un proyecto muy importante y funcional. En trabajos futuros se podrá utilizar en dominios más complejos que midan más sensores e incorpore algún tipo de actuación.
Briseño Alvarez Julio Abraham, Universidad de Guadalajara
Asesor: Dr. Octavio Flores Siordia, Universidad de Guadalajara

TRANSMISIóN DE INFORMACIóN SEGURA EN UNA RED DE MONITOREO DE CULTIVOS IMPLEMENTANDO TECNOLOGíA XBEE


TRANSMISIóN DE INFORMACIóN SEGURA EN UNA RED DE MONITOREO DE CULTIVOS IMPLEMENTANDO TECNOLOGíA XBEE

Briseño Alvarez Julio Abraham, Universidad de Guadalajara. Asesor: Dr. Octavio Flores Siordia, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Existen zonas geográficas donde es muy difícil acceder para estar monitoreando las siembras, lo cual puede afectar la productividad y calidad de las cosechas ocasionando que se incrementen los gastos. Por tal razón se recomienda implementar un sistema para monitorear ciertos aspectos que indican el estado de los cultivos, lo cual evitará a los agricultores que tenga que trasladarse a lugares remotos o de difícil acceso de manera constante, ya que podrán monitorear el desarrollo de su siembra de forma remota, obteniendo información sobre la humedad tanto del suelo como del ambiente, temperatura, etc.



METODOLOGÍA

Para el desarrollo de este proyecto se combinaron tecnologías Arduino, Xbee y Raspberry pi 3 en conjunto con distintas placas las cuales tienen una determinada función. El proyecto tiene diferentes dispositivos que cumplen con las siguientes funciones: Clientes: se encargan de la recolección de datos y son dispositivos Arduino con una serie de sensores que toman muestras periódicas sobre el estado de la siembra, posteriormente la información es estructurada, cifrada y encapsulada en una trama la cual se envía a través de un dispositivo XBee empleando el modo API. Servidor: se encarga de recibir las tramas enviadas por el cliente y está compuesto por un Arduino y una SD Card Shield que se utiliza para crear un respaldo de toda la información recolectada, evitando así pérdidas por algún fallo en la comunicación. Este dispositivo envía los datos al nodo central. Nodo central: recolectada la información de un XBee en modo API y está compuesto por una Raspberry pi 3 que recibe los datos del puerto serial utilizando Python en segundo plano. También se encarga de la gestión de la información, mediante una aplicación programada en Java, que tiene como función desencapsular las tramas y descifrar su contenido.


CONCLUSIONES

Se desarrolló un sistema de comunicaciones que transmite los datos codificados usando tecnologías Single Board Computer y Xbee; lo cual permitirá a los agricultores tomar medidas a tiempo con la finalidad de que puedan mejorar sus cosechas. Adicionalmente el sistema de comunicaciones puede ser implementado para monitorear cualquier red de sensores, por lo tanto, es posible aplicarlo en áreas como medicina, industrias, en domótica, etc.
Budet Martínez Moises, Tecnológico de Estudios Superiores de Chicoloapan
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA


AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA

Benítez Hernández Gillyan Isarel, Instituto Tecnológico de Toluca. Budet Martínez Moises, Tecnológico de Estudios Superiores de Chicoloapan. Maya Barrera Karla, Instituto Tecnológico de Toluca. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El PET (Polietileno Tereftalato ) hoy en día abarca una gran cantidad de contaminación para el planeta, tomando como referencia a México y Colombia,  ya que se reciclan poco más de 100 mil toneladas al año, lo cual nos dice que es un índice bajo del nivel de producción que es sumamente elevado. Con esto, se quiere demostrar que la implementación del proyecto haría que se recicle al menos el 40% anual de PET. Tomando en cuenta que la recolección y selección actual contempla ciertos riesgos que exponen la integridad física del personal, además que el proceso no es el más adecuado, lo cual conllevaba a que la planta de reciclaje tenga pérdidas y que la calidad del PET no sea la apropiada para sacarlo nuevamente al mercado.     Objetivo General. Crear una herramienta para la automatización del proceso de selección y retiro del plástico dañado, utilizando un sistema de implementación de la industria 4.0. Objetivos Específicos. o Identificar los equipos, instrumentos o personal involucrados en el proceso para verificar su estado actual de funcionamiento. o Investigar, recopilar y buscar fuentes de información sobre procesos automáticos de selección y reciclaje de plástico. o Diseñar la estrategia de control para el funcionamiento del proceso a realizar. o Vincular de manera sincrónica las partes mecánicas y electrónicas para obtener un sistema autónomo. o Seleccionar e implementar las características de instrumentación requeridas y el software para su programación. o Evaluar la estrategia de controladores lógicos de programación (PLC). o Implementar los equipos e instrumentación necesaria para la operación del proceso.



METODOLOGÍA

      La necesidad a cubrir es evitar el ingreso de PET que no es utilizado en el proceso de reciclaje, ya que es una problemática que ha sido de larga data; para prevenir esta incidencia se pretende seleccionar el producto adecuado, aumentar la calidad del mismo y disminuir la inversión de tiempo que pueden causar los cuellos de botella; así como disminuir el riesgo al que está expuesto el recolector de PET al realizar su labor. La automatización es fundamental para el proceso de separación de plásticos y hacer un uso eficiente de los equipos y sistemas asociados. Se establecerá una automatización mediante la sustitución del personal por seleccionadores programables mediante sensores de infrarrojo ópticos de identificación de colores para retirar el plástico que no cumpla con las especificaciones; con la ayuda de las energías renovables, en este caso la energía eólica.  


CONCLUSIONES

A través de la automatización e instrumentación se espera aumentar la eficiencia del proceso de recolección y reciclaje del PET. Lo que se busca es que los trabajadores dejen de realizar trabajos manuales repetitivos de selección y separación, por medio de la automatización e instrumentación de sistemas mecánicos innovadores de manipulación, ayudando así al cuidado del medio ambiente con tecnologías rennovables.
Bueno Hernandez Alan, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)

DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO


DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO

Bueno Hernandez Alan, Tecnológico de Estudios Superiores de Jocotitlán. Chaverra Sanchez Nelson Farley, Institución Universitaria de Envigado (Colombia). Martinez Londoño Maria Camila, Institución Universitaria de Envigado (Colombia). Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Muchos países requieren de estudiantes matemáticamente calificados ya que estos son importantes para el progreso y el futuro (Rylands & Shearman, 2018). Sin embargo, en los últimos años se han evidenciado problemas de rendimiento académico en el área de las matemáticas. Para fundamentar esto, se tienen los resultados obtenidos en la prueba PISA 2015 en donde el desempeño promedio de las tres áreas (lectura, ciencias y matemáticas) de Latinoamérica está por debajo de la media establecida por la OCDE, destacando que los resultados de matemáticas está aún más abajo que los de las demás áreas (Ministerio de Educación Nacional, 2017).  Los estudiantes de ingeniería de nuevo ingreso se enfrentan al precálculo (también conocido como matemáticas operativas o álgebra básica), asignatura en la cual presentan un promedio académico muy bajo y un alto porcentaje de pérdida, un ejemplo de esto son las estadísticas de la Facultad de Ingeniería que brindó Admisiones y Registros del Tecnológico de Antioquia-Institución Universitaria (TdeA).                     FACULTAD DE INGENIERIA TdeA - MATEMÁTICAS Periodo académico                   2017-1    2017-2    2018-1    2018-2 Número de estudiantes                 261        188         190        153 Porcentaje de pérdida (0-2.9)       41.8%    29.8%     39.5%     47.1% Promedio nota (0-5)                          2.9        2.9          2.8         2.8 Además de estas cifras, se cuenta con los resultados de una encuesta aplicada finalizando el primer trimestre del periodo académico 2018-2 a los estudiantes de un grupo de álgebra y trigonometría de la Institución Universitaria de Envigado (IUE) con la cual se pretendía identificar el tema que les generaba mayor dificultad en dicho trimestre. Los resultados son los siguientes: Potenciacion y radicacion:   7 Función exponencial y logarítmica: 10 Polinomios:  5 Factocización:  18  Con lo anterior, se demuestra que los jóvenes en los colegios e instituciones de educación superior (IES) no están adquiriendo las habilidades matemáticas necesarias para obtener un buen desempeño académico. Por este motivo, se considera de vital importancia desarrollar una estrategia metodológica que permita fortalecer las destrezas matemáticas de estos.Por lo que este trabajo tiene como principal objetivo desarrollar una estrategia didáctica por medio de un juego serio para la enseñanza de la factorización de polinomios con el cual se pretende fortalecer las capacidades de los estudiantes universitarios que estén cursando el primer semestre de ingenierías.  



METODOLOGÍA

La metodología es aplicada y de tipo cuantitativa. Se inicia con la caracterización de estrategias didácticas para la enseñanza de la factorización, esta se realiza con una revisión sistemática de literatura; dicha revisión es planificada, luego es desarrollada utilizando una matriz de clasificación y finalmente se realizan conclusiones. Posteriormente, se retoma la caracterización y se diseña una dinámica de juego serio que agrupe las diferentes estrategias caracterizadas, se sigue con la selección de una plataforma de desarrollo digital por medio de un método comparativo, paso seguido se desarrolla el juego serio de forma iterativa con la finalidad de agregar funcionalidades y por último, se pretende validar por medio del desempeño académico de grupos de control, aplicándose una prueba pretest y postest con estudiantes de precálculo de nuevo ingreso de ingenierías en las tres instituciones involucradas en la investigación.


CONCLUSIONES

Las actividades didácticas que fueron propuestas en los artículos revisados para mejorar el aprendizaje son altamente efectivas. Principalmente, por la forma visual que poseen las metodologías que se implementaron, ya que funcionan para motivar al estudiante en la asignatura, atendiendo toda expectativa y logrando comprender los conceptos de manera ágil debido a que con esta metodología se propone una forma atractiva de explicar la factorización, sin dejar de lado la fundamentación teórico-práctica. De igual forma, en cuanto al tipo de validación los autores coinciden en que la alternativa más común es por medio del análisis del rendimiento académico en grupos de control. Resultados: Obtenidos: De acuerdo con la revisión de literatura se analizaron catorce textos de estrategias para la enseñanza de la factorización, dentro de estas estrategias ocho se establecieron de manera física y seis de manera digital. En tanto a su implementación cinco fueron aplicadas en universidades y nueve en colegios, además cinco obtuvieron una validación por medio del rendimiento académico, seis trabajaron con un grupo de control y tres por percepción cualitativa, paso seguido se realizó la caracterización de dichas estrategias. Como resultados esperados estará; el diseño de la dinámica del juego serio, la creación de este en un ambiente virtual y su implementación en un curso real. Esperados: Se espera que el diseño virtual del juego serio con ayuda de la fundamentación teórico científica llegue hasta su última etapa, en donde el objetivo es tener un juego robusto e iterativo que se convierta en una herramienta fundamental para los estudiantes de nuevo ingreso de ingeniería al momento de fortalecer sus conocimientos en un tema tan importante en matemáticas como lo es la factorización, además se espera que este pueda validarse en las 3 instituciones de educación superior involucradas en la investigación.  
Bueno Martinez Martin Octavio, Universidad de Guadalajara
Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara

OBTENCIóN Y TRATAMIENTO DE NANOCRISTALES DE CELULOSA.


OBTENCIóN Y TRATAMIENTO DE NANOCRISTALES DE CELULOSA.

Bueno Martinez Martin Octavio, Universidad de Guadalajara. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los nanocristales de celulosa, como su nombre lo indica, se derivan de la celulosa, que es el polimero natural más abudante en la tierra y un importante componente estructural de la pared celular de las plantas. Además de lo mencionado, la celulosa destaca por ser un polimero biodegradable, biocompatible y renovable, por lo que es muy considerada hoy en día como alternativa a los polimeros convencionales y además de una opción llamativa para diversas aplicaciones. Los nanocristales de celulosa han recibido un gran interés debido a sus propiedades mecánicas, ópticas, químicas y reológicas, mismas que además les permiten tener un amplio panorama de aplicaciones en diversas áreas tales como en la electrónica, ciencia de materiales, ingeniería biomédica, entre otras.  



METODOLOGÍA

Durante la estancia se llevaron a cabo dos blanqueos de fibras de agave, dos aislamientos de hemicelulosas, dos limpiezas de celulosa, tres extracciones de xilanas y una extracción de glucomananas, todo esto como parte de un proceso consecutivo. Analogamente se realizó un proceso para obtener nanocristales de celulosa, y se realizó dos veces con celulosa de abeto y una vez con celulosa de agave. A continuación se presenta la metodología en que se realizó lo mencionado anteriormente, resaltando que como continuación de éstos se planea realizar biomineralizaciones, pero por cuestiones de tiempo se tendrán que realizar durante la última semana, por lo que no será tratada su metodología en este resumen de la estancia. El blanqueo de fibras de agave viene siendo un proceso de deslignificación, que es la eliminación de la lignina presente en las fibras con lo cual se obtiene holocelulosa. Para esto se colocan las fibras de agave con agua destilada en un matraz, añadiendole ácido acético y clorito de sodio, el matraz se coloca a baño maría. Posterior al blanqueo se llevó a cabo el aislamiento de hemicelulosas con la holocelulosa que se obtuvo en el primer blanqueo, para esto se utilizó 7.15 ml de una solución de hidróxido de potasio al 24% por cada gramo de holocelulosa, se agrega todo en un matraz bien tapado en agitación con atmosfera de nitrógeno. Lo siguiente es filtrar la solución y así obtener la celulosa separa de la solución que ahora contiene xilanas, la celulosa se deja secando. . Seguido de esto a cada muestra se le agregó 7.15 ml de una solución de H3BO3 y NaOH por cada gramo de celulosa, dejandose bien tapado y en agitación, después se vuelve a filtrar como se hizo anteriormente obteniendo celulosa limpia. La extracción de xilanas se lleva a cabo con la solucion de KOH con hemicelulosas que resulta del aislamiento de hemicelulosas. Aquí se prepara una solución de etanol y ácido acético en un vaso precipitado, de tal manera que la cantidad de etanol sea 4 veces la cantidad de la solución de KOH con hemicelulosas, y la cantidad de ácido acético sea el 10% de la cantidad de etanol, se agregan las xilanas y se dejan hasta que se precipiten, despues se filtra la solución quedando las xilanas separadas de la solución y se colocan en un horno de vacío. Para continuar, se le añade 20 ml de KOH al 10% por cada gramo de xilanas y se dejan en agitación un tiempo, seguido de esto se le agrega el doble de Ba(OH)2 al 5% que lo que se le agregó de KOH, después se centrifugan, se recupera el sólido, se les agrega ácido acético, se dejan agitando, se vuelven a filtrar y a colocarse en el horno de vacío. Para la obtención de nanocristales de célulosa primeramente una hidrólisis de celulosa con ácido sulfúrico, se realizaron varias muestras con ácido a concentraciones de 19% y 37%. Para cada muestra se coloca 1 gramo de celulosa y 100 ml de H2SO4 en agitación en un matraz y este a baño maría. Después se les agrega 100 ml de agua destilada y se decantan para separar los nanocristales, esto 3 veces. A continuación se colocan en membranas y estas en un vaso con agua destilada en agitación para dializarlos. Se separan nuevamente por decantación, se centrifugaron, se separaron del exceso de agua, se les agrega nuevamente agua y se colocan en un ultraturrax obteniendo una solución un tanto gelatinosa.  Al final se les realiza DLS a los nanocristales. A la celulosa y xilanas obtenidas se les realiza infrarojo.


CONCLUSIONES

En el transcurso de esta estancia aprendí muchas cosas, más que nada prácticas, sobre la obtención de nanocristales de celulosa pero además sobre la obtención de celulosa, que es la materia prima de los nanocristales, adquirí mucha práctica en cuanto al manejo de equipo, material y reactivos en el laboratorio, y además pude convivir con otras personas que están realizando trabajos de investigación en el mismo laboratorio, lo cual me permitió conocer un poco sobre sus trabajos y sobre sus personas.  Lamentablemente el tiempo de la estancia me pareció insuficiente ya que me habría gustado continuar con los nanocristales para darles una aplicación o empezar algún tratamiento en el que sirvan como punto de partida para obtener algo más, algo más funcional, es decir, poder conocer por experiencia propia sobre el potencial que tienen en alguna de las áreas mencionadas en el planteamiento del problema. Pero con lo obtenido hasta el momento puedo decir que la obtención de nanocristales de celulosa fue exitosa, y éstos están listos para ser empleados en lo que será el proceso de biomineralización que se estaría realizando en la última semana de estancia, se espera que esto sirva en una aplicación biomédica relacionada a la formación de andamios de tejido óseo.
Bustos Palacios Efren, Universidad de Guadalajara
Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío

APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA


APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA

Bustos Palacios Efren, Universidad de Guadalajara. Islas Avila Shaden Eunice, Instituto Tecnológico de Pachuca. Merino Merino Oswaldo Antonio, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Desafortunadamente, se puede encontrar información de varios casos de abuso policial que vulneran los derechos humanos, violentando la seguridad e integridad física de las víctimas. En este caso, las víctimas no tienen un medio que permita conocer la identidad del ofensor, verificar la identidad del personal policiaco, o conocer su estatus de actividad.



METODOLOGÍA

Para llevar a cabo este proyecto, se buscaron aplicaciones móviles en diferentes plataformas de distribución y en Internet que permitan conocer el estatus de una patrulla o policía a través de un teléfono inteligente. Una vez concluida esa fase, se procedió a definir los requerimientos de la aplicación y usabilidad. Con los requerimientos de la aplicación y usabilidad, se procedió a realizar el modelado de software y Mockups. Después se realizó un story board para comprender la interacción con el usuario. Posteriormente, se definió el lenguaje de programación y se programó. Finalmente, se integró el diseño a la aplicación y se realizaron pruebas de usabilidad con posibles usuarios. Requerimientos y diseño. En base a los requerimientos definidos para la aplicación se diseñaron mockups que permitieron obtener una vista previa de sus interfaces y usabilidad, dichas características quedaron definidas de la siguiente manera: Barra de título con las siglas IDP (Identificación Policiaca). Botón circular desde el cual se accede al scanner de placas. Barra de ingreso de texto para la búsqueda manual de placas. Menú de 3 botones cuya función es permitir el contacto inmediato con otros medios en situaciones de riesgo: Enviar ubicación en tiempo real, incluyendo un pequeño texto descriptivo. Llamada de emergencia al 911. Toma de fotografía y posterior publicación en redes sociales. Desarrollo de la app y conexión a la base de datos en firebase Para la maquetación y desarrollo de la aplicación se decidió utilizar el entorno de desarrollo IDE Android Studio para versiones de Android 5.0 en adelante y para el diseño y creación de la base de datos se utilizó la plataforma en la nube Firebase en realtime. Asimismo, se desarrolló una página web, a cuyo acceso tienen los usuarios administradores, permitiendo realizar consultas sobre las patrullas buscadas por parte de los usuarios y obtener estadísticas con las cuales se puedan identificar posibles anomalías y se tomen acciones pertinentes; dicha página web se desarrolló con las tecnologías HTML5, Javascript y la ya mencionada plataforma Firebase. Pruebas Una vez concluida la fase de desarrollo, se implementó la primera versión de la app en un dispositivo móvil, con el fin de realizar pruebas de funcionamiento y usabilidad; dichas pruebas fueron aplicadas a los integrantes del equipo de desarrollo y posteriormente se aplicaron a otros usuarios, sin distinción de edad o experiencia en uso de aplicaciones móviles, esto, para determinar la efectividad e integridad del producto final desarrollado. Una vez concluidas las pruebas de interacción, se aplicó a cada usuario un formulario con el fin de obtener información relevante sobre su experiencia en torno a la problemática planteada y observaciones a manera de retroalimentación que pudiesen ser aplicadas en las siguientes versiones a desarrollar de la aplicación.


CONCLUSIONES

Después de haber realizado pruebas de usabilidad con posibles usuarios se obtuvo que: La problemática planteada en nuestro proyecto es de suma relevancia dentro de la población en la que se realizaron las pruebas. La aplicación es útil y puede ser implementada para conocer el estatus de un policía; así como, verificar la identidad del mismo. contribuyendo a incrementar la seguridad ciudadana dentro de nuestras fronteras.
Cabral Berumen David Gabriel, Universidad de Guadalajara
Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)

ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.


ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.

Cabral Berumen David Gabriel, Universidad de Guadalajara. Sanchez Sanchez Lizbet, Tecnológico de Estudios Superiores de Jocotitlán. Vazquez Rico Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)



PLANTEAMIENTO DEL PROBLEMA

  La creación de un centro de distribución (CEDI) tiene como objetivo principal almacenar productos terminados para poder hacerlos llegar a su destino final, de la manera más efectiva, rápida y económica posible, permitiéndole a las empresas mantener a los clientes permanentemente y adecuadamente abastecidos según las políticas de servicio al cliente y de acuerdo a los exigentes requerimientos del mercado. Pero las circunstancias que enfrenta Bogotá resultan interesantes ya que como primer paso se revisó bibliografía donde se pudo establecer la existencia de restricciones de horarios, tipos de carros, vialidad, concentración de tráfico, capacidades de mercancías al transportarse por el interior, calles, avenidas y carreteras adyacentes a la ciudad. Las distintas empresas del sector de bebidas cumplen con estas restricciones, pero se ven afectadas pues circulan a mitad e incluso menos de la mitad de la capacidad a transportar de mercancías en los diferentes tipos de vehículos que utilizan. Además, se observa una alta congestión vehicular a determinadas ventanas horarias en el día, de manera que los desplazamientos para realizar sus entregas, las restricciones para cada tipo de transporte, las capacidades, las normas de vialidad, etc hacen menos eficiente el sistema de distribución de mercancías.  



METODOLOGÍA

Revisión de material bibliográfico para conocer y entender las tendencias de logística urbana en la ciudad de Bogotá. Después de esto, se analizó y depuró una base de datos obtenidos en una encuesta que permitió visualizar el tipo de carro, nivel de carga, frecuencia e intensidad de las cargas que circulan de los orígenes a los diferentes destinos, así como el impacto ambiental. Posteriormente, para comprender el estado actual de la distribución urbana de mercancías se utilizó Google Earth donde se localizaron y capturaron las rutas de orígenes a destinos, así como el tiempo de traslado de mercancía, posterior a esto en el software ArcGis se exportó la información y se colocó en un mapa de la ciudad visualizando las zonas con mayor concentración y flujos de mercancía. Se observó, que las rutas coincidían en cierta zona, se dedujo que es factible colocar un CEDI que permite mejorar la movilidad de mercancías cumpliendo con los requerimientos que existen dentro del mercado, así mismo permitirá tener un mayor control de las flotas, capacidades y calidad del producto. Se prosiguió a determinar el cálculo de latitud y longitud de los zat tanto de origen como de destino para encontrar un punto intermedio que servirá para instalar el CEDI, se hizo uso del método de centro de gravedad. Una vez que se obtuvo la localización se buscó una cobertura de atención al mercado en un rango de 3.5 kilómetros en consecuencia, las coordenadas obtenidas marcaban una zona donde difícilmente se pudiera construir una bodega, se tomó en cuenta las restricciones de construcción, permisos y localización de almacenes, así como espacios donde los tipos de vehículos que accedieran pudieran circular respetando las normas de vialidad.  Colocar el CEDI da diferentes ventajas competitivas sostenibles por ejemplo mayor cercanía para tratos con intermediarios, acertado empleo de recursos tecnológicos y humanos, reducción de pérdidas debido a la manipulación o vencimientos, cumplimiento y buenas relaciones entre el productor y el cliente. A través de la base de datos y de la localización del CEDI se entendió que los vehículos de transporte requerían nuevas rutas dentro del área analizada. Para lograr establecer dichas rutas se volvió a utilizar Google Earth y se registraron los nuevos datos en ArcGis creando mapas de visualización que permitieran obtener información de localización y control de las mercancías.  Además, con un cambio en la flota de los automóviles se maximiza el uso de los vehículos cargándolos a su máxima capacidad y se disminuye la cantidad de éstos. Al disminuir la cantidad se optimiza el tráfico de vehículos, por consecuente los tiempos de traslado se reducen y las emisiones de  a la atmósfera también. Ya con las rutas principales analizadas, la localización del CEDI, el nuevo ruteo establecido, la flota de camiones actual y con una nueva flota mejorada se filtró la información con la ayuda del programa Excel y se llevó a cabo un análisis para destacar las mejoras y plantearlas a través de gráficos donde la percepción fuera comprensible y concreta. Estos gráficos expresan particularmente el desarrollo del proyecto, lo cual nos ayuda a diferenciar las situaciones iniciales de las situaciones mejoradas, gracias a la propuesta de establecer un CEDI y optimizar el número de transporte requerido.    


CONCLUSIONES

Durante nuestra estancia de investigación logramos adquirir conocimientos teóricos sobre la logística y gestión de operaciones en el sector urbano, ponerlos en práctica con el control y manipulación de software como ArcGis, Google Earth y la paquetería de Microsoft Office. Con el análisis se obtuvo una perspectiva más amplia de los problemas que se enfrentan en la distribución urbana considerando todos los factores que influyen dentro del sistema de distribución de mercancías, disminuyendo los costos de transporte, mayor control de la demanda, menos emisiones de CO2 a la atmósfera y abastecimiento a través de la implementación de un CEDI. Gracias al programa Delfín y a la línea de investigación guiada por la M.C Leila Nayibe Ramírez Castañeda docente de la Universidad Libre de Colombia sede Del Bosque se pudo obtener diversos conocimientos sobre la aplicación de software aplicados a la logística y a la distribución urbana, así como también el desarrollo de modelos para la toma de decisiones y planificación de cadenas de entrega tomando en cuenta indicadores ambientales, sociales y económicos
Cabral Cortes Aranza Monserrat, Instituto Tecnológico de Tláhuac
Asesor: M.C. Raúl Rivera Blas, Instituto Politécnico Nacional

DISEñO DE UN SISTEMA MECATRóNICO PARA LA BúSQUEDA DE PERSONAS ATRAPADAS EN ESCOMBROS.


DISEñO DE UN SISTEMA MECATRóNICO PARA LA BúSQUEDA DE PERSONAS ATRAPADAS EN ESCOMBROS.

Cabral Cortes Aranza Monserrat, Instituto Tecnológico de Tláhuac. Asesor: M.C. Raúl Rivera Blas, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Diseñar un sistema mecatrónico para su inserción en espacios reducidos de 4 pulgadas de diámetro en operaciones de reconocimiento, inspección estructural y búsqueda de personas atrapadas en escombros. Para llevar a cabo dicho sistema se iniciará con un algoritmo el cual se basa en de visión artificial ya que gracias a la visión artificial es posible tener diferentes aplicaciones y este es programado en Python por medio de la paquetería de OpenCV.



METODOLOGÍA

Para poder detectar objetos con OpenCV es necesario instalar esta misma librería y antes de colocar los algoritmos necesarios en la Raspberry se descargó el software de Python para Windows 10, es importante mencionar que para poder instalar la versión de Python en Windows se instala Pycharm que es un entorno de desarrollo integrado (IDE) utilizado en la programación de computadoras , específicamente para el lenguaje Python .   Una vez que está instalado el software, dentro de la plataforma se descargan las librerías para programar las cámaras AMG8833 y Raspberry. Las librerías instaladas son las siguientes; Numpy, OpenCV, Matplotlib, Contours, Cannycam , AdafruitAMG8833 y time. Es importante mencionar que Pycharm es la plataforma donde se programó la fórmula del laplaciano, segmentación y pruebas con la cámara termina AMG8833. Para poder programar primero es necesario colocar las librerías correspondientes  como numpy, la cual sirve como soporte para vectores y matrices, constituyendo una biblioteca de funciones matemáticas de alto nivel para operar con esos vectores o matrices.  Mientras que la librería cv2, corresponde a una librería de la paquetería de OpenCV. Para el método de segmentación se utilizó la librería de cannycam, la cual proporciona un algoritmo de visión de forma binarizada de la imagen, ádemas se utilizo el metodo de contornos y se coloco otro metodo que ayuda a fromar la segmentacion, este mismo consiste en colocar una serie de puntos en la extremidad que se mueve  y  gracias a este metodo es como la segemntacion queda delimitada y marcada .  Para la forma laplaciana y binarizacion de siluetas Una vez que se  visualizó con la cámara de la computadora el método anterior, algunos detalles no se lograron apreciar de manera correcta y muchas de estas formas que se muestraron son solo fragmentos de las figuras completas. Por ello se decidió utilizar el método de binarización pero por la forma laplaciana ya que gracias a este es como se pueden apreciar los objetos de forma que la imagen no se logra ver tan afectada. Finalemte para la parte mecanica se realizaron diferentes modelos que ayudaron a la manipulación de la camara de Raspberry pi 3 y  poder realizar algunas pruebas con los actuadores . Los diseños se realizaron en la plataforma de diseño SolidWorks.


CONCLUSIONES

De acuerdo con el plan de trabajo establecido se logró realizar el algoritmo correspondiente para detección de personas por medio del método de contornos y laplaciano. Además, se realizaron pruebas con la cámara Raspberry después de haberlas hecho con la webcam, también se logró diseñar y poner en práctica los modelos correspondientes. Cabe destacar que para el caso de la cámara termina no fue posible realizar pruebas ya que, al momento de llevar acabo estas mismas con el algoritmo de contornos, la visualización de imagen no se conseguía, además los ejemplos que se mostraban no eran suficientes ya que los errores que se mostraban se debían al tipo de versión en la cual se programa. Es importante mencionar que para juntar ambos programas tanto el de segmentación como el de contornos se mostraba una inestabilidad en la cámara pues esta parpadeaba constantemente y fue por ello que se optó para una mejor visión de los objetos que estos estuvieran separados y no dentro de una misma ventana.
Cabrera Altamirano Abigain, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara

ARSéNICO EN EL AGUA DE JALISCO: UNA PROPUESTA FACTIBLE PARA SU REMOCIóN


ARSéNICO EN EL AGUA DE JALISCO: UNA PROPUESTA FACTIBLE PARA SU REMOCIóN

Cabrera Altamirano Abigain, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Marco Leopoldo García Guaderrama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El arsénico es un elemento natural de la corteza terrestre; ampliamente distribuido en todo el medio ambiente, está presente en el aire, el agua y la tierra. En su forma inorgánica es muy tóxico, ya que carece de sabor, ni olor marcado y se mezcla fácilmente con los líquidos, bebidas o alimentos. Actualmente, las sustancias arsenicales se utilizan en la industria, en la agricultura y ganadería y en medicina. Por ello, las fuentes de exposición del hombre a este metal son diversas destacando la laboral, la alimentaria y la medicamentos. La exposición al arsénico (As) puede ocasionar efectos tóxicos en el organismo, tanto de tipo carcinogenéticos como no carcinogenéticos. La Agencia Internacional de Investigación del Cáncer (IARC) perteneciente a la OMS clasificó a todos los compuestos inorgánicos de arsénico dentro del grupo 1, el cual engloba a todos las sustancias carcinogénicas para los humanos. Su límite máximo para permitir el uso consuntivo del agua en legislación internacional es de 0.01 mg L-1, tal como se establece en las Directrices de la Organización Mundial de la Salud (OMS y Organización Panamericana de la Salud, 2006) A partir de este cambio propuesto a valores más restrictivos se generó una gran controversia respecto de la problemática ambiental ocasionada por la presencia de arsénico en el agua. En este trabajo de investigacion se hace un analisis de las alternativas basadas en la capacidad de ciertos óxidos e hidróxidos de reaccionar con el As3+, oxidarlo y precipitarlo en forma de arsenato. Con el objetivo de verificar la capacidad de retención de arsénico.



METODOLOGÍA

La eliminación de As en agua, en potabilizadoras a escala mayor, es un proceso complejo que involucra varias etapas y reactivos químicos. Un ejemplo es la Planta Potabilizadora de Toluquilla (Jalisco). Una consecuencia de ello es un costo elevado del agua tratada. A escala menor (doméstico) son necesarios filtros de ósmosis inversa. El costo del equipo no permite una implementación masiva. De las 4 plantas potabilizadoras a cargo de SIAPA y que surten a la ZMG, solo una de ellas (Toluquilla) tiene la capacidad de remover metales pesados (Fe, Mn y As). Las otras 3 tienen un sistema de potabilización tradicional que cumple solo con los parámetros estándar del índice de calidad del agua (ICA). Municipios como Tlajomulco, con problemas de arsénico en su agua, recientemente (2014) comenzaron la instalación de plantas potabilizadoras con sistemas para la eliminación de arsénico. Existen alternativas basadas en la capacidad de ciertos óxidos e hidróxidos de reaccionar con el As3+, oxidarlo y precipitarlo en forma de arsenato. Nuestro producto usa esa idea y mediante un proceso físico-químico (hasta el momento en fase de prototipo), óxidos catalizadores son depositados en un medio altamente poroso. La obtención del producto es a partir de reactivos y productos grado industrial para simular condiciones de producción reales. Diversas pruebas fueron realizadas usando agua con Cr6+ y As3+ a concentraciones muy superiores a la NOM-127-SSA1-1994 (100 ppm y 10,000 ppb, respectivamente). Éstas se realizaron simulando operación real (flujos, pH, temperatura). Gráfica 1   Comparación del porcentaje de remoción de Cr(VI) con Zeolox y Green Sand Plus™ (Concentración inicial de Cr(VI): 100 ppm, masa del catalizador: 200 g, flujo: 5ml/min) La capacidad de remoción de ZEOLOX (ZM5-5) fue similar a la del producto comercial Green Sand Plus™ (GS en la gráfica). Propiedades de regeneración no fueron realizadas. Los resultados de remoción de As en concentraciones extremas (prueba acelerada) indican que ZEOLOX es extremadamente eficaz: eliminación de As cercana al 100% fue obtenida en el periodo de operación (concentración de entrada: 10,000 ppb, concentración de salida: < 4ppb; fuera del límite inferior de detección del instrumento). El método de análisis fue por Espectroscopía de Emisión Atómica.  


CONCLUSIONES

Es un producto específicamente diseñado para la eliminación de arsénico en agua. Productos similares (todos de importación) existen en el mercado (Pyrolox™, Katalox ™, Green Sand Plus ™, Ferrolox™). El costo de estos productos es prohibitivo para su implementación masiva en las comunidades afectadas por arsénico en Jalisco (entre 80,000 y 150,000 $/Ton). Consideramos que  la relación beneficio/costo de este producto lo hacen una opción a considerar para ayudar en la solución de este problema de salud pública.
Cabrera Armenta Amanalli Jetzemay, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango

DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.


DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.

Cabrera Armenta Amanalli Jetzemay, Instituto Tecnológico Superior de Huauchinango. Nava Hernández Juan José, Instituto Tecnológico Superior de Huauchinango. Quiroga Hernandez Celina, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía eléctrica ha provocado daños en el medio ambiente debido a que las centrales generadoras de electricidad tienen que incrementar su producción para poder cumplir con la demanda, pero este incremento en la producción puede desencadenar efectos nocivos en el ambiente; por tal motivo se han implementado diversas formas de energía para satisfacer las necesidades de las personas, pero sin generar efectos negativos. Aunque son una buena alternativa tienen un inconveniente ya que su nivel de eficiencia no es muy alto en algunos casos, esto lo podemos observar en los sistemas fotovoltaicos ya que los paneles solares fijos no aprovechan al cien por ciento la radiación que emite el sol debido a que solo están posicionados en un cierto ángulo. El Seguidor solar es un mecanismo diseñado para optimizar el funcionamiento de un panel solar fijo mediante la implementación de un sistema de control, específicamente un PID, que devuelva un movimiento vertical capaz de aprovechar las horas efectivas de luz solar en la zona que sea instalado.



METODOLOGÍA

Construcción del prototipo Inicialmente se realizará el soporte principal del prototipo constituido por una base horizontal y una base vertical colocada perpendicularmente. Para continuar con el montaje del prototipo se fijarán los dos sensores LDR, uno paralelo del otro en los extremos horizontales de la celda fotovoltaica, se fijó el servomotor en la base principal y se montó el panel solar en el servomotor. Ganancias del PID Para el control PID se realizaron pruebas con el método de ensayo y error para obtener las ganancias. El método se comenzó con un valor proporcional de Kp= 0.01 al sistema PID dejando Ki y Kd en 0, este valor se fue variando, teniendo en cuenta las acciones básicas de control, al elevar el valor hasta Kp= 0.1 se observó que el sistema oscilaba mucho por lo tanto se optó por ir reduciendo este valor hasta obtener el valor adecuado. Una vez obtenido un valor proporcional adecuado, se realizó lo mismo con los términos PI, PD y PID. Los valores finales de las ganancias obtenidas con este método son: Kp= 0.05, Kd=0.04 y Ki=0.01 Éste es el método de sintonía que puede resultar más lento y menos preciso, aunque el más intuitivo. Programación del controlador PID La plataforma de programación que se utilizará será Arduino versión 1.8.9. En el primer apartado se encontrarán las variables y constantes globales declaradas, se incluirán la librería para el servomotor y se definirá la posición inicial del mismo para que cuando las fotorresistencias dejen de mandar una señal a Arduino el servomotor vuelva a su posición inicial (0°), se declaran los pines de conexión para las fotoresistencias así como las variables que posteriormente almacenarán las lecturas que obtengamos de las fotorresistencias, y las variables para el ángulo de incidencia y la señal de salida. Enseguida se colocarán los valores de las ganancias kd, kp y ki, así como otros parámetros del PID. Inicializamos el servomotor en el pin 9 ya que este recibe una señal digital. Al iniciar el ciclo se obtiene lecturas de los valores de las fotoresistencias y estos se les asignan a las variables Left y Right. El cálculo del ángulo de incidencia es presentado por la siguiente fracción del código. Se calcula la diferencia entre el valor que la variable Left y el de Right. En la siguiente sección de código se realiza el control PID, para comenzar se les asignan valores a las variables de los intervalos de tiempo Posteriormente se le establecen valores a los errores de las ganancias realizando las operaciones necesarias. A continuación se multiplican los valores de las ganancias con su respectivo error, enseguida los resultados obtenidos se van sumando para obtener la acción PID.


CONCLUSIONES

Al terminar el dispositivo Seguidor Solar los resultados esperados fueron exitosos, pues se pudo obtener y realizar el objetivo planteado al inicio. La respuesta transitoria del sistema nos muestra las oscilaciones que se presentan antes de que se alcance el estado estable. La respuesta del sistema presenta ciertas características que nos ayudan a determinar la curva que nos muestra el comportamiento del sistema. El tiempo de retardo td nos especifica el tiempo que requiere el sistema para alcanzar la mitad de su valor final. El td es de 25ns; el tiempo de levantamiento tr nos especifica el tiempo que se requiere para que el sistema alcance el 90% de su valor final, este tiene un valor de 50ns de acuerdo a la gráfica; el tiempo pico tp nos indica el tiempo que necesita el sistema para alcanzar su valor pico del sobrepaso, el sistema requiere un tiempo de 90ns para alcanzar su valor pico máximo; el tiempo de asentamiento ts nos permite determinar el tiempo que demora el sistema en acercarse al estado de estabilidad al igual que al valor de referencia, el sistema tarda 210 ns en aproximarse a dicho estado; y el sobrepaso máximo Mp es el valor pico máximo que alcanza la respuesta expresado en porcentaje, en este caso el sistema presenta un 55% de sobrepaso máximo. El sistema sufre una perturbación, esta debida a que al momento de realizar las pruebas la fuente de luz se movió rápidamente en determinado momento, haciendo que el servomotor se moviera abruptamente; dicha perturbación hace la señal de control alcance su valor medio en 25ns y se acerque al valor de referencia de 4.5V en aproximadamente 50ns, pero sufre un sobrepaso de 2.5V que representa un 55% del valor de referencia, posteriormente experimento un sobrepaso nuevamente pero de un valor menor, acercándose a los 0.2V, para después entrar al estado de estabilidad después de 210ns transcurridos. Con las observaciones hechas al momento de analizar la respuesta del PID, se puede concluir que el sistema tiene una respuesta rápida aun cuando el movimiento de la fuente de luz sea realizado de forma abrupta y esto lo hace adecuado para implementar este control en sistemas con estas características.
Cabrera Perales Melany Alexa, Universidad de La Salle Bajío
Asesor: M.C. Mauricio Amariles Camacho, Tecnológico de Antioquia Institución Universitaria (Colombia)

APLICACIONES DE LOS CONTRATOS INTELIGENTES EN LATINOAMéRICA USANDO LA TECNOLOGíA BLOCKCHAIN.


APLICACIONES DE LOS CONTRATOS INTELIGENTES EN LATINOAMéRICA USANDO LA TECNOLOGíA BLOCKCHAIN.

Cabrera Perales Melany Alexa, Universidad de La Salle Bajío. Hernández Olvera Nephtali Abisai, Universidad Autónoma de Nayarit. Asesor: M.C. Mauricio Amariles Camacho, Tecnológico de Antioquia Institución Universitaria (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La tecnología del blockchain se vio por primera vez en el año 2009, por Satoshi Nakamoto, quién fue el primero en dar a conocer la cadena (citado en Molina, 2019) , esta comenzó como un medio por el cual se busca realizar un intercambio de información y estructuración de un proceso a través de una mecanismo descentralizado que cuenta con nodos de información interconectados y justificados en un esquema criptográfico.(citado en Corredor Higuera & Díaz Guzmán, 2018). Hay pocos estudios acerca de los usos y aplicaciones de los contratos inteligentes utilizando la tecnología blockchain en Latinoamérica. Uno de los que presenta mayor porcentaje de uso es China con un 18% en el 2018 y una proyección para los 2021 a 2023 del 30%. Latinoamérica es quien presenta porcentajes de interés más bajo en contratos inteligentes a excepción de Colombia, Chile, Argentina, México y Brasil qué son los únicos países que se encuentran dentro del top 50.



METODOLOGÍA

La metodología que se llevará a cabo en el contenido de la investigación tiene como primer paso la revisión del estado de arte referente a los contratos inteligentes utilizando la tecnología blockchain, posteriormente se construye un cuadro comparativo y finalmente un análisis sobre las distintas perspectivas tanto a nivel internacional como a nivel latinoamericano, para conocer las diferentes aplicaciones que existen actualmente sobre la tecnología ya mencionada. 1.Revisión del estado de Arte. En latinoamérica se están dando a conocer distintos tipos de aplicaciones enfocadas a la tecnología blockchain como es el caso de Vargas Arboleda donde menciona que el blockchain promete cambiar y mejorar radicalmente las operaciones de comercio electrónico de medicamento en Colombia (Vargas Arboleda, 2019). Un contrato inteligente es un código de computadora en blockchain que se ejecuta una vez que se cumplen las condiciones establecidas por ambos participantes (Swan, 2015, citado en Kay Behnkea, M. Janssen, 2018). 2.Comparar a nivel internacional y latinoamericano la apropiación de la tecnología blockchain y contratos inteligentes. LATINOAMÉRICA Administrativo: Sistema web que permita resolver distintas actividades administrativas. Financiero: Petro una criptomoneda que complementa el bolívar fuerte de venezuela. Gubernamental: Prototipo para el proceso de restitución de tierras, que permite a la ANT y a las víctimas incluir datos y documentos e incluye registro biométrico de las personas involucradas. Educación: La Universidad Nacional de Colombia utiliza blockchain para generar certificados académicos. Energético: Sello Sol es un certificado que permite trazar la generación de energía solar desde el lugar de origen. Seguridad: Sistema de autenticación y acceso a áreas restringidas, además de aplicaciones descentralizadas para el manejo de reportes. Agropecuario: Modelo de Rastreamiento Bovino. FUERA DE LATINOAMÉRICA Administrativo: MedRed, desarrolla tecnología para el almacenamiento y acceso de datos médicos, además de  la gestión de permisos médicos. Financiero: Sistema de contratos inteligentes que protege la información de la transacción financiera en blockchain. Gubernamental: Sistema de gestión de transporte distribuido. Educación: Educoin, plataforma de servicios educativos para facilitar el intercambio de conocimiento y mejorar las transacciones financieras de los servicios educativos. Energético: Mecanismo de transacción de energía completamente descentralizado con el fin de incluir auditoría, licitación, compensación y liquidación. Seguridad: Prototipo para reducir los problemas relacionados con la privacidad de la aeronave, denegación de servicio entre otros factores que intervengan en el tráfico aéreo. Agropecuario: Tecnológicas enfocadas a la confianza de trazabilidad y el producto que los consumidores compran, basada en la cooperación blockchain. 3.Analizar las aplicaciones de los contratos inteligentes en América latina En el 2018 Estados Unidos fue quien tuvo mejor presencia en Blockchain y Contratos Inteligentes con un 29%,  el país que le sigue en el ranking es China con un 18% pero qué tiene una mayor proyección para 2021 - 2023 con un 30% superando a Estados Unidos que cuenta con un 18%. El resto de los países muestran porcentajes bajos tanto para 2018 como para las proyecciones 2021 - 2023, Reino Unido para 2018 presentó un 5%, pero sus alcances cayeron a un 2%. Japón es otro país que perdió perspectiva, en 2018  estaba en un 6% y cayó a 4%. Los sectores que cuentan con más aplicaciones de Blockchain y Contratos Inteligentes a nivel mundial son: el caso del sector financiero con 46%, quien es el dominante, posteriormente sigue el sector industrial y energético con un 12%, el sector salud con 11%. Gobierno se encuentra presente en los avances tecnológicos aplicando blockchain y contratos inteligentes y el sector muestra un 8%. Los sectores que menos aplicaciones tienen son el de los consumidores 4% y entretenimiento 1%.


CONCLUSIONES

Basado en las gráficas analizadas existe poco desarrollo de aplicaciones de contratos inteligentes utilizando la tecnología blockchain en latinoamérica frente a países desarrollado. Según los reportes oficiales de la Price Waterhouse Coopers una de las barreras de la implementación de Contratos Inteligentes es la incertidumbre regulatoria en los aspectos legales. Las estadísticas de Google Trends sobre el interés de Contratos Inteligentes, Colombia es uno de los mejores posicionados a nivel Latinoamérica Un estudio realizado por The Wall Street Journal afirma que Latinoamérica es potencia emergente en tecnología.
Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.


MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.

Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango. Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango. Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca. Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca. Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de las tareas mas importantes en robotica es la deteccion de obstaculos, esta tarea ha sido estudiada por decadas, uno de los principales problemas en la misma es considerar la incertidumbre en los sensores, este problema se incrementa considerando los ambientes estructurados en los cuales debe navegar los robots de servicio. Entre las diversas opciones tecnologicas una de las mejores son los sensores ultrasonicos, que, aunque son complicados de modelar, su respuesta es rapida y segura para ser implementados en ambientes no controlados. Sin embargo, en el caso de la medicion con cierto tamaño y orientacion no sean visto por el sensor, o que en general aparezcan mas lejos de lo que realmente estan, para esto se necesita implementar un algoritmo para la cracion de mapas de ocupacion para la deteccion de obstaculos aplicado en un robot movil de servicio. Será diseñado en LabVIEW y mediante un análisis estadístico se construirá un modelo probabilista del sensor para mejor la detección, además de utilizar un modelo logarítmico para crear y fusionar los mapas temporales en un mapa global único.



METODOLOGÍA

Considerando un ambiente estructurado, en el cual navega el robot, es necesario considerar primero un modelo estatico del sensor que permita parametrizar el funcionamiento del sensor bajo incertidumbre. Considerando los parametros estadisticos y mediante una validacion estadistica es posible estimar el funcionamiento del sensor considerando que el valor no siempre es confiable. Extendiendo este analisis a un proceso dinamico, es posible considerar los efectos del movimiento del robot en la deteccion y como esta afecta en la incertidumbre, esto nos permite refinar la deteccion y tener una mejor respuesta en la contruccion del maoa y por lo tanto en la deteccion y despazamiento del robot en el ambiente. El modelo del robot considera diversos aspectos, como, por ejemplo: el espacio donde el robot se desenvolvera y el entorno del cual recibira informacion para establecer las instrucciones de programacion correctas. Fijar el valor de la velocidad a la cual el robot seguira una pared y asi determinara si el programa cumple con las restricciones establecidas.  


CONCLUSIONES

Es un proyecto muy viable que forja los conocimientos de practicantes de robótica, como de estudiantes de ingeniería en electrónica, mecatrónica, sistemas computacionales y en el área de control, por tanto se debe cumplir con ciertos conocimientos de las diversas ramas mencionadas para llevar a cabo éste proyecto. La finalidad de la práctica ha sido poner a prueba los conocimientos adquiridos a lo largo de los pequeños proyectos anteriormente realizados, ya que se necesita saber el manejo del sensor ultrasónico y del control y ajuste de la velocidad de los motores, para elaborar un programa que establece instrucciones al robot para seguir una pared.
Cabrera Vásquez Christopher, Universidad Veracruzana
Asesor: Dr. Eddie López Honorato, Centro de Investigación y de Estudios Avanzados (IPN)

DESARROLLO DE COMPóSITOS DE MATRIZ CERáMICA POR LA VíA POLíMERO PRECURSOR PARA SU USO EN AMBIENTES MARINOS


DESARROLLO DE COMPóSITOS DE MATRIZ CERáMICA POR LA VíA POLíMERO PRECURSOR PARA SU USO EN AMBIENTES MARINOS

Cabrera Vásquez Christopher, Universidad Veracruzana. Asesor: Dr. Eddie López Honorato, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la mayoría de los materiales y componentes utilizados para la generación de energía del océano son a base de acero, el cual sufre invariablemente de corrosión en ambientes marinos. Este daño por corrosión afecta seriamente la integridad de estas estructuras y componentes, reduciendo su eficiencia e incrementando los costos de generación de energía. Ante esta problemática se ha establecido la necesidad de desarrollar nuevos materiales donde no se requiera dar mantenimiento a estos sistemas por un periodo de 20 años. Una de las opciones es a través del desarrollo de componentes y subsistemas a base de materiales inherentemente resistentes a la corrosión, tales como materiales cerámicos y poliméricos. El carburo de silicio obtenido por un precursor polimérico ha despertado el interés por la facilidad de maquinado para producir formas complejas, la solubilidad, bajo punto de fundición menor a <220°, y producir un cerámico con buenas propiedades mecánicas, resistencia a la corrosión y choque térmico. Sin embargo, la vía presenta grandes retos como el bajo rendimiento cerámico y la alta porosidad formada en la conversión térmica. En este contexto, el objetivo del presente trabajo se centra en caracterizar el desarrollo de compósitos por la vía precursor polimérico variando las condiciones de procesamiento.



METODOLOGÍA

Se usarán carbón nanométrico y grafito al 20% de la relación de peso como fase de refuerzo. El procesamiento se realizará colocando la mezcla de polvos en un dado metálico y empleando una prensa hidráulica a 1 y 4 toneladas, manteniendo el prensado a 5 y 15 minutos; de esta forma se obtienen los pellets que se llevarán a tratamiento térmico en un horno tubular horizontal eléctrico a 800°C en una atmósfera inerte de argón. Se caracterizará el porcentaje de peso perdido, las dimensiones volumétricas, la densidad por el principio de Arquímedes, la microestructura y topografía por microscopia de alta resolución y la composición de las fases presentes por medio de espectroscopía Raman.  


CONCLUSIONES

De acuerdo con los resultados obtenidos después del tratamiento térmico, las muestras sometidas a 4 Toneladas durante 15 minutos presentaron la menor pérdida de peso, menor reducción en sus dimensiones y el mayor aumento en densidad; además, estas mismas muestras arrojaron un valor de microdureza de 1.2557 GPa, siendo el valor más alto obtenido. La espectroscopía Raman mostró las bandas D y G, características de estructuras carbonosas, la banda G está relacionada con la energía de los enlaces sp2 y la banda D indica la presencia de defectos estructurales. Finalmente, las micrografías tomadas revelan un agrietamiento de manera horizontal en las muestras, esto debido a la contracción y la pérdida de masa del material.
Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes

DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.


DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.

Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes. Garcia Bucio Graciela, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Tinajero Juan Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Sanchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las MIPYMES independientemente del sector en el que se analicen, es evidente que se han convertido en un factor indiscutible para el crecimiento económico de nuestro país, sin embargo, debido a la mala planeación, escases de recursos, mala administración financiera entre otros factores se han posicionado en el sector como uno de los más desalentadores en términos de consolidación y crecimiento a corto mediano y largo plazo, en datos de la encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas (ENAPROCE), presentado por el INEGI(2015), nos muestran que el promedio de vida es menor a los 2 años, sumándole que el 75% de las mismas no logra consolidarse o desaparecen de manera definitiva en el mismo lapso de tiempo, datos alarmantes que nos invitan a realizar una retrospectiva minuciosa a fin de subsanar los errores cometidos en el pasado con la finalidad de fortalecer de manera holística a las empresas y a los stakeholders que forman parte de esta importantísima cadena de valor. La presente línea de investigación se centra principalmente en conocer si los modelos actuales para la elaboración de proyectos de inversión, contienen los elementos necesarios para el correcto uso de los emprendedores que les permitan tener una visión certera del panorama de sus inversiones, por último y con el fin de dar solución al problema, es necesario el desarrollo y aplicación de un modelo de inversión con el objetivo de conocer si impacta en el éxito o fracaso de las micro, pequeñas y medianas empresas agroindustriales del estado de Michoacán.



METODOLOGÍA

IDEA: Al iniciar se tomó en cuenta a donde se pretendía llegar con este proyecto, que beneficios daría  y por lo tanto la realización que este mismo tendría y así concretar la idea para el comienzo del trabajo. PLANTEAMIENTO DEL PROBLEMA: Para su elaboración en primer lugar se tomó en cuenta la factibilidad que tendría la investigación durante el tiempo que se estaría trabajando, expresando el tiempo en forma real y de igual manera llegar resolver las incógnitas que se obtuvieron en la elaboración de la idea. REVISIÓN LITERARIA: Este punto es clave para para la selección y formulación que se obtendrá en la investigación, para iniciar con la revisión se analizó el estudio de los temas que tuvieran cierta  relación, teniendo una visión más teórica, aceptando información necesaria y rechazando lo innecesario. Utilizando páginas confiables. ELABORACIÓN DEL INSTRUMENTO: Se desarrolló una encuesta con el fin de obtener los resultados. HIPÓTESIS ¿El factor principal factor de fracaso de las MIPYMES en el estado de Michoacán se debe a la incorrecta o nula planeación estratégica de los proyectos? DEFINICIÓN Y SELECCIÓN DE LA MUESTRA. Encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas ENAPROCE (2015), representan un total de 3505 empresas en total.


CONCLUSIONES

Se observa en la investigación elaborada una contribución a obtener información de las MIPYMES del estado de Michoacán, donde actualmente en la región de Los Reyes de Salgado se encuentra conformado en su mayoría por microempresas, estas empresas se caracterizan por una escasa formación de desarrollo de las habilidades empresariales, insuficientes sistemas de información, problemas de comercialización, bajo control administrativo y deficiente análisis mercadológico. Es por ello que para que una empresa sea exitosa y ampliamente competitiva se debe regir bajo un plan de negocios; tomando en cuenta los análisis y planes al momento de crear la empresa y hacerla crecer. Se llevó acabo el análisis de la relación que existe entre el éxito competitivo de cuatro factores relacionados con el ambiente interno y externos de las MIPYMES, específicamente en las áreas de: administración, técnicas, mercadológicas y financieras. Estas cuatro áreas mencionadas anteriormente son eficaces al momento de su desarrollo. Resultados obtenidos: un 64% de las empresas gira entorno a servicios en donde se enfoca como principal éxito en la cuestión de oferta y demanda de productos puesto que incrementa las ventas y sus precios los fijan de acuerdo al costo. En las agroindustrias encuestadas no elaboran ningún tipo de plan que garantice el éxito puesto que el 59% cree que no es útil planear los aspectos mercadológicos, así mismo el 61% dijo que no es de utilidad la elaboración de un plan financiero. Solo por abarcar algunos resultados, sin embargo en las 29 preguntas de la encuesta en su mayoría se obtuvieron resultados alarmantes.
Calderon Gutierrez Yosahandy, Universidad Politécnica de Tecámac
Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac

SíNTESIS Y CARACTERIZACIóN DEL COMPOSITE SR FE12 O19 - GA Y SU POTENCIAL APLICACIóN EN NUEVOS AMORTIGUADORES.


SíNTESIS Y CARACTERIZACIóN DEL COMPOSITE SR FE12 O19 - GA Y SU POTENCIAL APLICACIóN EN NUEVOS AMORTIGUADORES.

Calderon Gutierrez Yosahandy, Universidad Politécnica de Tecámac. Hernández Sánchez Jesús, Universidad Politécnica de Tecámac. Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El área automotriz es una de las más importantes del país, sin embargo, se encuentra en constante desarrollo, por lo cual se requiere continuar innovando para tener automóviles con mejor confort y mejor tecnología, es aquí donde los materiales juegan un papel importante, ya que para seguir mejorando el funcionamiento de las piezas automotrices se requiere el mejoramiento de los materiales utilizados para que proporciones mejores propiedades. En este proyecto se pretende proponer la modificación de la suspensión utilizando el bajo punto de fusión que posee el Galio y las propiedades magnéticas de la hexaferrita de estroncio para lograr formar un material compuesto, en el cual el volumen pueda ser controlado con un campo magnético externo, y de esta manera modificar la altura del automóvil.



METODOLOGÍA

Se utilizó Carbonato de Estroncio (SrCO3, Sigma Aldrich-99.99%) y Óxido de Hierro III (Fe2O3, Sigma Aldrich-99.99%) de forma estequiométrica a fin de obtener la Hexaferrita de Estroncio SrFe12O19 mediante mecanosíntesis. La molienda se realizó en un Molino Mecánico de Alta Energía (spex 800D) en atmosfera de aire, utilizando viales de 50cm3, 6 esferas de 1/2 pulgada de acero endurecido siguiendo una relación bolas:polvo de 10:1 durante 5 horas. Al culminar la molienda se obtuvo el polvo activado que posteriormente fue tratado térmicamente en una mufla mondragon modelo HR-12-2/1200-ER a 950°C durante 2 horas con rampa de calentamiento de 10°C/min y enfriamiento a temperatura ambiente. Posteriormente el polvo de hexaferrita de estroncio fue molido con PVA durante 3 horas para formar el composite y asi lograr la encapsulación de la hexaferrita, permitiendo que las partículas se reduzcan hasta tamaños nanométricos. Finalmente, este composite fue molido con galio en relaciones de Galio 80%, 90%, 95% y 99% durante 2 horas. El polvo obtenido fue caracterizado por Difracción de Rayos X (DRX) utilizando el difractómetro Bruker D8 Advance CuKα1(1.54060 Å), los resultados fueron evaluados utilizando el software Match! Con base de datos COD (Crystallography Open Database), posteriormente los patrones de difracción fueron refinados utilizando el método Rietveld en el software Maud. Finalmente, el polvo fue caracterizado en un Analizador de Tamaño de Partícula por Luz Laser (ATP) nano brook 90 plus, para evaluar el tamaño de las partículas.


CONCLUSIONES

El estudio por DRX mostró que la hexaferrita de estroncio fue obtenida utilizando molienda mecánica de alta energía asistida por tratamiento térmico a 950 grados centígrados durante dos horas con Óxido de hierro III como fase secundaria. El analizador de tamaño de partícula indicó que al utilizar PVA el tamaño de la hexaferrita de estroncio se reduce al orden de los micrómetros, lo cual permitió formar el composite Galio-hexaferrita después de molienda mecánica de alta energía. Este composite fue caracterizado por DRX y se confirmó la presencia de ambos materiales. La relación más adecuada para pruebas en la suspensión es la de galio 99% ya que la relación en volumen parece ser adecuada ya que existe una cantidad adecuada de galio en comparación con las otras muestras.
Calderón Lara Isabel, Instituto Tecnológico de Iguala
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA


CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA

Calderón Lara Isabel, Instituto Tecnológico de Iguala. Lara Tolentino Jahir Othoniel, Instituto Tecnológico de Iguala. Valladares Rivera Miguel Angel, Instituto Tecnológico de Iguala. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La empresa "VIVA STONE" es una empresa que actualmente trabaja con muchos tipos de piedras para fachada, analizando todos los procesos que se realizan en dicha empresa encontramos que la gran problematica es el gran desperdicio que se produce en el corte de piedra de cantera para fachada.  



METODOLOGÍA

Six Sigma es un método basado en datos que examina los procesos repetitivos de las empresas y tiene por objetivo llevar la calidad hasta niveles cercanos a la perfección. Es más, se propone una cifra: 3.4 errores o defectos por millón de oportunidades. Y se distingue de otros métodos en el hecho de que corrige los problemas antes que se presenten. Six Sigma constituye un modelo de gestión de calidad que también se conoce como DMAIC, siglas de las palabras en inglés: define (definir), measure (medir), analyze (analizar), improve (mejorar) y control (controlar). Estas son las cinco fases que se han de aplicar en cada proceso.  En las primeras semanas identificamos la causa raiz de la problematica que citamos con anterioridad midiendo todo el despedicio que generaba un operario al dia y midiendo tambien todo el producto bueno que se sacaba.  Mediante las herramientas estadisticas de la metodologia "SEIS SIGMA" es como pudimos analizar que los datos que nos arrojaban los procesos de corte generaban mas desperdicio que producto bueno.  Por consiguiente en las ultimas semanas nos dedicamos a mejorar y controlar la cauza raiz, buscando alternativas que nos ayudaran a solucionar dicho problema.


CONCLUSIONES

Con los datos arrojados mediante la metodologia "SEIS SIGMA" encontramos que la causa raiz que debemos atacar principalmente es contar con un estandar de calidad a la hora de recibir el lote de piedras en almacen ya que se encontro que la piedra llega muy fracturada o dañada lo cual tiende a desmoronarse y empezar a generar todo ese desperdicio que intentamos disminuir. 
Calderón Sánchez Juan Manuel, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE MESOPOROS DE SAMARIA


SíNTESIS DE MESOPOROS DE SAMARIA

Calderón Sánchez Juan Manuel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los materiales mesoporosos son aquellos que en su estructura contienen poros de entre 2 y 50 nm. Dichos materiales tienen muchas aplicaciones en la industria, el área ambiental, vida cotidiana, etc. Actualmente, existen muchos métodos para obtener un material mesoporoso; sin embargo, algunos de ellos pueden llegar a ser costosos y difíciles de realizar. Es por ello, que el objetivo de esta estancia de investigación es desarrollar un nuevo método para sintetizar mesoporos de una manera fácil, económica y reproducible.



METODOLOGÍA

Los reactivos que se utilizaron fueron los siguiente: •          Cloruro de Samario Hexahidratado •          Bromuro de hexacetiltrimetilamonio (CTAB) •          Hidróxido de Sodio (NaOH) •          Agua Destilada •          Etanol El método que se eligió para sintetizar nuestro material es sol-gel con tratamiento hidrotérmico el cual se describe brevemente a continuación: Se prepara una solución diluyendo la sal de Samario en agua, se agrega el surfactante (CTAB) y se agita hasta disolver (solución 1). Se prepara una segunda solución de agua e hidróxido de sodio (solución 2). Después, se agrega gota a gota la solución 2 a la solución 1 agitando constantemente. Mientras, se gotea se va formando un gel, se deja agitando el gel resultante por 24 horas a 60°C a 50 rpm. Posteriormente, se mete el gel al horno de secado a 80°C en un frasco cerrado. Se lava la muestra haciendo tres centrifugados con etanol en una centrifuga a 12000 rpm. La muestra se seca en un horno de secado a 80°C por 24 horas. Por último, se calcina en una mufla a 560°C por 1 hora con una rampa de 5°C por minuto Como es un método nuevo se variaron las cantidades de ciertos parámetros para determinar como estos afectaban las propiedades finales de nuestro material. Primero se varió la cantidad de NaOH que se agregaba para formar el gel, siendo estas variaciones 1:1, 1:2, 1:4, 1:8 y 1:12. Después, se varió la cantidad de CTAB que se le agregó a la muestra siendo estas variaciones 1:0.25, 1:0.5, 1:1 y 1:2.


CONCLUSIONES

Durante la estancia de verano se logró conocer diversos métodos para la obtención de mesoporos, así como conocimientos de química necesarios para la aplicación de dicho método que empleamos. Al ser un método sencillo de reproducir se realizó un análisis de su densidad para considerar que muestra es la de menor densidad debido a que entre menos denso sea el material obtenido mayor porosidad tendrá. Se realizará a trabajo futuro la caracterización por Microscopía electrónica y rayos x. Así como, la determinación de su área superficial. Este nuevo método desarrollado es de bajo costo, alto nivel de reproducibilidad y fácil de llevarlo acabo.
Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

CHATBOT:CREADO EN DIALOGFLOW


CHATBOT:CREADO EN DIALOGFLOW

Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Maldonado Tarelo Adrián, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Desarrollamos en Dialogflow un ChatBot que es capaz de responder dudas que el alumno tenga sobre su curso de programación, pero al inicio de todo para saber el nivel que el alumno tiene se le aplica un examen diagnóstico (que se desarrolló en otro chatbot) que nos ayuda a saber el tipo de nivel de conocimiento que tiene el alumno y el estilo de aprendizaje, en este caso el nivel principiante, nivel intermedio y nivel avanzado que se desglosan varios temas respecto al nivel. El ChatBot se creo con el fin de resolver dudas de programacion las 24 hrs. del dia y los 7 dias de la semana, respondiendo de una forma mas humana. Donde también cabe destacar el estilo de aprendizaje de este ChatBot es:  visual- auditivo visual-textual



METODOLOGÍA

El objetivo de este proyecto es resolver las dudas del alumno de su cruso de programcion, de distintos tipos de lenguajes por ejemplo: php, pascal, c++, java, etc... en esta herramientas abarcamos los mas utilizados en el que desarrollamos los siguientes temas: 1.- Evaluación (Nivel de conocimiento y Estilo de aprendizaje). 2.- Nivel básico. En este nivel se desarrolló: CONCEPTOS BÁSICOS: Algoritmo Diagrama de Flujo  Lenguajes de programación Entornos de programación  Tipos de variables TIPOS DE OPERADORES: Operadores de asignación Operadores Aritméticos Operadores relacionales o de comparación Operadores lógicos CONDICIONALES: Sentencia if Sentencia switch CICLOS: Ciclo for Ciclo while Ciclo do while 3.-Nivel intermedio  ¿Qué es una función? Sintaxis Tipos de Funciones Paso de parámetros Programación Orientada a Objetos Clase y Objetos Métodos Constructores Encapsulamiento Herencia  Polimorfismo 4.- nivel avanzado LENGUAJES HTML y HTML5: Etiquetas y estructura 


CONCLUSIONES

La conclusion de este proyecto es que el alumno desempeñe de manera eficaz sus conocimientos en su curso de programacion, asi como se que vuelva autodependiente al momento de realizar sus actividades educativas. Con esta herramienta se le facilitara al alumno su apredendizaje ya que se le resolveran sus dudas de manera inmediata.
Calva Perez Irving Fernando, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).


PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).

Calva Perez Irving Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. García Rodríguez Alberto de Jesús, Instituto Politécnico Nacional. Rodriguez Palma Isaias, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los diferentes grados de educación se ha encontrado un interés creciente por la robótica, así como la programación lo cual ha generado una mayor demanda para los componentes y equipo de laboratorio que puedan satisfacer con esta necesidad. En el nivel medio, por ejemplo, cada vez más escuelas secundarias utilizan robots para introducir a sus estudiantes a las áreas de programación y electrónica de tal manera que despierte su interés hacia estas. Un robot es programable de tal manera que los estudiantes utilicen conceptos básicos de programación para lograr cumplir un objetivo, lo cual abre un banco de posibilidades, además de ejercitar creatividad mientras practican habilidades adquiridas en clase. En el nivel medio superior, durante este periodo los estudiantes adquieren habilidades que les permitirá desarrollarse en su carrera, por este motivo es importante que dichas habilidades sean puestas en práctica, para el caso que nos concierne son el diseño electrónico y la programación. En el nivel superior existen varias áreas en las que un robot puede ser utilizado como una plataforma de pruebas/prácticas, estas áreas dependen en específico de la carrera que se esté cursando, por lo que para el nivel superior se proponen prácticas para áreas de electrónica, programación, instrumentación y control.



METODOLOGÍA

Para desarrollar este proyecto y en base al plan de trabajo otorgado por nuestro asesor se requirió de diversos materiales, así como de diversos softwares empleados para el diseño de circuitos eléctricos Proteus 8, para modelado 3D FreeCAD 0.18 y programación de diversos lenguajes como Python Spider, PyCharm y Atom, para C++ Dev C++ y el uso Linux Plataforma Ubuntu. Primeramente, se establecieron los requerimientos con los que debía de contar el robot que se había planteado diseñar, por lo cual se estableció el uso de dos moto-reductores con rueda y encoders, tres sensores ultrasónicos, un sensor de presencia, además de implementar dos placas propiamente diseñadas una de la cuales se encargaría de la parte de potencia (para implementar la batería y el control de los motores) y la otra la cual formaría el sistema básico de un microcontrolador Atmega328 de montaje superficial. Teniendo en consideración estos requerimientos se prosiguió a desarrollar ambas placas las cuales debían cumplir con el principal parámetro de poder ser ensambladas de un tamaño de 5x5cm, esto con la finalidad de poder ser manufacturadas de manera económica. Para la placa de potencia se tomaron en consideración la cantidad de terminales para brindar alimentación, así como el uso de una terminal USB para la misma función, la implementación del puente H para el control de los motores (incluyendo diodos de protección), y un amplificador operacional para el ajuste de las señales brindadas por el empleo de dos encoders (junto con un trimmer para facilitar su uso), además de ser añadido un switch para el fácil encendido y apagado de la placa sin necesidad de desconectar la batería. Para la placa que contendría el sistema mínimo del microchip, se extendieron cada una de los pines con los que cuenta el microcontrolador para hacer más accesible el uso de los mismos, además de ser añadido un cristal oscilador de cuarzo el cual puede ser (o no) utilizado a voluntad del usuario, añadiendo un par de leds indicadores para comprobar que la placa está siendo utilizada, así como su terminal de reset. Continuando con esto se revisó el modelo 3D del robot con el cual ya se contaba y se modificó de acuerdo a las nuevas especificaciones con las que se contaban, modificando su forma y añadiendo nuevas ranuras en su superficie, además de brindar el espacio suficiente para poder añadir elementos externos en su capa superior. Se procedió entonces a realizar cada una de las pruebas y mediciones necesarias para comprobar que cada una de las terminales de ambas placas funcionara de manera adecuada y así mismo no existiera interferencia entre las mismas. De acuerdo al plan de trabajo asignado por el asesor durante todo el proceso se estuvo trabajando, instruyendo y practicando con los diferentes lenguajes de programación por medio de diversos casos prácticos proporcionados y revisando diferentes fuentes de información; trabajando de igual manera con terminales de Linux por medio de la asistencia a cursos y asesorías brindadas por el mismo asesor.


CONCLUSIONES

Durante la estancia del verano de investigación en curso, se ha logrado que los estudiantes integrados en este proyecto desarrollen y perfeccionen sus habilidades en diseño electrónico, además de haber tomado diversos cursos para conocer y expandir nuestros fundamentos de programación, como fue introducción a Linux (Ubuntu), lenguaje C y C++, además de Python. Al momento de realizar este resumen nos encontramos en la etapa de la realización de las diferentes pruebas que se deben hacerse al prototipo para comprobar cada una de las diferentes conexiones y terminales utilizadas para comprobar el correcto funcionamiento de cada una de las partes que constituyen al robot para de esta manera proceder a realizar el ensamblado completo del robot y este sea presentado de forma concluida y listo para ser utilizado.
Calvillo García Hugo Osvaldo, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

APOYO AL PROCESO DE REHABILITACIóN EN PERSONAS DE LA TERCERA EDAD CON INESTABILIDAD POSTURAL MEDIANTE REALIDAD VIRTUAL


APOYO AL PROCESO DE REHABILITACIóN EN PERSONAS DE LA TERCERA EDAD CON INESTABILIDAD POSTURAL MEDIANTE REALIDAD VIRTUAL

Calvillo García Hugo Osvaldo, Instituto Tecnológico de Estudios Superiores de Zamora. Cocom Gutiérrez Francisco Jesús, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es una habilidad motora compleja derivada de la interacción de varios procesos sensorio motores, que permiten tanto la realización y cumplimiento de metas funcionales, así como el mantenimiento de la estabilidad y la orientación postural y el equilibrio. La mayoría de personas quienes presentan alteración del control postural son los adultos mayores, debido a que responden de manera inadecuada a los ajustes posturales, siendo cerca del 50% de las caídas causadas por la perturbación en la base de apoyo, 35% por desplazamiento externo del centro de la masa corporal y solo el 10% derivados de eventos fisiológicos. El Control Postural es realmente importante, dado que es la base para el desarrollo y ejecución de patrones de movimiento selectivos de las actividades de la vida diaria, y por tanto tiene una implicación directa en la participación del individuo en la sociedad. La mayor problemática que se presentan en los procesos de rehabilitación, es el abandono de estos procesos por distintas causas, ya que los ejercicios para rehabilitar el control postural resultan ser monótonos, estresantes, el tiempo de traslado hacia el centro de rehabilitación para algunas personas resulta ser un fastidio, por lo que en el verano de investigación se pretende desarrollar un software de realidad virtual que apoye el proceso de rehabilitación del control postural de personas de la tercera edad con inestabilidad utilizando mecánicas y dinámicas de gamificación.



METODOLOGÍA

Uno de los objetivos de las actividades que se aplican en el proceso de rehabilitación es valorar el equilibrio estático de la persona, y para ello se utiliza el test de Romberg, el cual es una prueba vestibular, esta prueba estudia el funcionamiento de los conductos semicirculares. Los conductos semicirculares son tres tubos muy pequeños, ubicados en el oído interno, que contienen líquido y te ayudan a mantener el equilibrio. Cuando mueves la cabeza, el líquido del interior de los conductos semicirculares se agita y mueve los diminutos pelos de cada canal. El test de Romberg consiste en colocar a la persona de pie, quieta en bipedestación durante 30 segundos, con los pies juntos y los brazos a lo largo del cuerpo. Primero con los ojos abiertos y luego se le ordena cerrar los ojos. Si antes de este tiempo la persona cae, mueve los pies, abre los ojos o extiende los brazos se considera que dicha persona sufre de un trastorno del equilibrio. En el proceso de rehabilitación es importante tener una retroalimentación y saber hacia que lados la persona suele inclinarse más. Para esto durante el verano se desarrolló una escena en el motor de desarrollo para la creación de videojuegos Unity utilizando SteamVR Plugin, este complemento nos permite utilizar elementos para el desarrollo de juegos realidad virtual, además de usar las gafas de realidad virtual fabricadas por HTC y Valve. Este dispositivo está diseñado para utilizar el espacio en una habitación y sumergirse en un mundo virtual en el que se permite al usuario caminar y utilizar controladores para interactuar con objetos virtuales. La escena debe cumplir con la funcionalidad del test de Romberg, mecánicas y dinámicas de gamificación y registrar hacia que lados la persona suele perder más el equilibrio. Se implementaron los modelos 3d de toda una casa amueblada y un jardín los cuales son vistos en realidad virtual, para cumplir con la funcionalidad del test de Romberg y asegurarnos de que la persona al tener puestas las gafas de realidad virtual tengan los ojos cerrados como lo pide la actividad, por medio de programación orientada a objetos se obscureció la escena durante 10 segundos después de 10 segundos de haber iniciado. Para gamificar la actividad y al mismo tiempo tener una retroalimentación de los resultados, se optó por implementar un modelo 3d de una diana a la cual se le apunta y se lanzan flechas automáticamente cada segundo, la dirección de las flechas depende de la inclinación del cuerpo, mostrándose en la diana un puntero que nos indica en que posición estamos apuntando y en que posición será disparada la flecha. Al iniciar la actividad la persona puede estar viendo con los ojos abiertos como son lanzadas las flechas y se percata de que de la inclinación de su cuerpo depende la dirección de las flechas, una vez pasados 10 segundos con los ojos abiertos, se obscurece la escena e igualmente se siguen lanzando flechas cada segundo, después de obscurecer las escena durante 10 segundos se quita el obscurecimiento y se puede apreciar la puntuación de la actividad dependiendo que tan estable se mantuvo la persona durante la actividad..


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos en un lenguaje de programación llamado C#, como también un software para desarrollar videojuegos. Estudiamos una metodología de un sistema de rehabilitación el cual logramos gamificar algunos de los ejercicios, con lo que pusimos en práctica lo aprendido y desarrollamos un escenario con el cual trabajar, de esta manera se pretende ayudar en la postura y el equilibrio de la persona.
Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Camargo Burgos Eduardo Cesar, Universidad Autónoma de Guerrero
Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

SISTEMA GESTOR EN LÍNEA DEL PROTOCOLO DE ANÁLISIS DE RESPUESTA AL DOLOR


SISTEMA GESTOR EN LÍNEA DEL PROTOCOLO DE ANÁLISIS DE RESPUESTA AL DOLOR

Camargo Burgos Eduardo Cesar, Universidad Autónoma de Guerrero. Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El dolor es un problema de salud común, en la mayor parte de la población a nivel mundial, existen diversos tipos de dolor, cada uno puede definirse por la duración, localización o intensidad determinada, el protocolo en cuestión está enfocado específicamente en el dolor de tipo agudo, el cual consiste en un dolor físico no persistente. Para realizar el estudio, es aplicado un estímulo mecánico (pequeño golpe) en un dedo de la mano, y así, poder determinar la magnitud de los cambios en las señales fisiológicas como la electrodermia (EDA), electroencefalografía (EEG) y ritmo cardiaco (HRV) asociados al dolor percibido, siendo este el objeto del protocolo. Para realizar un estudio del dolor, es necesario conocer los antecedentes físicos y emocionales, así como su percepción del nivel de dolor después de aplicar el estímulo en un sujeto. Recopilar toda esta información, permite a un investigador evaluar adecuadamente los resultados obtenidos, sin embargo, resulta ser una tarea compleja, ya que, el aplicador debe realizar una cierta cantidad de actividades (colocar los sensores al sujeto, indicar instrucciones, aplicar dos cuestionarios, tomar anotaciones de lo obtenido hasta el momento, y finalmente, realizar la aplicación del estímulo), todas de manera manual, lo cual implica una cantidad aproximada de una hora, posteriormente, debe revisar los resultados, calcular los parámetros de evaluación, analizar las señales obtenidas por los sensores y documentar, por lo tanto, es requerido manipular la información en conjunto. Debido al surgimiento y desarrollo de las tecnologías de la información, el almacenamiento junto a la administración de información de manera digital empleando bases de datos, permite optimizar el almacenamiento y consulta de datos, estos son agrupados de acuerdo al contexto en el cual son empleados, haciéndolos accesibles a determinados usuarios o aplicaciones. Es deseable apoyar a investigadores con sistemas que permitan gestionar de manera automática la información involucrada en su estudio, o al menos la parte más repetitiva, la cual requiere un orden y validación en este tipo de protocolos, y así poder concentrarse en alguna otra tarea implicada en el estudio.



METODOLOGÍA

Primeramente, se recopiló la información que permitió crear una idea acerca del funcionamiento del software, el protocolo requiere almacenar los datos personales de cada sujeto de prueba sometido al estudio, posteriormente los resultados obtenidos en la aplicación de dos cuestionarios, y su indicador de dolor percibido, respecto a la escala de dolor, en la aplicación de estímulos de dolor, cuidando no exponer los datos confidenciales a terceros. Se seleccionó el desarrollo de una aplicación web, debido a la disponibilidad que presenta. Para reducir el tiempo en la obtención de datos necesarios dentro del estudio, fue requerida la creación e incorporación de una base de datos de tipo relacional, con el fin de tener la información estructurada y relacionada entre sí, haciendo consultas, almacenamientos y modificaciones eficientes. Se optó por utilizar los lenguajes de programación PHP y CSS, permitiendo al sistema ser accesible y cómodo para los usuarios, debido a su estética simple y fácil comprensión de uso (interacción). Se incorporaron roles según el tipo de usuario, pueden ser mánager o administrador, siendo estos, los investigadores que realizarán un estudio del dolor. Ambos podrán exportar los datos y resultados obtenidos en sus cuestionarios o en la aplicación de los estímulos por cada sujeto de prueba. Por motivos de seguridad, resguardo y protección de la información, solamente el mánager puede eliminar o modificar la información de usuarios, sujetos de prueba, e inclusive borrar los resultados obtenidos tanto en los cuestionarios como en los estudios del dolor ante la aplicación de estímulos. El software fue sometido a pruebas antes y después de ser importado al servidor, comprobando que realizará las funciones para las cuales fue desarrollado, ambos resultados fueron favorables, en opinión de la investigadora responsable del protocolo, se demostró que el sistema cumplió con lo estimado, ser un entorno agradable para el usuario, fácil manejo, optimización en la captura de información y resultados obtenidos en cada cuestionario, una eficiencia en la consulta de estos, contar con la información almacenada dentro de la base de datos y de manera digital en registros, teniendo toda la información ordenada, permitiendo una notable reducción de tiempo en el análisis y cálculo de los resultados obtenidos.


CONCLUSIONES

La implementación de este sistema, permitirá a los investigadores, hacer uso de él a cualquier hora y/o lugar, ya que se encuentra alojado en un servidor remoto (internet), por ello no dependerá de un software, configuración o dispositivo específico, para realizar su ejecución, solamente contar con el enlace del sitio en el cual se encuentre, un navegador web y conexión a internet. Brinda la posibilidad de exportar (descargar un archivo) sus resultados, conservándolos de manera digital. Estructurando correctamente la base de datos, se agilizaron las búsquedas y eliminación de información perteneciente a un determinado sujeto involucrado en el estudio, ya que, acortó la búsqueda registro a registro dentro de cada tabla utilizada. El desarrollo me brindó la experiencia de iniciar en la programación web empleando los lenguajes de programación PHP y CSS, contribuyendo en mejorar la recolección de información en registros de señales fisiológicas dentro de los proyectos de investigación, sin recurrir a programas cerrados, que implican costos altos o utilizar herramientas abiertas que deban ser utilizadas por separado y que no necesariamente cubren las necesidades específicas del investigador. Realizando actividades dentro del laboratorio, desarrollé mi expresión oral y corporal, presentando mis avances semanales ante mis compañeros de verano, a su vez trabajar en conjunto con ellos, me permito ampliar mis conocimientos acerca de otras áreas referentes a la ingeniería y percatarme de como mi área de estudio puede ser aplicada en ellas.
Campos Arévalo Jesús Alberto, Instituto Tecnológico de Tepic
Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso

DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE


DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE

Campos Arévalo Jesús Alberto, Instituto Tecnológico de Tepic. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso



PLANTEAMIENTO DEL PROBLEMA

  Introducción En la actualidad un gran problema al que nos enfrentamos es sin duda alguna el calentamiento global, el cual ya es imposible ignorar, por esa razón como parte de una futura generación es nuestro deber y obligación el tratar de preservar nuestro planeta. La autosuficiencia es que, en términos generales, tú produzcas aquello que vas a consumir, desde tu alimento, hasta la energía de tu casa. Actualmente hay varias herramientas útiles para poder lograr un diseño autosustentable, hay métodos eficientes para reducir el impacto de la construcción en el entorno, en el siguiente documento se recopilara la información recabada sobre el tema y se verá su aplicación en un diseño para una casa-habitación ecológica autosustentable. Justificación En un lapso muy pequeño de tiempo se puede apreciar las causas del calentamiento global, hablamos de inundaciones, sequias, subidas de temperaturas, derretimiento de los polos glaciares. Actualmente hay muchas fuentes de energía renovables al igual que muchas tecnologías y adaptaciones para ayudar al medio ambiente, la cultura ecologista debe comenzar en el hogar, por lo tanto el diseñar una casa ecológica es muy importante para crear conciencia, para mejorar la calidad de vida de sus ocupantes y para causar un menor impacto en el medio ambiente. El planeta no mejorara si nosotros como sociedad no mejoramos, la construcción de casas debe mejorar y debe haber personas dispuesta a mejorar la manera en que concebimos una casa. Teniendo los recursos naturales es más que factible llegar a la auto sustentabilidad más en un país como México. OBJETIVO GENERAL Diseñar una casa ecológica autosustentable utilizando nuevas tecnologías, para mitigar el impacto ambiental, en la zona norte del Estado de México. OBJETIVOS ESPECÍFICOS realizar una investigación sobre la arquitectura bioclimática para planear la distribución de la casa y su orientación con respecto al movimiento del sol. mediante cálculos, cubrir la necesidad de agua de una vivienda, donde habiten cinco personas. aportar un sistema de calefacción que permita mantener el confort térmico dentro de la casa. Evaluar el consumo de energía eléctrica requerido para alimentar la casa, para diseñar un sistema híbrido: paneles solares-aerogenerador y su respectivo banco de baterías. Investigar el funcionamiento de los baños secos para la eliminación de aguas grises. Investigar el tratamiento de aguas grises que nos permita reutilizar el agua en un sistema de riego  Diseñar una casa ecológica autosustentable con todos los datos recabados, buscando su adaptación en el entorno.



METODOLOGÍA

Para poder realizar esta investigación científica se procedió a realizar una documentación sobre la arquitectura ecológica y sus variantes, como lo son la arquitectura bioclimática, subterránea o sustentable, de esta manera se consiguió conocer algunas de sus características principales, el enfoque que tienen y las soluciones brindadas para generar un menor impacto en el medio ambiente. También fue importante detectar los contaminantes resultantes de las casas comunes, tales como son las aguas grises y negras, la huella de carbono generada en la construcción, la demanda energética por climatización e iluminación. Ya con estos puntos establecidos se pudo dividir la investigación en 3 partes fundamentales: Estudio del terreno En el estudio del terreno se documento acerca de los factores geográficos y climatológicos de la zona y se analizó la forma de adaptar un proyecto autosustentable en el entorno. Tecnologías que se implementaran ​ En este apartado se consideró los distintos factores contaminantes que ocasionan las casas promedios y se planteó el cómo podría se podría impedir que estos contaminantes sigan. Además de la recopilación de información a acerca de las distintas maneras de producir y almacenar energía propia entre los cuales los más destacados fueron la energía eólica y solar. Se reunió información acerca de cómo se puede aprovechar las distintas tecnologías que se han desarrollado en los últimos años para implementarlas en el proyecto, siempre buscando que cubrieran alguna necesidad.  Desarrollo del diseño final Con los medios recopilados anteriormente se pudo dar marcha al diseño de la casa, tratando de combinar la arquitectura con estas tecnologías y los factores climatológicos, dando sustentabilidad y confort a sus habitantes. Se realizaron 2 visitas de estudios a diferentes ciudades con el fin de aprender y reunir información sobre las casas autosustentables. Se acudía al IMTA Instituto Mexicano de las Tecnologías del agua, en la cual se aprendió acerca del uso del agua, del cómo podemos recolectarla y los factores que ayudan a su reutilización. Además de conocer más acerca de otras fuentes de energía renovables como la energía solar. De igual manera se acudió a la UNAM para observar la vivienda industrializada sustentable la cual cuenta con un espacio reducido de 14.5 m2 y que reduce los espacios a su forma más vital mientras que ofrece confort y alternativas sustentables con las cuales abastecer la casa. Distintos factores de ambas visitas fueron integradas al proyecto


CONCLUSIONES

  Conclusión Este tipo de proyectos no solo garantizaría un menor impacto en el medio ambiente sino que también contribuiría directamente en los habitantes.  Cabe señalar que fue posible la alimentación de una casa autosustentable con ayuda de paneles fotovoltaicos con lo cual es posible no estar conectado a la red eléctrica municipal dándote la capacidad de generar la energía que consumirás. Fue importante plantear la sustentabilidad no solo como la  generación de energía o productos si no también la reutilización de nuestros desechos. Todo enfocado a cubrir las necesidades de los habitantes al tiempo que ayuda a mitigar el impacto sobre el medio ambiente.
Campos Cuiniche Pablo Esteban, Universidad Autónoma de Baja California
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES


COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES

Campos Cuiniche Pablo Esteban, Universidad Autónoma de Baja California. Colima Ceceña Mariana, Universidad Autónoma de Baja California. Figueroa Moreno Israel, Universidad Autónoma de Baja California. Rocha Díaz Carlos Emilio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

A lo largo del último siglo, la industria aeroespacial ha generado un notable avance de innovación y mejora de nuevos materiales compuestos, los cuales buscan cumplir los requerimientos de normatividad en el área, como propiedades mecánicas y ligereza, sin embargo, presentan el inconveniente de ser contaminantes y una vez que termina su ciclo de uso ya no pueden ser reutilizados o ser reciclados. En consecuencia, se pretende genera nuevos materiales compuestos donde se apliquen polímeros a base de bioepóxicos y fibras naturales y de esta manera, generar materiales compuestos biodegradables, es decir, productos no contaminantes al medio ambiente y que puedan ser reciclados, siempre en pro de la conservación las propiedades tanto mecánicas como de ligereza requeridos en la industria aeroespacial. En este proyecto se desarrollará dos materiales compuesto a base de fibras naturales: coco y henequén con resina epóxica biodegradable.



METODOLOGÍA

Para la realización de este proyecto se utilizó resina bioepóxica SR GreenPoxy 56 reforzada con fibra de henequén y de coco formando dos materiales compuestos distintos. Dado que este subproducto tiene un grado de humedad relativamente alto, se llevó a cabo el experimento haciendo laminados tanto con fibra seca como fibra con humedad ambiente. Recorte de fibras Tanto la fibra de coco como las de henequén fueron recortadas con dimensiones de 25 x 25 cm, obteniendo 8 láminas de cada tipo de fibra, para posteriormente utilizar 4 de ellas en cada laminado. Proceso de secado El secado previo de las fibras se realizó en un horno de secado a una temperatura máxima de 100°C durante 5 horas siguiendo las condiciones estándar. La temperatura de secado se determinó en base al análisis termogravimétrico de la celulosa buscando la temperatura óptima para eliminar la humedad y no degradar la celulosa de la fibra. Una vez secas las fibras, se colocaron en el desecador para evitar que éstas adquirieran humedad nuevamente. Proceso de manufactura Para la fabricación de los materiales compuestos, se utilizó el proceso de laminado por impregnación al vacío en las 4 muestras. Previo a cada laminado, se preparó un molde de aluminio. Se colocó masking tape en el contorno del molde, esto con el fin de evitar colocar antiadherente en esas zonas y poder aplicar butilo para sellar la bolsa de vacío. Posteriormente se añadió el antiadherente utilizando un paño completamente húmedo siguiendo líneas rectas en dirección de 0° hasta cubrir la superficie del molde. Se esperaron 2 minutos y con un paño seco pasa en dirección de 90° con el fin de retirar el exceso y rellenar en las zonas donde pudo haber faltado. Después de 15 minutos transcurridos, se aplica la segunda capa siguiendo las direcciones contrarias. El procedimiento se repitió hasta completar 4 capas de antiadherente. Antes de utilizar el molde deben haber pasado mínimo 30 minutos. Sobre la orilla del molde se colocó butilo cuidadosamente. Posteriormente se adhirieron las mangueras de entrada y salida del sistema de igual manera con butilo. Conectado a las mangueras estaban las conexiones T. Como medio de difusión se fabricaron unos tubos a base de fibra de henequén envuelta en peel ply, las cuales se colocaron en la entrada y salida del sistema de vacío dentro de las conexiones T. En el centro del sistema se colocaron las 4 láminas de fibra de coco/henequén, con una placa de metal encima forrada con una película antiadherente para evitar que la placa se adhiera al laminado. Esta placa se utilizó con el fin de generar una presión uniforme y lograr un mejor acabado en el laminado. Además, se añadió una capa de peel ply de 7 x 25 cm a la entrada y salida, y una capa de Green mesh a la entrada como medios de distribución. El peel ply funciona como medio de transmisión de la resina y el Green mesh ayuda para dirigir la resina hacia las láminas de fibra. Por último, se colocó la bolsa de vació cuidando de que quedara completamente sellada con butilo, comenzando a sellarla desde la zona de la manguera de salida y haciendo presión entre la bolsa y el butilo. Una vez listo el sistema, se encendió la bomba de vacío durante 15 minutos. Seguido de esto, se preparó la mezcla de resina en un recipiente metálico y se ingresó al sistema por medio de la manguera de entrada. El flujo de ésta estuvo siendo regulando con una prensa troquelada. Después de ingresar toda la resina, se continuó aplicando vacío durante 5 horas más.


CONCLUSIONES

Se presentó un trabajo de manufactura de materiales compuestos reforzados con fibras en el que se utilizó la técnica de infusión por bolsa de vacío. Las fibras de coco utilizadas funcionaron como un buen refuerzo para el compuesto laminado, que junto con la matriz de resina bioepoxy, presentaron una buena adhesión interfacial a pesar de la humedad relativa de las fibras. De acuerdo con la experiencia adquirida en el desarrollo experimental, nos percatamos de la importancia de controlar diversas condiciones en el momento de llevar a cabo la infusión. Una de ellas es el vacío. Un buen sellado de la bolsa asegura que no existan entradas de aire, y así evitar la formación de concentradores de esfuerzos que afectan a las propiedades mecánicas del laminado, también nos dimos cuenta de la importancia de controlar la velocidad de flujo de la resina, ya que, permitir que la resina se difunda con menor velocidad, da como resultado un mejor relleno de la fibra y una superficie más homogénea y uniforme. Al final, se espera obtener laminados de fibras de coco y fibras de henequén con la capacidad de degradarse y de presentar un buen comportamiento ante esfuerzos. Para ello, se realizarán ensayos de tensión y compresión, así como también una caracterización óptica que nos permitirá predecir ciertas características del material. A partir de los resultados obtenidos, se podrá evaluar si sus propiedades son las adecuadas y si son una alternativa viable para la sustitución de algunos materiales en el sector aeroespacial.
Campos Ortega José Manuel, Instituto Tecnológico de Colima
Asesor: Dr. Gilberto Gomez Rosas, Universidad de Guadalajara

PROPUESTA DE MEJORA PARA LA OPERACIÓN DEL LABORATORIO LÁSER DEL CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍAS. DISEÑO Y MANUFACTURA DE PIEZAS Y ADITAMENTOS PARA UN BRAZO ROBÓTICO.


PROPUESTA DE MEJORA PARA LA OPERACIÓN DEL LABORATORIO LÁSER DEL CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍAS. DISEÑO Y MANUFACTURA DE PIEZAS Y ADITAMENTOS PARA UN BRAZO ROBÓTICO.

Campos Ortega José Manuel, Instituto Tecnológico de Colima. González Fuentes María del Pilar, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Gilberto Gomez Rosas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La utilización de sistemas láser conlleva un riesgo intrínseco de exposición del organismo humano a una fuente de Radiación No Ionizante, en función de la clase del sistema y de las medidas de control que sean adoptadas. Por ende es imperativo que los lugares donde se albergan este tipo de sistemas cuente con las medidas preventivas necesarias para garantizar la seguridad de los operadores así como el óptimo funcionamiento del sistema. El principal obstáculo que se presentó para cumplir este objetivo fue que en el laboratorio donde se realizan los experimentos  con el láser de alta potencia y el brazo robótico ABB 120 para el tratamiento de materiales, no se cumplen con las normativas para la operación de este tipo de sistemas, presentando mala organización del espacio de trabajo, falta de la señalética adecuada, carencia de limpieza del laboratorio y averías o mal funcionamiento de las herramientas de trabajo. Siendo el último el mayor de los impedimentos para el desarrollo de los experimentos que se llevan a cabo en el laboratorio, ya que, además de que el sistema láser clase 4 actualmente no se encuentra en operación por fallas en su funcionamiento, el brazo robótico presentaba una pieza rota a causa de un accidente durante la manipulación- del mismo.



METODOLOGÍA

Se hizo la implementación de las 5’S, la cual es una metodología que, con la participación de los involucrados, permite organizar los lugares de trabajo con el propósito de mantenerlos funcionales, limpios, ordenados, agradables y seguros. Nos presentamos con el encargado de laboratorio para hacerle una encuesta de la implementación de las 5’S en el laboratorio de ABB 120.   Para que la estrategia de las 5S´s funcione plenamente, requiere de: ·         el compromiso de la dirección para promover actividades, ·         el ejemplo por parte de supervisores, ·         y el apoyo permanente de los líderes en los sitios específicos de trabajo.   El apoyo de la dirección, con su compromiso permanente sobre la actuación de sus colaboradores, así como el estímulo y el reconocimiento, son fundamentales para perpetuar el proceso de mejora, que supervisores le den a las acciones que deben realizar los operarios, clave para crear una cultura de organización, orden, disciplina y progreso personal.   También se sustituyó una pieza que forma parte de las garras del brazo robótico con el que se realizan los experimentos. La pieza en cuestión se encontraba rota por la mitad y hacían falta partes que, aunque eran pequeñas también eran esenciales. Se duplicó mediante modelado e impresión 3D. Aprovechando el hecho de que el sistema de sujeción utiliza dos garras iguales utilizamos la que se encontraba en buen estado para realizar las mediciones necesarias para realizar modelado en 3D mediante el software AutoCAD. El modelo elaborado a partir de las mediciones tomadas se exportó al formato .stl, con el objetivo de que el modelo pueda utilizarse en el software asistente de impresión 3D CURA. Con el apoyo del área encargada del desarrollo de proyectos de innovación e impresiones 3D, pudimos imprimir en filamento ABS la pieza que previamente modelamos, ya que este material presenta cualidades físicas similares al de la pieza original. Una vez que la pieza estuvo impresa y gracias a que la revisamos, encontramos algunos errores de diseño, los cuales corregimos. Ya impresa la pieza corregida volvimos a cerciorarnos que el modelo hecho por computadora no tuviera errores, una vez que verificamos que todo estuviera en orden la montamos en el sistema de las pinzas y pudimos constatar que funcionaba de la misma manera que la pieza original dañada. Esto se comprobó conectando el sistema de las pinzas a la salida del compresor del robot, y activando la salida del aire para abrir y cerrar las pinzas, corroborando que efectivamente estas se abrían y cerraban de manera correcta.   Además, diseñamos un sistema de sujeción para el brazo robótico que pudiese adaptarse a casi cualquiera de las geometrías de los materiales utilizados durante las pruebas y que pudiese atender las distintas necesidades que se presentan durante del proceso de experimentación. Se modeló mediante el software AutoCAD las piezas que conforman el sistema, el cual está constituido por una placa que funciona como base de todo el sistema, acoplamientos para el brazo robótico y las piezas que ayudan a sujetar los materiales con los que se experimenta.   mentará. Se exportaron las piezas diseñadas al formato .iges, para manipularlas con mayor facilidad en el software SOLIDWORK y con ayuda del asistente de dibujo se elaboró el plano correspondiente para cada una de las piezas del sistema, debido a  que se llevarían a un taller de maquinado para su fabricación. El tipo de material seleccionado para la fabricación de las piezas fue el aluminio 1100, debido a que, por su ligereza, resistencia, facilidad de maquinado y resistencia a la corrosión es idóneo para el proceso de experimentación. Se ensambló e instaló el sistema para realizar pruebas de funcionamiento que consistieron en mover el brazo robótico mientras que el sistema estuviera puesto y observar que se mantuviera firme y sujetando el material de experimentación en todo momento. Se realizaron los ajustes necesarios y se resguardaron los componentes del nuevo sistema en un lugar adecuado dentro del laboratorio.


CONCLUSIONES

Durante la estancia de verano se logró realizar una propuesta de mejora para el laboratorio donde se realizan los experimentos, para que así cumpliese con las normas necesarias para garantizar la seguridad del personal que labora ahí. También se diseñaron y construyeron piezas y aditamentos para mejorar el funcionamiento del brazo robótico empleado en el tratamiento láser de los materiales y de esta manera se comprendió como es que este mecanismo ayuda a mejorar el proceso de tratamiento.
Campos Tapia Luis Alexis, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan

PROPUESTA PARA LA SOLUCIÓN DEL CONFLICTO DE TRÁNSITO EN LA INTERSECCIÓN DEL LIBRAMIENTO ORIENTE Y LA CALLE CAMINO A SANTA ROSA, EN LA CIUDAD DE URUAPAN, MICHOACAN.


PROPUESTA PARA LA SOLUCIÓN DEL CONFLICTO DE TRÁNSITO EN LA INTERSECCIÓN DEL LIBRAMIENTO ORIENTE Y LA CALLE CAMINO A SANTA ROSA, EN LA CIUDAD DE URUAPAN, MICHOACAN.

Campos Tapia Luis Alexis, Instituto Tecnológico Superior de Uruapan. Pulido Rosas José Manuel, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El Libramiento Oriente de la ciudad de Uruapan, Michoacán, es una de las vialidades con más flujo vehicular, ya que es una de las arterias que comunica de forma directa el sur con el centro y norte de la ciudad. Con la importancia que tiene cuenta con dos carriles para transitar en cada sentido. En los últimos años ha sido notable el crecimiento de la ciudad que se ha manifestado hacia la zona oriente y esta vialidad juega un papel importante en esta zona. Uno de los puntos importantes de la propuesta es evitar la colisión de vehículos en dicha intersección.



METODOLOGÍA

1.- Realizar estudio topográfico para ver la infraestructura existente. 2.- Análisis y estudio de tránsito para determinar los puntos de conflicto. 3.- Desarrollo del proyecto propuesto en el software AutoCAD. 4.- Análisis de los puntos de conflicto de tránsito con software especializado.


CONCLUSIONES

ALTERNATIVAS DE SOLUCIÓN: Para el desarrollo de esta investigación los programas de cómputo tienen un rol fundamental. Se usó el software llamado InfraWorks el cual es una herramienta de diseño conceptual y visualización, una herramienta de diseño, análisis y cálculos ingenieriles, este programa nos permite configurar las unidades por categoría básica, transporte y estructuras. Eligiendo la precisión deseada para cada tipo de medición, Sección Transversal-Facilidad para revisar peraltes, cuantificaciones en cortes y rellenos, secciones de puentes, intersecciones y zonas de giro, cuantificación de materiales, realizar volumetrías, corte y relleno, según el parámetro de separación entre secciones que elijamos para mayor precisión. Nos permite exportar los reportes a una hoja de cálculo para realizar análisis posteriores. Se propusieron dos soluciones diferentes: 1.- Paso a desnivel. 2.- Puente. Realización de modelos esquemáticos para tener una representación física de la solución al conflicto vial. Ambas propuestas se presentarán al investigador para llegar a la alternativa de solución más adecuada.
Campos Valdés Leonel, Universidad Autónoma del Estado de México
Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío

DISEñO DE UN FILTRO PARA ESTERILIZACIóN DE AIRE POR MEDIO DE NANOPARTíCULAS DE PLATA Y óXIDO DE ZINC


DISEñO DE UN FILTRO PARA ESTERILIZACIóN DE AIRE POR MEDIO DE NANOPARTíCULAS DE PLATA Y óXIDO DE ZINC

Campos Valdés Leonel, Universidad Autónoma del Estado de México. Pérez Cortés Antonio, Universidad Autónoma de Zacatecas. Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

En el trabajo realizado, se sintetizaron nanopartículas de plata a partir de nitrato de plata, ácido ascórbico, ácido cítrico y hidróxido de sodio, mientras que las partículas de óxido de zinc se obtuvieron mediante el método de coprecipitación utilizando como precursores nitrato de sodio y nitrato de zinc. El proceso fue por reducción química, donde el ácido ascórbico se encargó de dotar de electrones a al ion Ag+. Una vez sintetizadas las nanopartículas se caracterizaron por medio de difracción de rayos X y se procedió a crear la cerámica porosa. Una vez obtenida la muestra de cerámica, en estado semiacuoso se vertieron las nanopartículas de óxido de zinc y plata y se sometió a secado en horno y finalmente a tratado térmico para ser posteriormente evaluado con un caldo contaminado de bacterias para finalmente hacer un arrastre del embudo donde se cultivarán las bacterias resultantes en un agar y verificar la eficacia del filtro.



METODOLOGÍA

Síntesis de las nanopartículas de plata: Se prepararon soluciones de ácido cítrico a 3x10^-2 M, ácido ascórbico a 6x10^-3 M, nitrato de plata a 1 M y de hidróxido de sodio a 2M Se vertieron 4ml de ácido ascórbico y ácido cítrico en otro recipiente y se sometieron a una agitación de 200 rpm durante 15 min. Ajustamos el ph con el hidróxido de sodio hasta 12.12 y simultáneamente en agitación. Vertimos 1 ml de nuestra solución de nitrato de plata y sometemos a agitación a 200 rpm por otros 15 min Vertiendo en tubos de ensayo los colocamos en la centrífuga a 4500 rpm por 5 min Hacemos un lavado con etanol Secado en el horno a una temperatura de 120 °C por 1 hora 35 min Se obtendrá un polvo oscuro, que son nuestras nanopartículas de plata   Síntesis de nanopartículas de óxido de zinc:   Se disolvieron 7.40 g de nitrato de zinc y 2.00 g de nitrato de sodio en 50 ml de agua desionizada cada uno en vasos de precipitado, sometiéndose a agitación de 200 rpm durante 15 min.  El nitrato de sodio se mantuvo a una temperatura de 25°C y bajo constante agitación el nitrato de zinc fue agregado lentamente por goteo alrededor de 20 min. Se mantiene la solución en agitación a 300 rpm durante dos horas. El precipitado color blanco fue recolectado y lavado 2 veces con agua desionizada y 2 veces con etanol a 4500 rpm por 5 min cada una. Se procedió al secado a 120° C por 2 horas Recolectar y moler las nanopartículas color blanco con mortero y pistilo.   Síntesis del cerámico poroso:   Se preparó una mezcla de arcilla roja y aserrín, nanopartículas de plata y de óxido de zinc de la siguiente manera: Arcilla: 294 g; Aserrín:  31.5 g, Ag: 0.0342 g; ZnO: 0.2637 g Mezclamos a mano en seco durante 15 min Agregamos 210 ml de agua Mezclamos durante otros 15 min Metimos a secado al horno a 120 °C por min. Tratamiento térmico a la mufla a 900 °C durante 6 hrs. Evaluación del filtro:             Preparar el agar: El tipo de agar más fácil de usar para este experimento es el agar nutritivo que viene en forma de polvo. Se necesito 1,2 g (aproximadamente 1/2 cucharada) de polvo de agar para cada placa de Petri de 10 cm (4 pulgadas) que se desea usar. En un plato o bol resistente al calor, mezclar 1/2 cucharadita de agar nutritivo en polvo con 60 ml (aproximadamente 1/4 taza) de agua caliente. Multiplicar estas cantidades por la cantidad de placas de Petri que planeas usar. Colocar el bol o plato en el microondas y ponlo a hervir durante 1 minuto, vigilándolo para asegurarte de que la solución de agar no hierva en exceso. Una vez que la solución esté lista, el polvo de agar debe estar disuelto por completo y el líquido debe ser claro. Dejar enfriar la solución de agar durante varios minutos antes de proseguir. Prepara las placas de Petri: Esterilizar las placas de Petri  para que puedan cultivarse adecuadamente las bacterias. Volver a colocar rápido la mitad superior de la placa de Petri para evitar que las bacterias transmitidas por el aire contaminen el experimento. Reservar la placa de Petri durante 30 minutos a 2 horas, hasta que la solución de agar se enfríe y se endurezca. Crear el caldo contaminado que se utilizará sobre el filtro Depositarlo por el filtro para que escura por el lado contrario.   Cultivar las bacterias Recolección de muestras donde se tomó un hisopo y pasarlo sobre el lado del filtro contrario a donde se depositó la sustancia. Luego pasar por la superficie del agar (sin rasgarla). Etiquetar y sellar las placas de Petri. Una vez que se haya introducido las bacterias, volver a colocar la tapa en la placa de Petri y sellarla con un poco de cinta adhesiva. Colocar las placas de Petri en un lugar oscuro y cálido. Dejar las placas de Petri en un lugar oscuro y cálido donde las bacterias puedan desarrollarse sin perturbaciones, durante varios días. Almacenarlas boca abajo, de modo que las gotas de agua no interrumpan el crecimiento de las bacterias. La temperatura ideal para el crecimiento de las bacterias es entre 20 y 37 °C (70 y 98 °F).


CONCLUSIONES

Se espera que el cultivo de bacterias que se obtuvieron del lado donde el filtro tuvo que haber hecho efecto no crezcan o se desarrollen muy pocas, ya que teóricamente las nanopartículas de plata y oxido de zinc tuvieron que haber actuado cada una respectivamente con sus efectos antibacteriales.
Canales García Rodolfo, Instituto Tecnológico de Morelia
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

EVALUACIóN DE LA RESISTENCIA AL IMPACTO DE PIEZAS DE ROTOMOLDEO A PARTIR DE PE RECICLADOS Y VIRGEN.


EVALUACIóN DE LA RESISTENCIA AL IMPACTO DE PIEZAS DE ROTOMOLDEO A PARTIR DE PE RECICLADOS Y VIRGEN.

Canales García Rodolfo, Instituto Tecnológico de Morelia. Rico Valenzuela Pedro Arturo, Instituto Tecnológico de Culiacán. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente la industria al elaborar piezas por el proceso de rotomoldeo utiliza material pulverizado 100% virgen. Se plantea llegar a un equilibrio en donde se varie material reciclado en forma de hojuela con material virgen sin afectar las propiedades mecánicas a las cuales las piezas en su practica pudieran llegar a ser sometidas.



METODOLOGÍA

Para la preparación de nuestras mezclas se utilizaron tres tipos de PE reciclado y PE en polvo virgen. Y los porcentajes de las mezclas fueron de 100% virgen, 60 virgen-40 reciclado, 50 reciclado-50 virgen, y 40 virgen–60 reciclado. Elaborando así tres piezas por tipo de PE reciclado. Se utilizo el equipo de rotomoldeo para la elaboración de las muestras, el proceso se llevo a cabo en caliente y frio con 30 min en cada parte del proceso. Se elaboraron un total de 10 piezas . Despues, las muestras se cortaron manualmente en 10 secciones por muestra utilizando como cortadora una segueta. De cada pieza se utilizaron 4 caras que fueron enumeradas y estas fueron divididas en dos partes iguales superior e inferior. Para poder tener las probetas fue necesario utilizar un equipo de compresión y suaje para pruebas de impacto y otro de tipo A4 para pruebas de tensión. Despues, para los ensayos de impacto se utilizo la maquina de impacto tipo charpy; y previamente se prepararon las probetas de acuerdo a la norma realizando una muesca, obteniendo así un ancho de 10.16mm. En esta maquina obtuvimos la resistencia de cada una de las probetas. Mientras que para la realización de estas pruebas fue necesario utilizar una maquina de ensayos universales, la probeta es sujeta por las mordazas del equipo para después proceder a comenzar la prueba, cada prueba fue a 1kN y a 5mm/min.


CONCLUSIONES

De acuerdo a las evaluaciones mecánicas a las que fueron sometidas nuestras probetas se observo que resiste mejor el impacto cuando se tiene material reciclado en la mezcla con material virgen. Mientras que en las evaluaciones de tensión presenta mejores propiedades el material 100% virgen ,en los materiales compuestos se ve afectada en gran medida ya que la composición no es homogénea, dando como resultado zonas débiles en la pieza. Por lo general las piezas elaboradas por rotomoldeo no están sujetas a tensión por lo cual se ven beneficiadas en su tenacidad y de acuerdo a su aplicación se variaría la cantidad de reciclado para obtener mayores propiedades mecánicas de impacto sacrificando la porosidad de la pieza final.
Canche Dzul Cristian Aroldo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez

VISUALIZACIóN DE UN OBJETO VIRTUAL DEFORMABLE CON RIGIDEZ AJUSTABLE CON REALIDAD AUMENTADA.


VISUALIZACIóN DE UN OBJETO VIRTUAL DEFORMABLE CON RIGIDEZ AJUSTABLE CON REALIDAD AUMENTADA.

Canche Dzul Cristian Aroldo, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Una de las dificultades que principalmente enfrentan los estudiantes en el estudio de la deformación física de un objeto, es la compresión de los conceptos teóricos necesarios sobre las fuerzas que se deben aplicar para que suceda la deformación. Dichos conceptos son difíciles de comprender solamente con la teoría, lo que ocasiona que los estudiantes deban recurrir a la imaginación para tener una idea sobre la deformación y cual seria el resultado obtenido.



METODOLOGÍA

Para resolver el problema, se desarrolló un sistema de realidad aumentada. El primer paso, constió en diseñar un set de objetos virtuales deformables basados en primitivas geométricas. Cuando un objeto entra en contacto con otro objeto se podrá visualizar la deformación de dichos objetos, adicionalmente, se podrá seleccionar  la fuerza que se quiere aplicar para realizar la deformación. El usuario podrá ajustar el coeficiente de rigidez de los objetos y se podrá apreciar que la magnitud de la fuerza requerida para deformar un objeto cambia dependiendo de las propiedades del material del objeto deformable. Lo primero que se hizo, fue la instalación del software necesario para la creación de realidad aumentada, para el proyecto se utilizó Unity y Blender. Con cada software instalado, se dio comienzo con la adquisición de los conocimientos acerca de las funciones básicas de cómo utilizar cada software. Se comenzó con Unity, el cual es un motor gráfico 3D para PC que incluye  herramientas para crear juegos, aplicaciones interactivas, visualizaciones, animaciones en 3D y tiempo real. Como siguiente paso, se realizó una aplicación referente al tema de realidad aumentada, la cual consistió en lograr la visualización de un objeto en 3D. Como siguiente punto se dio comienzo con la adquisición de los conocimientos acerca de las funcionalidades básicas del software Blender que es un programa de creación de contenidos 3D. Blender permite el modelado de objetos, animación y renderización de escenas en 3D. El siguiente punto para desarrollar el proyecto consistió en utilizar una herramienta llamada Vuforia, la cual es una plataforma de desarrollo de aplicaciones de Realidad Aumentada (RA). Con dicha plataforma se llevó acabo la creación de una base de datos, en la cual se añadieron imágenes (image target) que servirán como marcadores sobre los cuáles se desplegarán los modelos 3D. Con el software unity se elaboró la interfaz gráfica para poder comunicar al usuario y la aplicación. Como siguiente paso se prosiguió con la creación de la escena en unity, en la cual se insertaron las imágenes target para el reconocimiento del marcador por medio de la cámara. Como siguiente paso se continuo con el programa blender en el cual se llevó acabo la creación de objetos geométricos en 3D. Los objetos se utilizaron para crear animaciones sobre la deformación de los objetos, para esto se necesitó aplicar diferentes herramientas del programa para poder lograr apreciar cómo se deforma un objeto aplicándole una fuerza. Unas de las características que se necesitó aplicar a los objetos fue especificar cual cuerpo será blando y cual sería un cuerpo rígido. Una vez definidas las características del cuerpo, se prosiguió con la edición del objeto aplicando herramientas que permitieron modificar la estructura inicial de los objetos. Lo siguiente fue la exportación de cada objeto con su respectiva animación al software unity. Finalmente, se cargó cada objeto deformable a Unity para lograr la visualización de dicho objeto cuando se escanee cada una de las imágenes target por medio de una cámara y observar la deformación.


CONCLUSIONES

Con el proyecto realizado se logró la adquisición de conocimientos teóricos de realidad aumentada y ponerlos en práctica con las técnicas correspondientes. El proyecto fue un gran aprendizaje. Quizás lo más importante que me llevo de la estancia es conocer que es lo que me falta por aprender, y sé qué caminos debo recorrer de ahora en adelante.  El proyecto me permitió conocer sobre el programa Unity, con el que se pueden hacer miles de cosas más de las que he hecho pero que he descubierto que es una gran herramienta. Otro programa utilizado como Blender me ha permitido poner en práctica conocimientos de animación que he aprendido a lo largo del verano y también me ha llevado a los mayores problemas técnicos en exportar e importar archivos a Unity, sin embargo, es una herramienta muy potente.
Cancino Escobar Manuel de Jesús, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA


IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA

Aguilar Rosas Leonardo Adrián, Instituto Politécnico Nacional. Cancino Escobar Manuel de Jesús, Instituto Tecnológico de Tuxtla Gutiérrez. Palma Alvarez Miguel Arturo, Instituto Tecnológico Superior de Los Ríos. Sánchez Sánchez Orlando Miguel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Hoy en día resulta una tarea algo compleja el conocer con exactitud el momento adecuado para cambiar un rebaño de un terreno, pero, ¿Por qué decimos eso? Bueno, se entiende que para mantener un rebaño en un determinado terreno se debe contar con una pastura en cantidad y calidad, para que así el rebaño tenga el alimento suficiente, y en buen estado, ¿En qué momento se requiere cambiar el rebaño de terreno? La respuesta es cuando ya no existe la pastura suficiente para alimentarse, y, ¿Qué me puede ayudar a saber eso?, como una solución surge este proyecto que consiste en realizar un sistema digital encargado de analizar la pastura del terreno a través de imágenes, así es, estamos hablando del procesamiento de imágenes ¿Por qué usarlo? Con el sistema se podrá obtener la información necesaria para determinar la cantidad de pastura buena que queda en el terreno y esa información podrá ayudar a tomar la decisión de cambiar al rebaño en el momento correcto.



METODOLOGÍA

Obtención de imágenes Las imágenes son obtenidas con la ayuda de un teléfono celular, el cual se coloca a los borregos en el cuello, el teléfono cuenta con una aplicación previamente programada para tomar una cantidad de 30 imágenes con un lapso de tiempo entre la captura de cada imagen de 2 minutos aproximadamente. El proceso de la toma de las imágenes tiene un tiempo estimado de 1 hora, al finalizar el proceso una persona encargada recogerá los teléfonos para extraer las imágenes en un ordenador para realizar el procesamiento de las imágenes.   Procesamiento y Análisis de las imágenes Cuando de procesamiento de imágenes se trata, estamos hablando de un sistema o programa lo bastante complejo para dicha tarea, en la actualidad hay lenguajes de programación que permiten hacer este tipo de actividades, un ejemplo de ellos lo es Matlab, Python, entre otros; en este proyecto se está utilizando Python debido a que brinda herramientas más adecuadas para las tareas que se necesitan realizar en el proyecto. Las imágenes se someten a un programa realizado en Python que se encarga de obtener la ubicación GPS de donde fueron tomadas, de igual forma analiza las imágenes y las divide por canal RGB, posteriormente realiza un análisis estadístico para determinar la tonalidad de cada canal/color y con ello se establece un rango con el que se puede determinar el estado de la pastura. Como parte final, el código guarda la información en archivos TXT para ser enviados a la nube.


CONCLUSIONES

Contando con las herramientas necesarias para la culminación del proyecto, se realizaron una serie de pruebas tomando las fotos directamente desde el teléfono sujetado al cuello del borrego para poder observar la calidad de las imágenes tomadas. De la misma manera se llevó a cabo el análisis de las imágenes mediante el sistema realizado donde se obtuvieron resultados dando la ubicación geográfica de la imagen, el estado de la pastura, y mediante estos datos se pudo calcular de manera porcentual el estado de la muestra de terreno que se ocupó para realizar una primera prueba de este proyecto donde los datos obtenidos fueron enviados a la nube para ser consultados por el usuario y tomar mejores decisiones.  
Cano Valdivieso Samara Michell, Universidad Veracruzana
Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN


OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN

Cano Valdivieso Samara Michell, Universidad Veracruzana. Orozco Ramirez Oscar Francisco, Instituto Tecnológico de Lázaro Cárdenas. Zuñiga Rivera Yafte Ricardo, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el uso de drones ha tenido un gran impacto en la agricultura de precisión, donde se requieren métodos más eficientes para sembrar y no desperdiciar las semillas garantizando un ahorro al productor y una sustentabilidad en el suelo.  Sin embargo el uso de combustibles fósiles en sus baterías genera una gran cantidad de emisiones de gases de efecto invernadero  hacia la atmosfera, además de producir óxidos como resultado de la combustión por lo que con este trabajo se busca hacer uso de bio-etanol como combustible aplicado a una celda que trabaja a partir de hidróxido de potasio como electrodo para así obtener un voltaje que sea capaz de mover o alimentar dicho drone.



METODOLOGÍA

Para esta investigación se estuvo trabajando primeramente en las destilaciones de diferentes alcoholes obtenidos de procesos de fermentación con deshechos frutales altos en azúcar, como son: plátano, manzana, uva, tamarindo, mango y naranja. Así mismo, de estos alcoholes se determinaban mediante pruebas físicas la conductividad que producian, para así trabajar con el mejor bio-etanol posible. También se realizaban mediciones del pH que estos arrojaban. Posteriormente se realizaron pruebas en la celda de combustible que se tenía presente en el laboratorio. Durante las primeras pruebas se tuvo un electrodo compuesto de áloe vera - bicarbonato y otro compuesto solamente de bicarbonato. Dando indicaciones de que se requería seguir trabajando en el proyecto. En las siguientes pruebas se realizo un cambio de electrodos, usando la misma celda, ahora dichos  electrodos estaban compuestos unicamente de carbón activado y áloe vera. Dando unos resultados mejores a los anteriores. En las últimas pruebas se realizó un cambio nuevamente en los electrodos, siendo estos compuestos por hidroxidos fuertes, ya que estos tardaban más en realizar la reacción que produce el voltaje, teniendo así un voltaje constante por más tiempo.


CONCLUSIONES

Como resultados durante la estancia de verano se pueden destacar el diseño de un boceto o principio de un sistema de pequeñas dimensiones que reemplace a la batería convencional que actualmente los VAN usan como lo son las baterías tipo Li-Po, obteniendo de manera teórica un voltaje y corriente que este tipo de baterías proveen. Y claro también los resultados de voltaje que pueden llegar a dar cierta cantidad de bio-alcohol a cierta pureza.
Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero
Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato

ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO


ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO

Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero. Gómez Briceño Marco Favio, Universidad de Guadalajara. Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero. Ramirez Herrera Onel, Instituto Tecnológico de Tepic. Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de toda la riqueza  arquitectónica de Guanajuato,  no existen investigaciones publicadas que expongan de forma detallada los sistemas constructivos empleados en sus edificaciones, por lo tanto, se desconocen ciertos elementos de su estructura y funcionamiento  que son necesarios para conservar su identidad cultural. Por lo cual, la presente investigación apoyará a identificar los elementos que forman parte de estos sistemas constructivos tradicionales y contemporáneos, entendiendo su transformación relacionada a los mismos, en cuanto a materiales, tamaño y ubicación de predios, características de las viviendas, valor histórico, así como la normatividad en contextos patrimoniales; por ello, es necesario hacer una serie de comparaciones en los procesos de construcción de las edificaciones y su diferente aplicación de los materiales que estos conllevan. Al mismo tiempo, se logrará adquirir conocimiento de la arquitectura local y nacional compartiéndolo con la sociedad propiciando a generar una cultura de apreciación, mantenimiento y cuidado de la misma. 



METODOLOGÍA

Se realizó una extensiva investigación documental por medio en tesis, enciclopedias, libros y revistas, así como páginas web, relacionadas con los antecedentes históricos de la ciudad de Guanajuato para entrar en contexto con la situación urbanística y arquitectónica de la zona, aspectos legales y de reglamentación constructiva así como todo lo relacionado arquitectónicamente con la vivienda tradicional y contemporánea, tomando en cuenta el entorno y contexto en el que se encuentran. Una vez en contexto, se comenzó a estructurar el marco teórico con el que se fundamenta la investigación Este se estructura de un referente histórico en el que se profundiza en el origen de la ciudad de Guanajuato, actividades y estilos de vida que se llevaban a cabo, situaciones y condiciones que sufrió la sociedad y el cómo se fue constituyendo urbanística y arquitectónicamente para conformar lo que hoy en día corresponde al centro histórico. Además un referente legal en el que se hace mención de las primeras leyes que se proclamaron con el fin de proteger este tipo de edificaciones así como las que actualmente se toman en cuenta promoviendo su cuidado y conservación. Otro de los referentes que conforman este marco teórico es el conceptual, aquí se definen los conceptos que rigen esta investigación como que es el patrimonio cultural, un centro histórico, como se define una vivienda tradicional y una contemporánea, estilos arquitectónicos así como elementos de construcción utilizados en cada uno de los procesos constructivos. Por ultimo un referente contextual en el que se describe las condiciones topográficas, climatológicas, arquitectónicas y sociales en las que se encuentran estas viviendas Una vez establecido el marco teórico se realizaron cuatro visitas de campo, estas a los inmuebles a analizar, las tres primeras visitas se realizaron al Hostal BARATHI (vivienda tradicional). La primera se hizo para solicitar permiso a los dueños y realizar un recorrido para conocer las inmediaciones e irnos familiarizando. En la segunda se hizo un levantamiento fotográfico, captando cada uno de los espacios que conformaban el Hostal, circulaciones y accesos, así como elementos arquitectónicos (escaleras, puertas y ventanas), aplicación de materiales y acabados. Y la tercera visita fue para realizar un levantamiento constructivo, con ayuda de un distanciómetro, cintas métricas y fluxómetro con el fin de elaborar planearía digital y un modelo virtual. La cuarta visita se hizo pero al fraccionamiento Real de la Mancha Residencial, para hacer un levantamiento fotográfico, de igual manera de todo las estructura arquitectónicamente hablando, fachadas, acabados. Los datos acerca de la cimentación, proceso constructivo y aplicación de materiales, etc... fueron proporcionados por parte de la empresa Una vez con todos los datos recabados se comenzó con el análisis de cada una de las viviendas y posteriormente con su comparación la cual se elaboró a manera de tabla para una mayor comprensión de las diferencias presentes entre ellas


CONCLUSIONES

De acuerdo a la investigación documental y de campo que se llevó a cabo, el análisis comparativo realizado en cada una de las viviendas, tanto tradicional como contemporánea; concluimos que la vivienda tanto a nivel espacial como constructivo, ha evolucionado en todos los aspectos a lo largo de la historia, esto como producto fundamental de los nuevos estilos de vida, cambios en la forma de relacionarse con el entorno  y sobre todo la adaptación por parte de la sociedad a los nuevos materiales, procesos constructivos y tecnológicos. Sin embargo, esta evolución se da de manera diferente en distintos lugares del mundo, debido principalmente a la topografía, tipos de suelos y condiciones del clima, además de los estilos de vida, valores sociales y religiosos, al igual que costos y tiempos de construcción, entre otros aspectos; los cuales han determinado tanto la forma y distribución de los espacios , acabados y el dimensionamiento de las viviendas, así como el uso de propuestas para la  conservación ambiental como de materiales industrializados, apegándose a los reglamentos, normas de construcción y la configuración general de las edificaciones. Esto se puede ver reflejado en todos y cada uno de los puntos anteriormente mencionados en los tipos de viviendas analizadas, desde cimentación hasta el último detalle en los acabados, debido a la utilización de materiales propios de la región y materiales ya industrializados por lo que sus procesos constructivos son diferentes.
Cantu Rodriguez Roman Alejandro, Instituto Tecnológico de Matamoros
Asesor: Dr. Alejandro Durán Herrera, Universidad Autónoma de Nuevo León

COMPUESTOS CEMENTANTES INGENIERIZADOS REFORZADOS CON FIBRAS DE BASALTO Y VIDRIO FRENTE AL REFUERZO TíPICO CON FIBRAS DE POLIVINILO DE ALCOHOL


COMPUESTOS CEMENTANTES INGENIERIZADOS REFORZADOS CON FIBRAS DE BASALTO Y VIDRIO FRENTE AL REFUERZO TíPICO CON FIBRAS DE POLIVINILO DE ALCOHOL

Cantu Rodriguez Roman Alejandro, Instituto Tecnológico de Matamoros. Jiménez Ulin Fernando, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Alejandro Durán Herrera, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Del 60 al 80% del costo de los concretos fibro-reforzados es debido a las fibras utilizadas, por ello surge como necesidad el uso de fibras más baratas. Las fibras más utilizadas en los Compuestos cementantes ingenierizados (CCI) son las de PVA, las cuales son dosificadas a una razón de 24 kg/m3. El costo promedio de estas fibras limita el uso en aplicaciones normales de la construcción, aun en países de primer mundo. Sin embargo, utilizar fibras como las de basalto y vidrio las cuales son de 3 a 4 veces más baratas que las de PVA ampliaría el rango de uso de los CCI a gran escala y en aplicaciones más comunes. En México el Organismo Nacional de Normalización y Certificación de la Construcción y Edificación (ONNCCE), se encuentra en el proceso de normalización de los polímeros reforzados con fibra, con lo cual, se pretende que las fibras de vidrio y basalto estén disponibles en el país a costos más accesibles para la industria de la construcción mexicana. 



METODOLOGÍA

Se siguió un proceso experimental con el propósito de evaluar el desempeño de las fibras de basalto y vidrio en los CCI, típicamente reforzados con fibras de PVA, la metodología está constituida de tres etapas, las cuales están divididas en; Etapa 1: Caracterización y propiedades para el diseño de las mezclas de CCI, Etapa 2: Adición de fibras en el CCI y sus propiedades mecánicas y en estado fresco, por ultimo una etapa 3 en la cual se evaluaran las propiedades mecánicas de los CCI reforzados con fibras de PVA, basalto y los refuerzos híbridos PVA/Basalto. Para la elaboración del CCI reforzado con fibras de PVA y Basalto, se realizaron diferentes adiciones de fibras en una fracción del volumen del 1.0%, 1.5%, 2%, en las cuales las propiedades del concreto en estado fresco se determinaron por las siguientes normativas: Temperatura del CCI - ASTM C1064, Fluidez - ASTM C 240 y Contenido de Aire - ASTM C 185. Los materiales utilizados para la elaboración del CCI son: arena silica estándar, ceniza volante clase F, cemento CPO 40, aditivo plastol precast plus, fibras de PVA y basalto. A los especímenes obtenidos de las diferentes mezclas se les dio un proceso de curado en un cuarto con una humedad relativa superior al 75%. Posterior a ello se prepararon las muestras para los diversos ensayos preestablecidos. Respecto al desempeño mecánico para el compuesto cementante se ejecutaron las siguientes pruebas: para los ensayos de Resistencia a la compresión se utilizó la maquina universal, en la cual se ensayaron los especímenes a 3, 7, 14 y 28 días con cubos de 50 x 50 mm basado en los establecimientos de la norma ASTM C109, con el fin de tener una referencia de cuanto son sus respectivas resistencia conforme van avanzando las edades, Resistencia a la flexión a 28 días 3 vigas de 400 x 100 mm x 2.5 mm de espesor desde los soportes (ASTM 1690, modificada).


CONCLUSIONES

Durante la estancia de verano se trabajó con los CCI, se logró obtener el conocimiento para elaborar este tipo de concreto. Las fibras de basalto, PVA y de vidrio al 1% se sometieron a pruebas de compresión obteniendo un mejor desempeño las fibras de PVA conforme a las edades incrementen la unión fibra-matriz, disminuyen el costo y desarrollan la aplicación del CCI lo cual resulta factible para su respectivo perfeccionamiento y mejora. Sin embrago, se sigue trabajando en el diseño de mezcla para obtener un mejor desempeño, cabe mencionar que aún no se realizan pruebas a la tensión. Se busca obtener un concreto hibrido en un futuro combinando las fibras de PVA con las fibras de vidrio y basalto al 2%, esto con el fin de reducir costo.  
Carbajal Charco Diana Fernanda, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

IMPLEMENTACIóN DE ALGORITMOS PARA EL ANáLISIS DE LA CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN VOZ SOBRE EL PROTOCOLO DE INTERNET


IMPLEMENTACIóN DE ALGORITMOS PARA EL ANáLISIS DE LA CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN VOZ SOBRE EL PROTOCOLO DE INTERNET

Carbajal Charco Diana Fernanda, Instituto Politécnico Nacional. Salazar Ordoñez Luis Fernando, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

VoIP es la tecnología de telefonía más usada mundialmente. VoIP (Voz sobre protocolo de internet) son un conjunto de tecnologías que habilitan la comunicación de voz en tiempo real mediante el uso del protocolo IP, en redes por conmutación de paquetes, a comparación con la red PSTN, la cual usa una conmutación por circuitos para dar enlaces dedicados a la comunicación, VoIP busca un uso eficiente de recursos al compartir los enlaces, pero dando como consecuencias diferentes afecciones a la transmisión como lo son retardos y pérdidas de paquetes.Es importante lidiar con estos problemas con el fin de brindar una calidad de servicio (QoS) aceptable para el usuario. Varias de estas afecciones ya han sido estudiadas y modeladas para su control y prevención. Es por ello que el enfoque de la investigación es encontrar una proporción que relacione las métricas de QoS (Calidad de Servicio) y QoE (Calidad de Experiencia), para que los proveedores de servicio encuentren una solución adecuada de red para nuevos dispositivos



METODOLOGÍA

La metodología empleada para llevar a cabo la investigación fue una documental-experimental, en primera instancia leímos una serie de artículos relacionados con el fenómeno de transferencia de voz a través del protocolo de internet, para profundizar los conocimientos del tema. Posteriormente se comenzó a plasmar en un documento un informe en el que se describe los problemas de VoIP. Mediante de la realización de la documentación se resolvieron las dudas y logramos conocer lo suficiente el protocolo de comunicación a través de una red IP, además de los parámetros que influyen para brindar un buen servicio, así como aquellos que lo deterioran. Las métricas de la calidad de una llamada en VoIP se dividen en calidad de servicio (QoS) y calidad de experiencia (QoE). Las primeras están directamente relacionadas con los factores que afectan el audio tales como Jitter, perdida de paquetes o el retraso; mientras que las segundas están directamente relacionadas con la percepción subjetiva del usuario final. Se ha estudiado que el Jitter del tráfico VoIP guarda características de auto-similitud con dependencia estadística de largo y corto alcance (LRD y SRD respectivamente). Se ha demostrado (H. Toral & A. Khan 2011) la relación empírica entre el parámetro Hurst y la tasa de pérdida de paquetes, cuando H <0.5 (SRD) la pérdida de paquetes es PL <0.75%, lo que corresponde a una alta calidad de voz, es decir, 4.03 0.5 (LRD) el impacto negativo en la tasa de pérdida de paquetes y MOS es considerablemente mayor. Por lo tanto, la degradación de la calidad de voz se puede caracterizar en función del parámetro Hurst. Esto habilita el uso del valor H como una métrica de rendimiento de QoS de red. Además se propone la elaboración de un algoritmo de clasificación de la rafagosidad para la pérdida de paquetes en tráfico VoIP que considere los efectos percibidos distinguidos causados por diferentes incidentes de pérdida. Como lo son: incidentes aislados de pérdida incidentes de pérdida corta altamente frecuentes y poco frecuentes largos incidentes de pérdida que inducen interrupciones en las llamadas y entonces ser incorporado todo esto a modelos de evaluación de métricas objetivas como el Modelo E.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos en el área de voz sobre IP. Debido a que el tiempo de desarrollo de la investigación fue corto, los avances realizados resultaron ser en su mayoría teóricos, sin embargo el resultado final se realizará en conjunto con el investigador a pesar de que el plazo de la investigación llegara a su fin. Finalmente a través del tiempo invertido en la realización de esta estancia se han reforzado nuestras formaciones académicas y despertando el interés por la investigación.
Carbajal Hernandez Angel, Universidad de La Salle Bajío
Asesor: M.C. Dixon Salcedo Morillo, Universidad de la Costa (Colombia)

ANáLISIS Y CALIDAD DE REDES


ANáLISIS Y CALIDAD DE REDES

Carbajal Hernandez Angel, Universidad de La Salle Bajío. Asesor: M.C. Dixon Salcedo Morillo, Universidad de la Costa (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Existen varias herramientas que se pueden utilizar dependiendo el entorno y el problema presentado por el ancho de banda y el tráfico de datos. Se probará, realizará una tabulación de datos de cada herramienta con su respectiva gráfica  se concluirá con la más apta para un trabajo de calidad de red.



METODOLOGÍA

Introducción a terminología de código de Linux  Instalación de herramientas Realizar pruebas y tabular los datos obtenidos De acuerdo a los datos obtenidos, realizar una gráfica comparativa de cada uno


CONCLUSIONES

Probando dichas herramientas, logramos llegar a una conclusión dentro del laboratorio la cual a través vez de tabular y traficar los resultados de los programas, observamos que la que tiene mayor eficacia y eficiencia es Iperf, sus tiempos son cortos a comparación de Pathload y su exactitud con el ancho de banda mejor que Traceband. Destacando lo mencionado anteriormente, podemos decir que Iperf es la herramienta que se acopla perfectamente al evaluar un servicio de red.  
Cardenas Caballero Cesar Jafet, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Margarita Rosa Gamarra Acosta, Corporación Politécnico de la Costa Atlántica (Colombia)

CONTROL DE CONTEO PARA EL ASCENSO Y DESCENSO DE PASAJEROS EN EL TRANSPORTE PúBLICO MEDIANTE PROCESAMIENTO DE IMáGENES EN TIEMPO REAL


CONTROL DE CONTEO PARA EL ASCENSO Y DESCENSO DE PASAJEROS EN EL TRANSPORTE PúBLICO MEDIANTE PROCESAMIENTO DE IMáGENES EN TIEMPO REAL

Cardenas Caballero Cesar Jafet, Instituto Tecnológico Superior de Uruapan. Octaviano González José Manuel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Margarita Rosa Gamarra Acosta, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El transporte público de la ciudad de Barranquilla Atlántico Colombia está conformado por diferentes propietarios y llevar un control óptimo de ingreso de pasajeros les permite a dichas empresas tener una rentabilidad estable. Con base a lo ya mencionado existe cierta incertidumbre hacia los operadores por parte de los propietarios debido a que no se comprueba con exactitud las ganancias diarias, ya que el sistema con el que actualmente cuentan estas unidades puede ser burlado con facilidad o tener errores lógicos en su operación. Por esta razón se pretende que estas actividades se ejecuten de la manera más transparente posible, tanto para los operadores como para los dueños de las unidades.



METODOLOGÍA

Se consiguió desarrollar el código de detección de personas en tiempo real a través de una webcam prestada por el departamento de sistemas computacionales de Corporación Politécnico de la Costa Atlántica. Las primeras pruebas, para la estructuración y configuración de parámetros de los algoritmos que se llevaron a cabo fueron videos tomados de YouTube, aunque los resultados eran distorsionados por el pregrabado se pudo avanzar con la investigación durante 2 semanas. Durante la 5 semana se grabó un video dentro de las instalaciones del PCA captando un pasillo donde existe mayor flujo de personas. El código consiste en detectar siluetas de personas e identificar la dirección que llevan, para ello es necesario desaparecer el fondo y todo elemento fijo, enfocándose únicamente en lo que se mueve. Otro filtro propuesto es la silueta de una persona para evitar que tome mascotas. Conociendo esto, el algoritmo se acondiciono a ese pasillo, obteniendo una confiabilidad de trabajo alta, permitiendo que su funcionamiento fuera versátil en otras aplicaciones. La binarizacion, dilatación y erosión de los frames tomados uno a uno es el proceso principal para lograr el reconocimiento de las personas de manera confiable, serializan dos procesos de binarizado, uno de dilatación y dos de erosión, la dilatación es para expandir el objeto y erosión es para lograr identificar el proceso teniendo como resultado la identificación del objeto en movimiento con los parámetros deseados. Uno de los problemas que se enfrentaron fue la detección y separación de dos personas que caminan o pasan juntas una de otra. Para resolver problema se agregó una restricción en el código, la cual consiste en tener en cuenta las dimensiones del BoundingBox: si su acho es mayor a un umbral determinado, entonces cuenta a dos personas ya que sabemos que van dos personas juntas una de otra. Sin embargo, el tiempo y la gestión no fue suficiente para poder probar este algoritmo en una unidad de transporte público de la ciudad, lo cual habría beneficiado la documentación de este proyecto. De haber sido posible las pruebas en las unidades en tiempo real, su desarrollo serio meramente de forma analítica ya que la parte de hardware aún no está contemplada en este documento, esta cuestión debido a tiempos de trabajo designados. Se pretende que este proyecto sea completado en un futuro, donde proponemos un microprocesador llamado Raspberry el cual se adapta a los requerimientos de una unidad movible, también una metodología para la toma y almacenamiento de datos. Necesariamente se propone una cámara de donde se tome la imagen directamente al microprocesador Se desarrolla una investigación sobre hardware y software, propuesto para su implementación, buscando disminuir costos desde su implementación. El procesamiento se hace a través del microprocesador en tiempo real donde el conductor pueda ir verificando el conteo correcto y en dado caso de un error se tome la hora, para posteriormente se revise con el encargado correspondiente.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos tanto teóricos como prácticos sobre el procesamiento de imágenes y ponerlos en práctica con las técnicas de análisis de video en tiempo real. Sin embargo, al ser un extenso trabajo aún se encuentra en la fase de codificación para el conteo de ascenso y descenso de pasajeros. Sólo se tiene resultados preliminares con videos ya precargados en los sistemas los cuales nos permiten verificar qué tanta acertación tiene el algoritmo diseñado durante la estancia. Así mismo se pretende desarrollar un hardware el cual permita ser instalado de forma sencilla dentro de las unidades de transporte público.
Cárdenas Gallardo Ma. Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó (Colombia)

DESARROLLO DE SCRIPT PARA IDENTIFICAR TEMáTICAS DE UNA áREA DE CONOCIMIENTO


DESARROLLO DE SCRIPT PARA IDENTIFICAR TEMáTICAS DE UNA áREA DE CONOCIMIENTO

Cárdenas Gallardo Ma. Guadalupe, Instituto Tecnológico Superior de Apatzingán. Velasco Valladares Brenda Araceli, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los investigadores se encuentran con acceso a una gran cantidad de literatura científica y esto hace que se dispersen de forma fácil. Por ejemplo, cuando comienzan a realizar la búsqueda de información acceden a una gran cantidad de artículos que es complicado de mapear y la gran mayoría de herramientas son de pago o no tienen procesos automátizados. Algunas de estas herramientas son Sci2Tool, Gephi y Bibliométrix (un paquete de R). Sci2Tool sirve para organizar el archivo de txt resultado de la consulta para poderlo modificar de una forma fácil. Gephi permite la visualización de los datos que se extraen de la herramienta anterior. Por último, Bibliométrix permite realizar una mapeo muy general de la importancia del tema. Por lo tanto, como se puede observar los procesos actuales para entender y analizar la evolución y diferentes subáreas de un tema científico. 



METODOLOGÍA

Este proyecto se realizó en tres pasos en general. El primero se capturó el archivo txt de Web of Science y se convirtió en un grafo. Segundo, limpiaron los datos que no eran necesarios del grafo, como los nodos de grafo de entrada uno y grafo de salida cero junto con el componente gigante, al final de este paso se identifcaron los principales clústeres. Finalmente, se realizó un web scrapping para identificar los títulos de cada artículo y después una minería de texto para crear una nube de palabras y determinar el tema de cada subárea. 


CONCLUSIONES

Automatizamos análisis bibliometricos que usan análisis de redes, clusterización, web scrapping y minería de texto para identificar los subtemas de un área de conocimiento. Este es un aporte importante para los investigadores ya que a solo un enter podrán realizar todos los análisis que se mencionan en este documento y, de esta manera, agilizar su proceso de investigación. El producto final fue un paquete beta con una licencia MIT, el cual podrá seguir siendo desarrollado de forma libre y protegido para que sea utilizado por todos los investigadores. 
Cardona Canto Jesus Ramses, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Luis Gerardo Arriaga Hurtado, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)

SíNTESIS Y CARACTERIZACIóN ELECTROQUíMICA DE IRO2-WO3 PARA LA REACCIóN DE EVOLUCIóN DE OXíGENO EN UN MEDIO áCIDO.


SíNTESIS Y CARACTERIZACIóN ELECTROQUíMICA DE IRO2-WO3 PARA LA REACCIóN DE EVOLUCIóN DE OXíGENO EN UN MEDIO áCIDO.

Cardona Canto Jesus Ramses, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Luis Gerardo Arriaga Hurtado, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación ambiental es un problema a nivel mundial provocado en gran parte por las emisiones de CO2. Así mismo, otra problemática que preocupa a gran parte de la sociedad es la escasez de combustibles fósiles. Una de las alternativas para solucionar ambas problemáticas son los vectores energéticos tales como el Hidrógeno, el cual es utilizado en celdas de combustible (FC por sus siglas en inglés) para la generación de energía limpia. No obstante, para obtener dicho elemento se requieren de diversos procesos en los cuales destaca la electrólisis del agua por su eficiencia. Sin embargo, en dicho proceso se presenta la Reacción de Evolución de Oxígeno (REO) como limitante. Debido a que la REO es una reacción muy lenta, se requieren diversos materiales que presenten alta actividad electrocatalítica para acelerar el proceso. Entre los materiales más eficientes para la REO se encuentran el RuO2 y el IrO2, a pesar de que el primero presenta mayor actividad electrocatalítica, el segundo es considerado oro para la REO por presentar mayor estabilidad que el primero. Lamentablemente el costo de estos materiales es muy elevado y reducir el costo de la producción de Hidrógeno y obtener un sistema eficiente de la misma es la principal problemática de esta tecnología.



METODOLOGÍA

Para la síntesis del material WCl3 se realizó una síntesis con un proceso sol-gel partiendo de 0.4 g del material WCl6 preparando una solución en 40 ml de alcohol isopropílico y 5% en volumen de polietilenglicol como agente modificante. La solución se sometió a agitación constante durante 2 horas a 60 °C, sucesivamente se evaporó el alcohol a 80 °C durante 52 hrs. Como resultado de la deshidratación se obtuvo un precursor que finalmente se calcinó a 500 °C en una mufla durante 1 hr. Para la síntesis del material IrO2 se realizó una síntesis coloidal a partir de una sal precursora, se partió de 6.24 mM de IrCl3. Se mezcló con 25 ml de alcohol isopropílico a una agitación constante durante 10 minutos. Seguidamente le agregamos 1 ml de 1 M de NaOH con el objeto formar hidróxidos. Sucesivamente se agregó una solución de 0.5 M de NH4OH mediante un proceso de goteo durante 2 horas con el objeto de monitorear el pH a cada 15 minutos. Después se deshidrató la solución durante 24 horas a 100˚ C. Por último, pasadas las 24 horas, la solución se calcinó 400˚ C durante 1 hora con un paso de 5°C/min. Al finalizar la síntesis de ambos materiales, estos fueron mezclados mecánicamente a proporciones de 30%, 50% y 70% en peso de IrO2. Para la caracterización electroquímica se utilizó un Potenciostato/Galvanostato SP-150 de la marca biologic, con el cual obtuvimos los parámetros electroquímicos. Se realizaron las siguientes pruebas: Voltamperometría Cíclica (VC). Voltamperometría Lineal (VL). Espectroscopia de Impedancias (EIS). Las pruebas fueron realizadas a cada una de las mezclas para determinar la más eficiente. Estas se realizaron en una celda de Pt impresa en condiciones de un electrolizador en un medio ácido a temperatura ambiente.


CONCLUSIONES

Se obtuvieron materiales basados en IrO2 y WO3 en diferentes mezclas 100, 70:30, 50:50, 30:70, respectivamente, mediante una mezcla mecánica a partir de dos síntesis de reducción química.  Se caracterizó el material mediante técnicas electroquímicas de VC, VL y EIE. Se espera que el material IrO2-WO3 (70:30) presente una menor energía de sobrepontencial de activación a temperatura ambiente comparado a las otras mezclas, y que presente una densidad de corriente máxima cercana a 20 mA/cm2 a 1.8 V vs Hg/Hg2SO4. De acuerdo a las resistencias de impedancia electroquímica se espera obtener la resistencia a altas frecuencias y la resistencia a la transferencia de la carga. El objetivo es reducir el costo al utilizar menos material de IrO2 y la utilización de un material conductor y soporte como lo es el WO3. Siendo un material propicio para la REO en un electrolizador.
Cardona Martínez Salvador, Universidad de Guadalajara
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA


SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA

Alomía Hernández José Ramón, Universidad Veracruzana. Ayala Padilla Abraham, Instituto Tecnológico Superior de Ciudad Hidalgo. Cardona Martínez Salvador, Universidad de Guadalajara. García Carbajal Yasmín, Instituto Tecnológico de Morelia. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la identificación por radiofrecuencia (RFID) es una de las tecnologías con mayor crecimiento dentro de la industria de las tecnologías de la información y las comunicaciones (TIC) y de la identificación automática. En este contexto, RFID es una tecnología que puede utilizarse en un amplio espectro de aplicaciones, tales como control de acceso, seguimiento, seguridad, control de inventario, logística, entre otros. El objetivo es optimizar el control de acceso a los servidores garantizando la estadía de los equipos en el área de trabajo mediante el monitoreo constante, utilizando la tecnología RFID    para administrar eficientemente horario de entradas y salidas del personal.



METODOLOGÍA

El acceso por RFID se llevará a cabo a través de un Arduino Nano usando los siguientes componentes: • Módulo RFID RC522. • ESP8266-01. • Buzzer. • Led. • Reguladores de voltaje para 5V y 3.3V. • Cerradura eléctrica /Motor DC. • Sensor magnético. Se pretende desarrollar el módulo de acceso haciendo uso de ESP8266 debido a su bajo coste potencia de conexión y transmisión de datos, por lo que no es necesario hacer uso de una Raspberry Pi para la transmisión y evolución de datos de los usuarios. Una vez finalizadas las pruebas de funcionamiento y conexión en Protoboard se pasará a hacer el diseño de circuito impreso o PCB, se conseguirá o creará una carcasa para el circuito para finalmente realizar la conexión eléctrica-electrónica del circuito. El ESP8266 es la parte esencial de el modelo de acceso ya que a través de el el sistema RFID puede acceder al servidor y consultar el tag que se está leyendo en el momento y permitir el acceso. El sistema cuenta con las siguientes características: Comunicación Serial entre Arduino Nano y ESP8266 lo que permite tener una comunicación a internet. Comunicación I2C para LCD lo que permite ahorrar gran cantidad de pines y sólo utilizar los destinados a I2C Sensor magnético para mandar una notificación cuando la puerta haya sido abierta o cerrada, no basta con tener el acceso permitido desde el identificador RFID. Generalizando el funcionamiento de software y comunicación se encuentran los siguientes pasos para hacer la autenticación. El sistema está en espera de una lectura de tarjeta. El usuario acerca la tarjeta de identificación al sistema y este envía una señal hacia el ESP8266 a través de sus puertos seriales para así realizar una petición al servidor del tag. Se comprueba el acceso realizando una conexión con la API en la raspberry, verificando si el tag se encuentra entre los usuarios registrados dentro de la dirección URL. De ser así se manda un pulso eléctrico a la cerradura y esta debe ser desbloqueada. Una vez abierta la puerta el campo magnético del sensor desaparecerá y notificará al servidor que la puerta ha sido abierta. El sistema tendrá una espera de 7 segundos después de que el campo magnético del sensor de abra para dar tiempo al usuario para que cierre la puerta, de no ser así el buzzer emitirá un sonido constante y no permitirá que se ingrese otro tag hasta que el sensor magnético detecte que la puerta ha sido cerrada correctamente. De esta manera se puede implementar fácilmente una aplicación móvil o web de análisis de datos para monitorear qué es lo que está ocurriendo con los módulos en distintos puntos así como poder hacer la autenticación a través de las aplicaciones, sin necesidad de tener una tarjeta magnética, sólo la autenticación escolar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los componentes y equipos necesarios para el monitoreo constante de los servidores, sin embargo, al ser un extenso trabajo sólo se logró llegar a un prototipo funcional con la contrachapa. Los diseños de los PCBs están listos para ser enviados a maquilar para que después se les suelden los componentes y por último ser instalado en la puerta.
Cardona Morón Leslie Viviana, Pontificia Universidad Javeriana (Colombia)
Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México

DEFINICIÓN DE LA SATISFACCIÓN DEL USUARIO DE UN SERVICIO DE TRANSPORTE PÚBLICO DE AUTOBUSES EN LA ZONA URBANA DE TOLUCA


DEFINICIÓN DE LA SATISFACCIÓN DEL USUARIO DE UN SERVICIO DE TRANSPORTE PÚBLICO DE AUTOBUSES EN LA ZONA URBANA DE TOLUCA

Cardona Morón Leslie Viviana, Pontificia Universidad Javeriana (Colombia). Asesor: Mtro. Javier Romero Torres, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El transporte público es un elemento clave constituido con el fin de mejorar la calidad de vida e ingresos de una población, por lo que es de suma importancia la respectiva evaluación del sistema lo que permite que se determinen criterios que buscan mejorar el servicio y paralelamente aumentar el nivel de satisfacción de los usuarios esto por medio de políticas públicas, pero dichas políticas deben ser minuciosamente estudias y al implementarse respectivamente evaluadas cosa que no sucede muy a menudo,



METODOLOGÍA

por lo que este articulo tiene como finalidad relacionar la política pública y su cumplimiento a nivel operativo del transporte público en la zona urbana de Toluca, Estado de México; esto evaluado por medio de modelos matemáticos que cuantifiquen la satisfacción de los usuarios, dicha percepción fue tomada por medio de una encuesta de satisfacción,


CONCLUSIONES

en general, los modelos apuntan a que los usuarios están insatisfechos con el servicio esto en cuanto a los factores cuantitativos como tiempo de espera, tiempo de viaje y tarifa que son influenciados por los factores cualitativos como: forma de manejar, trato al usuario y estado físico del vehículo.
Carmona Conde Sarahi, Instituto Tecnológico Superior de Huauchinango
Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango

COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR


COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR

Carmona Conde Sarahi, Instituto Tecnológico Superior de Huauchinango. Martínez Salas Luis Adolfo, Instituto Tecnológico Superior de Huauchinango. Monroy Vite Mayte, Instituto Tecnológico Superior de Huauchinango. Peláez Hernández Georgina, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El paradigma de las instalaciones solares fotovoltaicas ha cambiado mucho en los últimos años, pasando de sistemas con primas a la producción a instalaciones de autoconsumo sin primas. Por ello en muchas instalaciones no se busca la máxima producción energética en un periodo de tiempo, sino el máximo aprovechamiento energético de la energía solar producida. En los últimos años la creciente demanda de energía eléctrica para satisfacer el bienestar de las personas ha provocado daño en el planeta, es por esto que se han estudiado diversas formas de generación de energía para poder satisfacer el desarrollo de los países. La premisa principal por la cual se realizo este proyecto es para aprovechar al máximo la energía solar, día con día se busca sacar mayor eficiencia de los sistemas fotovoltaicos. Es por eso que el proyecto  tuvo como objetivo captar al máximo los rayos solares para obtener un aprovechamiento de esta energía. La estrategia consiste en realizar mediciones de voltaje y corriente de un sistema fijo y un seguidor solar, con los resultados se realizo una grafica de la respuesta de cada sistema.



METODOLOGÍA

El presente trabajo de investigación COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR, corresponde a un proyecto de investigación en el área de energías renovables el cual está encaminado a analizar la factibilidad de aprovechamiento de un seguidor solar respecto de los sistemas fotovoltaicos fijos instalados actualmente. Se realizó la construcción del prototipo del sistema con el propósito de tener un  fácil manejo en la inclinación del panel fotovoltaico desplazado por el servomotor en un giro de 180 grados, con ayuda de una estructura de metal formada por dos pilares los cuales unidos por una varilla del mismo material soportan el peso del panel solar de forma uniforme para poder así realizar los movimientos libres que manden las señales que son enviados por los sensores, para esto se hizo uso de 2  fotorresistencias (LDR) y una alimentación de 5 V para el sistema de control. Se realizó el código de programación en la plataforma Arduino, que contiene el micro controlador, el cual se encarga de medir la intensidad de los rayos luminosos, procesa el ángulo de incidencia y reenvía la señal de respuesta modificada en el sistema. El módulo de control mide constantemente la intensidad y el ángulo de los rayos solares recibidos y orienta la instalación con los módulos solares de forma óptima. Para ello, el sensor toma en cuenta la luz que el agua o las piedras claras, así como la irradiación difusa que traspasa las nubes. Adicionalmente se coloco un circuito de salida al panel para poder conocer el comportamiento referido al sistema de generación, para lo cual se conecto una carga en paralelo al panel y con ayuda de un voltmetro-ampermetro conectado en serie del panel a la carga, fue posible adquirir los datos de voltaje y corriente en función de la carga. Con estos datos fue posible la realización de una grafica que nos muestra el comportamiento a distintas horas del día, y la obtención de la comparativa del seguidor y el sistema fijo.


CONCLUSIONES

En este sentido, cuanto más podamos consumir en tiempo real la energía producida por los módulos solares más rentable será la inversión realizada. Los resultados obtenidos al realizar la comparación en cálculos energéticos, nos llevan a concluir que el seguidor solar es eficiente sin embargo aporto alimentación a los servomotores lo cual redujo la entrega final de energía por otro lado el sistema fotovoltaico fijo al no tener un mecanismo que le permita movilidad entrego el 100% de su energía para el consumo de la carga. La mejora propuesta para compensar el consumo de energía es realizar un periodo más amplio de mediciones y posicionar ambos sistemas al mismo tiempo.  Al realizar el estudio de tiempo-corriente, tiempo-voltaje y tiempo-potencia, observamos que el comportamiento del seguidor solar es lineal en cuanto al sistema fotovoltaico fijo se comporta de manera perpendicular al sol. El promedio de voltaje, corriente y potencia en el seguidor solar fue de 8.4 V, 0.16 A y 1.42 W; en el sistema fijo fue de 8.8 V, 0.24 A y 2.13 W.
Carmona Martínez Cristóbal, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)

MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)


MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)

Ayala Hernandez Antonio, Universidad Vizcaya de las Américas. Carmona Martínez Cristóbal, Tecnológico de Estudios Superiores de Valle de Bravo. González Meneses Karla Estela, Universidad de La Salle Bajío. Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven. Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven.



METODOLOGÍA

El proyecto MODIF-HABIT plantea un análisis comparado de viviendas y perfiles de hogares en tres ciudades: Bilbao, Madrid y Valencia, para valorar la capacidad de sus usuarios de modificar sus hábitos de uso y consumo teniendo además en cuenta el impacto que tiene el contexto socio-climático de los hogares sobre los consumos energéticos y condiciones de habitabilidad térmica interior. De este modo, y partiendo de una caracterización tanto climática como socioeconómica de los perfiles de hogares de la muestra disponible en las tres ciudades se diseñarán unos protocolos tanto de monitorización como de visualización que nos permitan obtener datos reales e información de los hogares de estudio. La campaña de monitorización de los hábitos y patrones de uso y consumo se llevara a cabo en las tres localidades seleccionadas, aunque en Madrid se seleccionaran dos áreas diferenciadas (una en la periferia y otra en una zona más urbana) con el fin de estudiar el efecto de la isla de calor. A la vez que se desarrolla la monitorización, se estudian cuatro escenarios con información relativa al consumo energético en los hogares mediante la visualización de distintos niveles de datos. De este modo se podrá evaluar y analizar por perfiles de hogar y condiciones climáticas, la capacidad de modificación de los hábitos de uso de los hogares en función del nivel de información disponible.


CONCLUSIONES

Con los resultados a obtener se pretende evaluar el potencial que tiene la visualización de datos de consumo energético sobre la modificación de los hábitos de uso en los hogares, así como la definición de estrategias que, adecuándose a la realidad socio-climática de los hogares, estén orientadas a la gestión eficiente de los recursos energéticos en el ámbito doméstico y la mejora de sus condiciones de habitabilidad.  
Carranza Guerrero Eduardo, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

CARGA ELECTRóNICA PARA BANCO DE PRUEBAS


CARGA ELECTRóNICA PARA BANCO DE PRUEBAS

Carranza Guerrero Eduardo, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el equipo de trabajo del Laboratorio de Sistemas Digitales del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) trabaja en la línea de investigación de detección de fallas de máquinas de inducción. durante el desarrollo de la investigación, un banco de pruebas de laboratorio ha sido diseñado y construido para la simulación de condiciones de operación reales de la máquina eléctrica de inducción. Si bien el banco de pruebas (está formado por una máquina eléctrica de inducción y un alternador acoplados por medio de una banda) ha permitido la simulación de diferentes regímenes de operación, los resultados obtenidos solo presentan condiciones de operación sin carga. Por lo tanto, la solución propuesta pretende añadir al banco de pruebas, un circuito de arranque para el generador(alternador) y un circuito de carga electrónica para la simulación de una carga para la máquina eléctrica de inducción.



METODOLOGÍA

Al inicio de la estancia, de manera paralela al comenzar con la solución para la problemática planteada, se impartió un curso de Diseño de Sistemas Digitales en FPGA Nivel Básico en el cual se dio una introducción al lenguaje de descripción de hardware en Verilog, y de esta manera, poder aplicar conocimientos adquiridos en el curso para la solución de problemas relacionados con análisis y procesamiento de señales, este curso duró un total de 4 semanas (20 horas totales de curso).   Para la solución del problema planteado, se tuvo que plantear una metodología a seguir, para lo cual se seleccionó el modelo V para diseño de sistemas embebidos, el cual a lo largo de la estancia se dividió en etapas de las cuales fueron elaboradas las siguientes:   Requerimientos de alto nivel: se procedió con identificar las funcionalidades principales de la carga electrónica para el banco de pruebas para así presentarlas en la siguiente etapa como especificaciones.   Especificaciones. Una vez analizados los requerimientos de alto nivel en la solución para la elaboración de la carga electrónica, fueron planteados como especificaciones de ingeniería en un documento digital, es decir, características como: temperatura de funcionamiento, consumo de potencia, voltaje de entrada/salida, etc. Se dividió en especificaciones generales y otras especificaciones puestas en secciones, como lo son, especificaciones mecánicas, especificaciones del ambiente de operación y especificaciones eléctricas.   Diseño de ingeniería.  Con base en los datos del documento de especificaciones se procedió con el proceso de diseño tomando en cuenta las funcionalidades identificadas en la etapa de requerimientos de alto nivel. El diseño de ingeniería se dividió en tres áreas principales: diseño mecánico, diseño electrónico y diseño eléctrico.  En esta etapa se elaboraron circuitos impresos para la adquisición de datos, necesarias para la comunicación con la FPGA, tales impresos fueron diseñados en el software EAGLE, también se diseñó un diagrama de conexión del arnés necesario para el arranque del generador, para el cual se tuvo que investigar el modelo del generador, marca y especificaciones, esto con la finalidad de saber el tipo y calibre de cable que se debe utilizar en la elaboración del arnés (de acuerdo con las corrientes que soporta cada calibre de cable). También se elaboró el diseño de un posible arreglo de lámparas, el cual es encargado de disipar la potencia que proviene del generador, para este arreglo se tuvieron que considerar la potencia de salida del generador, lo cual es aproximadamente 700Watts, por lo cual se utilizaron lámparas de 50W que, de acuerdo con sus especificaciones técnicas, fueron las más convenientes a utilizar.   Una vez obtenido el resultado de la etapa de diseño de ingeniería se procederá con la siguiente etapa, la cual es la etapa de validación. En la etapa de validación se generarán las pruebas para la comprobación del funcionamiento de cada una de las secciones mencionadas con anterioridad, primero de manera individual y después, en conjunto para una validación de nivel sistema con respecto a la etapa de especificaciones. Ya que la etapa de validación es completada se procederá con la etapa de liberación, en la que se dice que la versión de la carga electrónica para banco de pruebas es liberada por el área de diseño.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la programación en lenguaje Verilog para FPGA, y ponerlos en práctica para el análisis de señales y su procesamiento por medio de la FPGA. A su vez se adquirieron conocimientos sobre el funcionamiento y conexión de máquinas eléctricas como lo son (motor de inducción de imanes permanentes, y alternadores), y se adquirieron conocimientos para lograr la elaboración de documentos de especificaciones, pero debido que el proyecto es un trabajo extenso aún no se tiene la implementación completa de la carga electrónica en el banco de pruebas.
Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Carrasco Angel Ruby Guadalupe, Instituto Tecnológico Superior de Puruándiro
Asesor: M.C. Edgardo Abdiel Escoto Sotelo, Universidad Politécnica de Lázaro Cárdenas

ESTUDIO DE FACTIBILIDAD Y LOGíSTICA DEL USO DE BIOMASA EN LA REGIóN OCCIDENTE.


ESTUDIO DE FACTIBILIDAD Y LOGíSTICA DEL USO DE BIOMASA EN LA REGIóN OCCIDENTE.

Carrasco Angel Ruby Guadalupe, Instituto Tecnológico Superior de Puruándiro. Asesor: M.C. Edgardo Abdiel Escoto Sotelo, Universidad Politécnica de Lázaro Cárdenas



PLANTEAMIENTO DEL PROBLEMA

A partir del avance tecnológico, el hombre ha creado una serie de necesidades que son suplidas con energía eléctrica. Es difícil imaginar un mundo sin luz, computadoras, celulares, etcétera. Por lo tanto es necesario implementar nuevas formas de generar energía, que no produzcan daños irreparables al medio ambiente. Las plantas termoeléctricas o centrales térmicas son instalaciones empleadas para la generación de energía a partir de calor. Este se obtiene principalmente de combustibles fósiles como: petróleo, gas natural o carbón; que se presentan en la tierra, por lo tanto quiere decir que emite gran cantidad de gases contaminantes, no solo para las regiones que estas rodean, sino para todo el mundo. Independientemente otro problema es la logística de como transportar la materia prima hasta la planta, ya que esté debe ser sembrado en lugares no tan retirados de donde se ubica la planta para que esto sea factible y a su vez un beneficio para que no se convierta en una perdida.



METODOLOGÍA

Primero se hicieron calculos para cuanta biomasa se necesitaria para poder suplir en un 5% el carbón mineral y de esa manera ver si podría se factible en un futuro. De acuerdo a datos proporcionados por la central termoeléctrica, para sustituir un 5% de carbón mineral por Biomasa en la unidad 1, se tiene que: Capacidad: 359 MW Consumo carbón: 136 T/h Poder calorífico (PC) del carbón: 26.520 MJ/T Lo cual sustituir el 5% de carbón mineral por biomasa, significa dejar de suministrar el 6.8 T/h. (Esto se obtuvo con una regla de 3) Entonces la energía que se deja de suministrar es de: 6.8 T/h X 26.520 Mj/T = 180.33 Mj/T Por lo tanto para sustituir 180.336 MJ/h que proporciona un 5% de carbón, tenemos que el poder calorífico inferior (PC) de la biomasa es de: 18.000 MJ/T. Necesidad de Consumo de Biomasa 180 Mj/T / 18.00 Mj/T = 10.02 T/h Se determina que se requieren 10.02 Ton/h de Biomasa para sustituir la energía que entrega el 5% de carbón, lo que nos da un total de: 87,534.72 T/año. Posteriormente de encontrar este dato, se dio a la tarea de investigar lugares cercanos, como plan de oprtimización en tiempo y dinero.  Para encontrar esto de una manera logística se uso el método de ahorro (Clarck y Wrihgt). Que a sido uno de los algoritmos más implementados para resolver VRP en general, el cual consiste en realizar una exploración limitada del espacio de búsqueda y dar una solución de calidad aceptable en un tiempo moderado.El algoritmo se desarrolla partiendo de una solución con dos rutas, las cuales pueden ser combinadas generando una sola ruta.


CONCLUSIONES

Ya que este proyecto es algo extenso y se tendría que proponer como tal a CFE para saber realmente que tan factible puede llegar hacer, se quedo en seguir investigando. Pero como tal es un proyecto muy bueno, que realmente puede llegar a ser redictuable ya que lo que hoy en día importa, es que un proyecto sea amigable con el medio hambiente. Del proyecto como del  verano de investigación me llevo un gran aprendizaje y unas ganas de seguir aprendiendo más y más ya que la investigación es algo más que leer o buscar. Es undirte en un mar de conocimientos y expericiencia muy bonitas.
Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES


FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES

Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional. Centeno Torres Brandon Ernesto, Universidad de Guadalajara. Ibarra Salazar Juan Pablo, Universidad de Sonora. Martínez Ramírez Brian Yannick, Universidad de Guadalajara. Mejia Rivera Marco Antonio, Universidad de Sonora. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el mundo está pasando por una serie de problemas ambientales bastante graves, en su mayoría ocasionadas por el ser humano, pero también ocasionadas por la naturaleza.  Un problema ambiental que se puede atacar es la contaminación debido a la ceniza volcánica, El gas emitido por un volcán se compone en su mayoría (75% aprox.) por vapor de agua (H2O), la fracción restante es conformada por dióxido de carbono (CO2), dióxido de azufre (SO2), sulfuro de hidrógeno (H2S), ácido clorhídrico (HCl), ácido fluorhídrico (HF); estos elementos son los productos principales y se caracterizan por ser emisiones ácidas.  El SO2 emitido se convierte lentamente en ácido sulfúrico (H2SO4), que se condensa en la atmósfera y se precipita en forma de lluvia con partículas muy finas. La concentración de estas partículas origina el llamado aerosol. Cuando éste se forma a partir del azufre se conoce como aerosol de sulfato. El objetivo de este trabajo es utilizar una manera de poder remediar los efectos por la contaminación en el suelo mediante una técnica que no genere contaminantes secundarios, por lo que se utilizó el método de fitorremediación; el cual consiste en aprovechar la capacidad de ciertas plantas para absorber, acumular, metabolizar, volatilizar o estabilizar contaminantes presentes en el suelo, aire, agua o sedimentos como: metales pesados, metales radioactivos, compuestos orgánicos y compuestos derivados del petróleo. Se reporta que algunas especies pertenecientes a las Asteraceas, toleran altos niveles de metales pesados en comparación con otros grupos taxonómicos y se les ha propuesto como especies fitorremediadoras. Helianthus annuus girasol pertenece a la familia de las Asteraceae , posee una facilidad de manejo en su cultivo, se adapta fácilmente a un amplio intervalo en la variación de temperatura. La época de la siembra es variable y depende de las características climatológicas de cada región. El girasol es reportado por su capacidad de acumular metales y responder con una alta biomasa radicular no obstante una baja tolerancia al cromo comparado con otras plantas acumuladoras.  



METODOLOGÍA

Para poder lograr nuestro objetivo de biorremediar zonas contaminadas tuvimos que hacer consideraciones y seguir una serie de pasos para que el desarrollo del proyecto fuera el óptimo, a continuación, en los siguientes puntos se establece el plan que seguimos a lo largo de nuestra estancia: ·         Muestreo de suelo con la que se trabajó. El material poroso tiene el fin de mantener la humedad apropiada para el crecimiento de la planta y de esta forma suministrar el oxígeno necesario, ya que la falta de oxígeno afecta el metabolismo del sistema radical y produce cierre de estomas . La selección de dicho material estuvo limitado a la disponibilidad de materiales en el laboratorio y a la conveniencia de utilizarlos en el sistema. El material seleccionado resultó ser el aserrín. ·         Preparación de la mezcla de suelo. Una vez obtenido el suelo que se usará para plantar el girasol, se limpió el suelo removiendo piedras, trozos de madera, raíces de plantas del lugar donde muestreamos la tierra, quitarle lombrices y otros animales que interfieran en el crecimiento del girasol, se mezcló teniendo como resultado 9 % de aserrín y el 91 % de tierra, esto con el propósito de retener la humedad. ·         Selección de la planta y germinación. Se seleccionó el girasol como planta a trabajar por su capacidad fitorremediadora que esta contiene además de que el tiempo de germinación de la planta es corto y los cuidados del girasol son relativamente sencillos. ·         Selección de un contaminante. Se eligió el azufre como contaminante debido a que el sitio de muestreo se encuentra en una zona que pertenece a los alrededores de los volcanes Iztaccíhuatl y Popocatépetl, y el azufre es un compuesto que se encuentra en cierta cantidad en la ceniza volcánica. Dicho contaminante fue seleccionado de acuerdo con la disponibilidad de reactivos en el laboratorio, así como la relación que este tiene con el campo de aplicación que se tiene. ·         Contaminación de la mezcla de suelo. se contaminó con azufre en diferentes concentraciones para su posterior análisis. Se decidió contaminar con concentraciones que van desde el 1 % hasta el 5 %, haciendo por triplicado cada concentración obteniendo quince macetas contaminadas con azufre. ·         Trasplante de los girasoles germinados al suelo contaminado. Una vez teniendo el girasol germinado (aproximadamente una semana después crecieron los tallos) se plantó en macetas con suelo ya contaminado y así iniciando el proceso de fitorremediación para su posterior análisis. ·         Cuidado de la planta por las siguientes cuatro semanas. Se mantuvieron las condiciones idóneas de humedad, temperatura y exposición solar para el adecuado crecimiento de la planta, además que se medía el pH y humedad dos veces por semana. El girasol es una planta que no necesita tanta agua para sobrevivir por lo que fue fácil su cuidado, en cuanto al pH necesita entre 7 y 7.5, logramos mantener el potencial de hidrógeno en ese rango. ·         Medición Cuantitativa de la degradación del contaminante en la tierra. Una vez pasadas las cuatro semanas se deberá medir el contenido de azufre en el suelo para conocer la cantidad que el girasol proceso.


CONCLUSIONES

La fitorremediación es una prometedora técnica que se puede usar para resolver diferentes problemas ambientales que incluyan dañinos contaminantes en los suelos. En este proyecto, mediante técnicas espectrofotométricas, se  determinará el nivel de degradación del azufre que tiene el girasol siendo seleccionada esta planta para su estudio gracias a las propiedades biorremediadoras que en la literatura se reporta.
Carrasco Vargas Carlos Guillermo, Instituto Politécnico Nacional
Asesor: Mtro. Ramón Eduardo Pérez García, Universidad Intercultural Maya de Quintana Roo

PRESERVACIóN DE CUENTO DE LA COMUNIDAD MAYA DE JOSé MARíA MORELOS, QUINTANA ROO, MEDIANTE ANIMACIóN 2D.


PRESERVACIóN DE CUENTO DE LA COMUNIDAD MAYA DE JOSé MARíA MORELOS, QUINTANA ROO, MEDIANTE ANIMACIóN 2D.

Carrasco Vargas Carlos Guillermo, Instituto Politécnico Nacional. Asesor: Mtro. Ramón Eduardo Pérez García, Universidad Intercultural Maya de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

México es uno de los países de mayor diversidad lingüística en el mundo, contando con alrededor de 68 lenguas indígenas. En el país según una encuesta realizada en 2015 por el Instituto Nacional de Estadística y Geografía (INEGI) solo 7.4 millones de personas, que representan al 6.1 por ciento de la población hablan una lengua indígena. Todos estos datos dan a entender que las diversas lenguas indígenas se encuentran en un alto nivel de riesgo de poder ser perdidas, únicamente 859 mil personas hablan maya, la mayoría se localizan en el sureste del país de acuerdo con el Instituto Nacional de Lenguas Indígenas (INALI). Con el paso del tiempo estas lenguas se han preservado debido a la transmisión de estas a través de generación en generación, desgraciadamente en la actualidad las últimas generaciones haciendo hincapié en la Generación Z se han disminuido los niveles culturales dando como consecuencia un incremento de irreverencia hacia las lenguas indígenas. Por dicha causa es necesario tomar medidas, como la creación de un nuevo método de enseñanza de las lenguas indígenas, por lo que durante en el verano de investigación se desarrollara un método mediante la animación 2D que facilite el aprendizaje de la lengua maya de acuerdo con las cuatro actividades principales para el aprendizaje de una lengua, las cuales son leer, escribir, escuchar y hablar.



METODOLOGÍA

Para la creación de la animación fue necesario buscar una historia, relato, leyenda o cuento que cumpliera con ciertas características de lenguaje para un aprendizaje optimo tales como verbos (en pasado, presente y futuro), preposiciones, lugares, adjetivos calificativos, pronombres personales y demás. Después del estudio de los textos se selecciono el cuento El pequeño y el gigante del autor Aniceto May Tun, el cual fue recabado por el Observatorio Maya de la Universidad Intercultural Maya de Quintana Roo (UIMQROO). Una vez obtenida la historia se procedió a crear un plan de trabajo el cual organizara las fechas para un avance efectivo en la creación de la animación donde los plazos de trabajo seleccionados fueran dedicados a lo siguiente: Selección de softwares Traducción de la historia al inglés y maya. Diseño de personajes y escenarios. Grabación de voces, efectos de sala y creación de banda sonora. Animación 2D. Creación de subtítulos. Exportación de la animación. Para la creación de una animación 2D fue necesario usar softwares dedicados al proceso de animación para los cuales se utilizaron programas de los grupos Adobe Systems Incorporated®, Unity Technologies®, Microsoft Office®, Apple® y Aegisub® Posteriormente en la fase de traducción se verificó que el cuento tuviera sentido después de dicho proceso. El cuento se tradujo en inglés, es necesario mencionar que el proceso fue mas sencillo debido a facilidad de aprender el idioma, también el guion se tradujo a maya donde todo el trabajo fue más complicado por el hecho de la existencia de normas de escritura demasiado exigentes. Al trabajar en la fase de diseño de personajes, se tuvo que dedicar tiempo a la creación de un Story Board donde se plasmaron el orden y numero de los escenarios y personajes a diseñar, el trabajo fue limitado debido a que únicamente existen cuatro personajes en el cuento, se buscó que los diseños fueran demasiado realistas tanto en la vestimenta como sus rasgos físicos, por otra parte la creación de los escenarios fue más amplia y tuvo que ser mas realista debido a que eran lugares reales, todo estos diseños fueron realizados en hojas tamaño A4 según la norma ISO 216 y digitalizados mediante  los softwares proporcionados del grupo Adobe Systems Incorporated®. En la fase de grabación de personajes fue necesario realizar una serie de casting con personas maya hablantes que se prestaran a dar su voz al personaje, de igual manera el trabajo fue limitado a 5 personas (cuatro personajes y el narrador) se hicieron las grabaciones de voz, obtención de efectos de sala, edición de audio que incluía: cortes de sonido, limpieza de ruidos, uniones de archivos de audio y ecualizadores, todo esto a través de softwares de los grupos Adobe Systems Incorporated® y Apple®. Una vez teniendo todos los recursos de digitales y de audio fue necesario realizar la indexación de los contenidos para así crear una carpeta de archivos y dar movimientos a los personajes para que al mismo tiempo estén sincronizados con los archivos de audio y los escenarios correspondientes, todo esto mediante funciones 2D Animation que se realizan en el software del grupo Unity Technologies®, debido al amplio tiempo de trabajo que lleva este proceso se ha logrado animar un fragmento pequeño de la animación durante el verano de investigación, se plantea que una vez teniendo todo concordado será necesario exportar la animación en un formato .mp4 para que así sea posible agregar los subtítulos en español, ingles y maya con el programa Aegisub®. Una vez que todos los trabajos estén concluidos y completamente sincronizados será necesario exportar la animación en todos los formatos de video disponibles para la mejor calidad posible, cuando todo el trabajo logre ser finalizado, el proyecto será llevado a una fase de prueba donde se busca obtener resultados más precisos con estadísticas del funcionamiento y eficiencia de la animación 2D, del cuento El pequeño y el gigante.


CONCLUSIONES

En el transcurso de la estancia del verano delfín se logró adquirir conocimientos teóricos y prácticos sobre el manejo de softwares dedicados a la creación de audio, imágenes, subtítulos y todo lo relacionado a la animación 2D. Al ser este un proyecto practico y de la creación de un método de aprendizaje de una lengua, sera necesario ponerlo a prueba con personas de comunidades maya hablantes, para que así sea posible crear un análisis estadístico donde se pueda evaluar la calidad de la animación, el nivel de enseñanza de la lengua maya y los aspectos principales tales como la gramática y la pronunciación que se muestran en la animación.
Carrasquero Cepeda Angel Gabriel, Instituto Politécnico Nacional
Asesor: Dr. Elliot Woolley , Loughborough University (Reino Unido - Inglaterra)

PROTOTIPO DETECTOR DE RESTOS DE MATERIAL ORGáNICO EN MAQUINARIAS INDUSTRIALES


PROTOTIPO DETECTOR DE RESTOS DE MATERIAL ORGáNICO EN MAQUINARIAS INDUSTRIALES

Carrasquero Cepeda Angel Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Elliot Woolley , Loughborough University (Reino Unido - Inglaterra)



PLANTEAMIENTO DEL PROBLEMA

En la industria alimenticia y farmecéutica actual se utilizan métodos prácticamente rudimentarios para detectar y localizar restos de materia orgánica en las maquinarias de producción. La importancia de la localización de estos restos orgánicos recae en el cuidado y la necesidad de higiene en campos tan cruciales, debido a que están relacionados directamente al cuidado humano. Por lo tanto, la creación de instrumentos y métodos capaces de facilitar y mejorar estas prácticas se convierten en un objetivo de suma importancia.  La tecnología desarrollada en este proyecto obtiene sus bases en los fundamento de fluorescencia, más centrado aún, en la flurescencia de la materia orgánica. Como es conocido, el Trifosfato de Adenosina (ATP) es una encima presente en toda materia orgánica que produce fluorescencia bajo los efectos de ciertas longitudes de onda. Hanciendo uso de este concepto, se desarrolló una maquinaria capaz de producir fluorescencia con luz ultravioleta y que fuera capaz de detectar la fluorescencia con ayuda de sensores de luminosidad (fotodiodos). La finalidad de este proyecto es el crear un prototipo que fuera capaz de detectar cualquier muestra orgánica, ya sea de gran tamaño o de escala imperceptible al ojo humano, remanente en las máquinas de proceso industrial utilizados por compañías farmacéuticas y alimenticias que hiciernan uso de material pesado; y que tuvieran como objetivo el reducir el personal necesario para detectar los remantentes así como los productos de limpieza utilizados para llegar a un estado de higiene óptimo, reduciendo así costos y gastos innecesarios de productos tan vitales como el agua.  Los componentes utilizados para probar este concepto son materiales disponibles en el mercado comercial, estos mismos se muestran en la lista a continuación: Arduino Mega 2560 como memoria electrónica para obtención y procesamiento de datos. LED Ultravioleta para producir la fluorescencia en la materia orgánica. Fotodiodos de alta sensibilidad para poder detectar las variaciones de lumninosidad que hacen posible la localización de material orgánico. Con propósitos de acercar el desarrollo en planos de evaluación realista, todas las pruebas fueron realizadas utilizando una banda transportadora industrial, y comparando los resultados obtenidos con los métodos de limpieza actuales.    



METODOLOGÍA

La metodología implementada se basa en los conceptos de investigación y aplicación de conocimientos, con registro contínuo de cambios y desarrollos aplicados al proyecto.  Bajo ese concepto se expresa que se dispuso de tiempo previo de investigación de temas relacionados al proyecto y entendimiento del funcionamiento del prototipo. En esta etapa también se establecen los objetivos periódicos de corto plazo y el objetivo general al culminar el proyecto. Una vez concluida la etapa de investigación, se procede a una etapa de pruebas preliminares en donde se probaron los conceptos de funcionalidad y la efectividad de trabajo para poder determinar los cambios y mejores a implementar. En este punto, se llevan a cabo investigaciones de nuevos conceptos determinados por la incorporación de aditamentos que facilitan la funcionalidad del prototipo, estando consiente de que con cada cambio implementado se realizan pruebas para verificar que el protipo sigue funcionando y que mejoró su capacidad de uso. Siempre se lleva a cabo un reconteo de objetivos logrados, en compañía del administrador a cargo del proyecto, para poder lograr un seguimiento correcto del trabajo. En la etapa final del proyecto, se marca una refencia sobre los objetivos alcanzados y la eficiencia que cumple el prototipo en condición a los requerimientos establecidos al inicio del proyecto.


CONCLUSIONES

Una vez que se pudo producir un primer prototipo que cumple con las especificaciones mínimas, se puede continuar con la mejora y desarrollo de prototipos que sean más fáciles de usar, accesibles y con una interpretación de resultados más sencilla para el usuario. La implementación de la tecnología descrita en el proyecto, marca un precedente capaz de actualizar los métodos modernos de detección; esto se sabe debido a que este tipo de desarrollos aún no han sido implementados por la industria, dejando un nuevo marco de referencia para la posteridad.
Carreon Chavez Jose Carlos, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

LA MOVILIDAD INTELIGENTE Y EL TRANSPORTE URBANO EN LOS AUTOBUSES ALIMENTADORES DE LA LÍNEA METROPOLITANA, LIMA PERÚ 2019


LA MOVILIDAD INTELIGENTE Y EL TRANSPORTE URBANO EN LOS AUTOBUSES ALIMENTADORES DE LA LÍNEA METROPOLITANA, LIMA PERÚ 2019

Carreon Chavez Jose Carlos, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

El sistema de transporte masivo en la ciudad de Lima-Perú es el Metropolitano, la cual, atraviesa la ciudad de zona sur (Distrito de Chorrillos) a zona norte (Distrito los Olivos), esta última, es la ubicación de la estación el naranjal donde es el tema de interés de la investigación. Tiene una afluencia de 81 800 pasajeros por día, siendo la estación más congestionada. Dicha estación  es un punto estratégico (nodo) puesto que conecta dentro de todo el sistema de transporte el servicio de autobuses alimentadores (translado de personas desde los distintos puntos de la zona norte del distrito de los Olivos)  a los autobuses troncales (autobuses que recorren las 37 estaciones del Metropolitano de norte a sur). Es la estación más grande y con mayor complicación de movilidad, ya que, la distribución de las instalaciones están separadas en los dos tipos de servicios, siendo en los extremos los autobuses de troncales y en el interior los autobuses alimentadores, separados de manera estructural, obligando a los usuarios finales a permanecer en un espacio limitado (embarque y desembarque). A través de sus trece (13) líneas internas de autobuses alimentadores que convergen en la estación, se ha identificado que durante las horas punta (7:00 a 9:00 am) los usuarios finales se movilizan hacia la zona sur de la ciudad, generando un congestionamiento masivo de aproximadamente 14,715 personas agravando aún más el problema, ya que la demanda de usuarios finales excede la capacidad de los espacios asignados de este servicio en un 200%. Dentro de la investigación se observa que los paraderos ubicados en la zona norte  (Carabayllo y Bertello) son los que trasladan mayor número de personas a la estación en un promedio de cuatrocientos setenta (470) personas cada 15 minutos, resultando en una hora 3755 personas. El sistema de solicitud de autobuses troncales para satisfacer la demanda de usuarios finales utilizado por el personal de protransporte es en gran medida deficiente y arriesgado, ya que, de manera presencial se toman las decisiones de líneas y autobuses requeridos y cualquier problema técnico o error humano puede incrementar aún más la congestión en la estación el naranjal, sumada a diferentes protestas y manifestaciones que  presentan la inconformidad y molestia de los usuarios finales, los cuales, exigen  un incremento de autobuses troncales y la construcción de nuevas estaciones, siendo de la misma posición para la administración de protransporte.



METODOLOGÍA

Para esta investigación se desarrolló un enfoque correlacional no experimental descriptivo y cuantitativo. A través de un muestreo de los días hábiles de la semana (Lunes a viernes) se realizó un conteo de los autobuses alimentadores que arriban a la estación el naranjal de (7:00 a 9:00 am) para conocer la línea a la que corresponden y la cantidad de personas que llegan en ellos, con esta información se desarrollo un análisis de demanda para posteriormente comprobar la hipótesis que suponía que la congestión es generada por los usuarios que arriban en los autobuses alimentadores y no por los troncales, con dicho análisis, se aplicó la ley de Pareto  y se determino que los paraderos ubicados en la zona norte  (Carabayllo y Bertello) son los que trasladan mayor número de personas a la estación en un promedio de cuatrocientos setenta (470) personas cada 15 minutos, resultando en una hora 3755 personas, una vez identificadas, se establecieron las estaciones( no necesariamente la estación el naranjal) a las que los autobuses alimentadores llegarían directamente como las rutas para llegar a estas y su retorno inmediato a la estación el naranjal. A su vez, con otro tipo de muestreo se realizó un conteo de los autobuses troncales que arriban a la estación el naranjal de (7:00 a 9 am) para conocer la demanda y seleccionar estratégicamente los autobuses que se destinarían para satisfacer la movilidad de los usuarios finales transportados a las otras estaciones. Por último, se desarrollo un planteamiento de la cantidad de personas que usan actualmente y otras que usarían de manera eficiente la estación, determinando de manera comparativa eficiente y eficaz los beneficios en la reducción de la congestión de usuarios finales.


CONCLUSIONES

Se rediseñara la logística de llegada de las líneas de alimentadores (Carabayllo y Bertello) en  un horario de (7:00 a 9:00 am), llegando a las estaciones Izaguirre, Pacífico y Tomás Valle respectivamente. En estación Izaguirre, se destinará el soporte del troncal expreso 2 para los 2020 usuarios movilizados por el alimentador Carabayllo a una frecuencia de 4 minutos. Para la estación Pacífico se brindará el soporte del troncal A para movilizar a los usuarios a la estación Tomás valle, donde de igual manera se tendrá el soporte del expreso 2 para los 1735 usuarios del alimentador Bertello a una frecuencia de 5 minutos. Los autobuses alimentadores transportarán a los usuarios a las estaciones ya mencionadas por la vía pública, retornando a la estación naranjal por avenidas estratégicas. Esto contribuirá al descongestionamiento de 3,755 personas diarias, representado por el 26% de los usuarios finales en estación naranjal. Así mismo, se desarrollará una aplicación para el departamento de operaciones de protransporte, la cual monitoreara de manera automática y en tiempo real  los autobuses alimentadores que se dirigen a las estaciones de soporte para enviar los troncales evitando la congestion en las estaciones contribuyendo a una movilidad inteligente. Desde la construcción y planificación de este sistema de transporte la cantidad de usuarios finales  ha crecido exponencialmente, determinando una  implementación de nuevas estrategias basadas en los estudios de esta investigación.
Carreón Rodríguez María Isabel, Instituto Tecnológico de Culiacán
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

LOGíSTICA INVERSA EN EMPRESAS DEL SECTOR MANUFACTURERO AGRíCOLA DEL MUNICIPIO DE AHOME. PLANTEAMIENTO DE UN MODELO.


LOGíSTICA INVERSA EN EMPRESAS DEL SECTOR MANUFACTURERO AGRíCOLA DEL MUNICIPIO DE AHOME. PLANTEAMIENTO DE UN MODELO.

Carreón Rodríguez María Isabel, Instituto Tecnológico de Culiacán. López Díaz Victoria, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la principal actividad económica en el estado de Sinaloa es la industria de manufactura agrícola. De acuerdo con información generada por el Sistema de Información Agroalimentaria y Pesquera, organismo dependiente de SAGARPA (ahora SADER), en el año 2017, Sinaloa cultivó 1 millón 149 mil 320 hectáreas, las cuales produjeron 12 millones 165 mil 950 toneladas de alimentos con un valor de producción de 48 mil 448 millones de pesos. A su vez para la producción de estos cultivos se involucró el uso de maquinaria agrícola, la cual al final de su vida útil no se le dio una disposición adecuada, desaprovechando así el valor que se puede recuperar. En consecuencia, se generaron una gran cantidad de residuos los cuales algunas empresas no llevan a cabo acciones para su manejo y control. Por lo que no hay una disposición adecuada de los desechos generados y en la mayoría de los casos tienen como destino final vertederos ocasionando un deterioro al medio ambiente. Por tales razones, es necesario la implementación de un modelo de logística inversa que incorpore a la empresa actividades y procesos sustentables que incluyan el correcto manejo y control de los productos y residuos generados una vez finalizada su vida útil. Se pretende que la implementación de un modelo de logística inversa ayudará a las empresas a realizar correctamente el retorno de los productos y residuos y que a su vez se reduzca el impacto ambiental generado.



METODOLOGÍA

La presente investigación es de carácter teórico, en la que se tomó como referencia artículos e informes de divulgación científica publicados en las bases de datos Ebsco, Redalyc, Scielo, Google Académico y Worldwidescience, así como libros de texto disponibles en la biblioteca de la Universidad Autónoma de Occidente Unidad Regional Los Mochis. El período de tiempo de consulta fue de 2000 a 2019, en los cuales se lograron conseguir 20 artículos relacionados a la logística inversa y su gestión en las empresas de manufactura agrícola. La investigación teórica abarca los temas de logística y logística inversa, los cuales fueron de utilidad para la elaboración de un modelo de logística inversa. Además, se analizó la clasificación de los residuos y su disposición final. La investigación está orientada a las empresas de manufactura agrícola del municipio de Ahome, que según el Directorio Estadístico Nacional de Unidades Económicas (DENUE), se encuentran: Molinos Siglo XX Procesos Industriales Mochis, S.A. de C.V. Fundidora de Los Mochis Industrial Agrícola Industrial Vazquez S.A. de C.V. Iosa de Los Mochis JAR Maquinaria para papas Blanchet Mecanizaciones y Proyectos S.A. de C.V. Reconstrucciones Agrícolas Gaxiola Servicios de Fundición de Los Mochis Taller Agrícola El Carrizo Taller de Torno Agrícola Industrial Díaz Taller Unión de Los Mochis, S.A. de C.V.  


CONCLUSIONES

Actualmente, es innegable la estrecha relación que existe relación entre los procesos de una empresa y el impacto que éstos generan al medio ambiente.  Por tal razón, las empresas a nivel internacional han comenzado a comprometerse directamente como agentes de la sociedad con el cuidado y la preservación del medio ambiente diseñando estrategias, procesos y productos sustentables.  Sin embargo, a nivel nacional, y en el estado de Sinaloa en particular, las empresas aún no se comprometen a llevar a cabo prácticas sustentables, ya sea por no estar informados o por falta de interés en la implementación de la logística inversa. Además, las legislaciones y la normatividad relacionada con la logística inversa en México no exigen a las empresas en general gestionar y controlar su impacto al medio ambiente. El sector con mayor impacto al medio ambiente en el estado de Sinaloa es el de manufactura agrícola y, por tanto, es necesario implementar un modelo de logística inversa que se adapte a las actividades y necesidades de las de forma que se reduzcan los residuos generados de sus procesos. Ante un mercado cada vez más exigente la logística inversa proporciona a las empresas una ventaja competitiva que beneficia no sólo a nivel económico, sino también a nivel social y ambiental. Se pretende que el modelo propuesto sea de utilidad para futuras investigaciones relacionadas y para la implementación y análisis de la logística inversa en las empresas de la región.
Carrera Balbuena Jose Carlos, Instituto Politécnico Nacional
Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico

ESTUDIOS SOBRE FATIGA EN MATERIALES METáLICOS NO FERROSOS.


ESTUDIOS SOBRE FATIGA EN MATERIALES METáLICOS NO FERROSOS.

Carrera Balbuena Jose Carlos, Instituto Politécnico Nacional. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

Se ha constatado que los materiales se rompen con mayor facilidad bajo la acción de cargas variables que bajo la acción de cargas constantes. Cuando los materiales se someten a esfuerzos se producen grietas superficiales que se nuclean en las esquinas de los granos cristalográficos; estas grietas crecen al paso de los ciclos hasta que ocurre el desprendimiento de material. A este fenómeno se le conoce comúnmente como fatiga. La mecánica de fractura estudia el crecimiento de grietas a cargas estáticas o dinámicas. Existen modelos que estudian las grietas a causa de la fatiga, el problema de estos modelos es que son ambiguos y se centran en el crecimiento de grietas en la tercera etapa conocida como grieta inestable. Además, estos modelos sólo consideran el crecimiento de grietas después del 80% de vida en los materiales.    



METODOLOGÍA

El material a utilizar es una aleación de Aluminio 6061-T6 su composiciones químicas, físicas y mecánicas se pueden consultar en tablas. La designación del nombre de la aleación está determinada por norma, donde el primer dígito de la nomenclatura del aluminio designa los componentes principales de la aleación; en este caso es el silicio y el magnesio con un porcentaje de 0.8 a 1.2%. También determina el proceso de fabricación que es forjado; el segundo dígito determina la variación de la aleación inicial, tercero y cuarto las variaciones individuales de la aleación, después de los cuatro dígitos si tiene una letra y un número designado, éste determina que tiene un tratamiento térmico o endurecido el cual, en este caso tiene un T6 que quiere decir que está tratado por solución y un envejecido artificial. Las dimensiones y geometría de las probetas están estandarizadas bajo la norma ASTM E 466-96, las cuales tienen una sección transversal circular. Se propone utilizar un diámetro para la sección de prueba de D=0.25 (6.35 mm), el diámetro de la sección de sujeción 2D= 0.5 (12.7 mm) el radio de curvatura 8D=2’’ (50.8 mm) y una longitud de la probeta de 16D=4’’ (101.6 mm). La norma ISO 12107:2003 recomienda 7 probetas por nivel de carga para pruebas de fatiga en laboratorio, con un nivel de confianza del 50% y una probabilidad de falla de 10%. La norma ASTM E739-10 y recomienda utilizar entre 6 y 12 probetas por nivel de carga, para pruebas de investigación en probetas y desarrollo de componentes. Sin embargo en esta investigación únicamente se utilizaron 2 probetas ya que la finalidad era observar el ensayo de fatiga en la máquina de Moore y contar el número de ciclos en un determinado tiempo. La máquina de fatiga utilizada para las pruebas es un modelo basado en la máquina de Moore, la cual replica cargas flexionantes de amplitud constante para probetas normalizadas. Algunas características de la máquina son: el acoplamiento motor-eje es de tipo cruceta de caucho, el motor tiene una velocidad nominal de 1740 rpm y 1⁄2 HP, la estructura es de aluminio estructural y cuenta con un contador de ciclos infrarrojo modelo TCRT5000 controlado con Arduino de manera simulada con el programa Proteus. La sujeción de probetas pueden ser desde 1-13 mm de diámetro y la frecuencia de carga para las probeta está limitado por la velocidad de operación del motor.  La máquina de fatiga está constituida por dos chumaceras de apoyo a los extremos y dos chumaceras tensoras que son las que infringen la carga generando un esfuerzo por flexión sobre la probeta, mientras que un motor hace rotar la probeta.


CONCLUSIONES

En la presente investigación se realizaron ensayos de fatiga de amplitud constante por flexión rotatoria a probetas de aluminio 6061-T6. El objetivo era visualizar el ensayo de fatiga rotatoria con respecto del tiempo de vida y el número de ciclos en la aleación de aluminio. Las pruebas se realizaron en un banco de pruebas que se diseñó y construyó por un ex alumno del Cenidet. El banco de pruebas produce flexión rotativa a una velocidad de 1740 rpm.
Carrillo Gutiérrez Daniela María, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: M.C. Jorge Alfredo Huerta Balcázar, Universidad Michoacana de San Nicolás de Hidalgo

ESQUEMAS DE INTERCONEXIóN DE SISTEMAS DE GENERACIóN EóLICA Y FACTORES QUE DETERMINAN SU UTILIZACIóN


ESQUEMAS DE INTERCONEXIóN DE SISTEMAS DE GENERACIóN EóLICA Y FACTORES QUE DETERMINAN SU UTILIZACIóN

Carrillo Gutiérrez Daniela María, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: M.C. Jorge Alfredo Huerta Balcázar, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Conocer y comprender los tipos de esquemas de interconexión de parques eólicos que se utilizan y los factores que determinan su aplicación.



METODOLOGÍA

Esquemas de Interconexión de Sistemas Eólicos.   Tipologías de generación eólica Velocidad Fija: Ventaja: Es de configuración simple, es robusto y cuenta con una buena fiabilidad, aparte de ser económicos. Están diseñados para alcanzar la mayor eficiencia aerodinámica para un amplio rango de velocidades de viento, aumentando la potencia generada. Desventaja: Tiene un consumo incontrolable de potencia reactiva y la energía generada no cuenta con ser de la mejor calidad gracias a las fluctuaciones de tensión causadas por las fluctuaciones mecánicas en el par mecánico transmitidas por las fluctuaciones de velocidad del viento. Máquina asíncrona doblemente alimentada (MADA): Ventaja: Se logra controlar la potencia activa y reactiva con bajos niveles de armónicos en el generador y en la interconexión a la red eléctrica, entrega a la red una potencia superior a la nominal de la máquina de funcionamiento supersíncrono; es económicamente viable gracias a su tamaño del convertidor. Desventaja: Usa escobillas y se tiene la necesidad de protección adicional en caso de falla en la red; son incapaces de resolver directamente los huecos de tensión, esto los obligar a disponer de un crowbar activo. Full Converter: El generador es conectado a la red a través de un convertidor de potencia que tiene como prioridad variar la frecuencia de la potencia generada de forma que sea equivalente a la de la red. Normalmente emplean generadores síncronos, otra alternativa a esta serían los generadores de jaula de ardilla, y existen de distintos tipos. Esquemas para Sistemas OffShore.  Plantas eólicas offshore cuestan más de instalar y operar dado a su dificultad de acceso y la continua necesidad desde la orilla, siendo así que, los beneficios de una velocidad alta comparado a la velocidad en tierra en parque eólicos justifican el costo adicional, siendo sus mayores ventajas: Torres altas pueden ser usadas en agua, que mejora el rendimiento de energía anual por las altas temperaturas. Se genera una potencia de mejor calidad. Menos pulsaciones de potencia, que también prolongan la vida de la cuchilla. Desventajas: Profundidad marina Altos costos de operación y construcción. Altos costos de conexión a la red. Las plantas eólicas requieren una conexión eléctrica, ya sea AC o dc de la orilla a la red. Las conexiones en AC requieren una sincronización de operación a la red.  Control de voltaje rápido (fast voltaje control) es necesario para mantener la estabilidad del sistema bajo todas las posibles fallas en la red y en el parque eólico. La mayoría de los parques eólicos transmiten su energía en AC, sin embargo, los cables AC en el agua tienen una alta capacidad VAR, que debe ser compensado por el parque eólico, esa compensación en los VAR tiene un costo adicional, perdidas de energía, y una complejidad, particularmente cuando las conexiones AC están lejos de las instalaciones a la orilla.    Para grandes índices de MW y largas distancias de transimsion, la conexión en AC tiene las siguientes desventajas. Pérdidas significativas de potencia. Se requiere la compensación de kVAR en los dos extremos del cable, usando un condensador síncrono o un compensador de potencia estática en kVA. La capacidad del cable es limitada. El HVDC (High Voltage dc) puede eliminar esas desventajas. Reduce significativamente la contribución de la corriente de falla a la red terrestre. Ventajas de conexiones en CD. No hay limitaciones en la distancia de transmisión. No se necesita manjar problemas de estabilidad de sincronización. Más potencia de transmisión en MW por kilogramo de conducción. Posibilita el uso de regreso a tierra, guardando uno del conductor. Posibilidad de limitar la corriente de cortocircuito. Tipos de HVDC Convencional o LCC: Su principal característica principal radica en que sus convertidores de potencia se basan en semiconductores tales como los tiristores o SCR; maneja alta potencia. HVDC-VSC: Está basada en convertidores de potencia con topología VSC con semiconductores de potencia tipo IGBT, sus características ventajosas son: Capacidad de conmutar a altas frecuencias, teniendo una respuesta dinámica rápida, reduciendo los armónicos y abaranto el proceso de filtrado. Tiene un control independiente de la potencia activa y reactiva. Pueden modular señales de tensión trifásicas como si fueran un generador (Black Start). La integración con redes de AC permite aumentar su estabilidad y la capacidad de transmisión. Sus desventajas son: Altas perdidas, debido a las altas frecuencias de conmutación. Problemas de interferencia electromagnética y compatibilidad electromagnética. Los cables empleados deben ser especiales. Principales Factores  Factor de Capital -Costoso -Económico Factor de emplazamiento -Tierra -Offshore (Nearshore/Far Shore) ​Factor de la calidad de la energía Factor de optimización Factor de enlace Cuestiones Meteorológicas ​Factores Políticos/Ambientales


CONCLUSIONES

Los principales factores que determina la utilización de una topología a otra son muy diversos, ya sea por la ubicación geográfica, por las cuestiones meteorológicas, el ambiente, el contexto social el presupuesto y el potencial eléctrico que se planee generar.  Se deben de tener consideraciones al plantear los proyectos, tener en cuenta las diferentes tecnologías, ya sea empleando el HVDC o el HVAC más óptimo para la situación en cuestión, y la tipología adecuada para una óptima generación de energía dependiendo el potencial que se piense tener, teniendo en cuenta sus ventajas y desventajas tomando en cuenta en futuras planeaciones de proyectos, dependiendo el contexto y el lugar en el que se puedan emplear.
Carrillo Serrano Arturo, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

DISEñO E IMPLEMENTACIóN DE DISPOSITIVO MECATRóNICO PARA MOVIMIENTO DE PLATINA DE MICROSCOPIO EN DOS GRADOS DE LIBERTAD


DISEñO E IMPLEMENTACIóN DE DISPOSITIVO MECATRóNICO PARA MOVIMIENTO DE PLATINA DE MICROSCOPIO EN DOS GRADOS DE LIBERTAD

Carrillo Serrano Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El microscopio es un aparato de vital importancia para diversas áreas del conocimiento, sobre todo en el área de ciencias naturales, a lo largo de la historia la microscopía ha evolucionado a pasos agigantados. Sin embargo, el realizar el algunas tareas con un microscopio convencional, cómo el barrido para un conteo de células o esporas puede llegar a ser desgastante y tedioso, además de que consume una gran cantidad de tiempo, ya que los movimientos que se requieren para posicionar la platina, son muy delicados para no perder el orden al realizar lo barridos antes mencionados. Es por ello por lo que la implementación de un dispositivo que permita el posicionamiento y barrido de la platina de manera motorizada presenta una opción adecuada para mejorar la experiencia con el uso de un microscopio.



METODOLOGÍA

El diseño de este dispositivo se puede seccionar en dos partes: el diseño mecánico y la configuración de software, hardware y electrónica. Para el diseño mecánico se procedió a tomarle medidas al microscopio, para poder comenzar a trabajar en diseño CAD, para la estructura siempre se contempló el uso de motores de pasos unipolares, un grado libertad es acoplado de manera directa mientras que el otro es generado por una correa dentada acoplada en el tornillo de la platina. La estructura fue diseñada para cortarse en placas de acrílico de 6 mm de espesor, con el objetivo de que sea fácil de ensamblarse y replicarse. Para la segunda parte que hace referencia a la configuración de software, hardware y electrónica. Se utilizó como controlador una tarjeta de adquisición de datos Arduino que a través de controladores A4988 se encarga de enviar la combinación de pulsos para que los motores realicen los movimientos deseados. Con respecto al software se utilizó una interfaz de usuario de fuente libre diseñada en Java de nombre Universal GCode Sender. En cuanto a la implantación se comenzó por verificar el correcto funcionamiento de los motores, y se comprobó que el control a lazo abierto efectuado por usuario no presentara inconvenientes. Por último, se pretende ensamblar y acoplar todo el dispositivo para hacer pruebas de funcionamiento y exponer resultados.


CONCLUSIONES

En esta estancia de investigación se logró adquirir conocimientos relacionados a la microscopia, además de que pudieron aplicar conocimientos del área de ingeniería que tiene como objetivo mejorar la experiencia de profesionales que utilicen el microscopio.
Carrillo Uc David Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez

PROCESAMIENTO Y RECONOCIMIENTO DE NúMEROS Y SíMBOLOS MATEMáTICOS CON REDES NEURONALES CONVOLUCIONALES


PROCESAMIENTO Y RECONOCIMIENTO DE NúMEROS Y SíMBOLOS MATEMáTICOS CON REDES NEURONALES CONVOLUCIONALES

Carrillo Uc David Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El reconocimiento de imágenes es en general un proceso complejo que requiere una serie de pasos que sucesivamente transforman los datos icónicos a información que la computadora puede reconocer. El reconocimiento de imágenes  (caracteres, símbolos y dígitos manuscritos) es un problema que no se ha resuelto hasta hoy. La principal problemática que se pudo detectar fue que para realizar el reconocimiento de imágenes se requiere una gran cantidad de muestras, al igual que una computadora con un buen rendimiento para que se obtengan los resultados deseados.



METODOLOGÍA

Se comenzó realizando la captura de las ecuaciones mediante la cámara de un dispositivo móvil. Seguidamente, se recortó cada ecuación por separado. Después, cada ecuación obtenida se almacenó y clasificó en tres categorías: ecuaciones básicas, ecuaciones normales y ecuaciones avanzadas. Cada categoría contaba con una serie de parámetros y condiciones con las cuales se pueden identificar en cual categoría correspondía cada ecuación. Con cada ecuación obtenida por separado se procedió a extraer cada dígito y símbolo. Se utilizó el programa de paint.net para realizar el recorte y la extracción de cada dígito y símbolo. Una vez obtenidos todos los dígitos y símbolos se creo una carpeta para cada elemento separando así dígitos y símbolos. Una vez que se terminó la extraccion de los elementos y de almacenarlos, se utilizó el programa de Matlab para aplicar una serie de filtros a las imágenes obtenidas. Matlab almacena las imágenes como vectores bidimensionales (matrices), en el que cada elemento de la matriz corresponde a un sólo píxel. Trabajar con imágenes en Matlab es equivalente a trabajar con el tipo de dato matriz. El primer comando que se empleó en Matlab fue para la lectura de ficheros de imágenes (imread()). El segundo comando que se empleó fue para convertir una imagen rgb o colores a escala de grises (rgb2gray()). El tercer comando que se empleó fue para convertir una imagen en escala de gris a una imagen binaria, basada en umbral (im2bw()). Opcionalmente, en este punto se puede emplear el comando para visualizar una imagen (imshow()). Por último, se empleó el comando para escribir una imagen en un archivo de gráficos que se especifique ya sea jpeg, png o tiff (imwrite()). Con la aplicación de todos los comandos anteriores se paso de una imagen a color a una imagen en blanco y negro. Posterirmente, se realizó el reconocimiento de imágenes en Matlab. Para el reconocimiento de imágenes se utilizó un ejemplo básico de una red neuronal convolucional. Se realizaron pruebas con tres bases de datos de imágenes, se utilizaron 1000 imágenes de MNIST (original y modificada), al igual que una propia con 931 imágenes.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimiento teóricos básicos sobre las redes neuronales convolucionales y ponerlos en práctica con la creación de una base de datos de 931 imágenes. Se realizaron pruebas con la base de datos creada y haciendo uso de un ejemplo básico de una red neuronal convolucional, se procedió a entrenar la red con la base de datos, con la cual se obtuvieron buenos resultados en el entrenamiento y validación de la red, con variaciones entre el 90-98%.
Carvajal Huerta Martha Melissa, Universidad Autónoma de Nayarit
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

REMOCIÓN DE NAPROXENO EN SOLUCIÓN ACUOSA EMPLEANDO UN CARBONIZADO DE HUESO COMO ADSORBENTE


REMOCIÓN DE NAPROXENO EN SOLUCIÓN ACUOSA EMPLEANDO UN CARBONIZADO DE HUESO COMO ADSORBENTE

Carvajal Huerta Martha Melissa, Universidad Autónoma de Nayarit. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

El uso prolongado de productos farmacéuticos y la contaminación de aguas subterráneas y superficiales con estos medicamentos es un problema ambiental relevante que en los últimos años ha ido en aumento. Las principales vías de contaminación con dichos fármacos están relacionadas con el consumo, la excreción de fármacos, metabolitos en orina y heces y también con la eliminación inadecuada o insuficiente de los medicamentos caducados o no consumidos. Específicamente, el naproxeno es un miembro del grupo del ácido arilacético que exhibe efectos antiinflamatorios y analgésicos en tratamientos médicos. Sin embargo, este fármaco es considerado como un contaminante emergente del agua con un alto riesgo ambiental. Bajo este contexto, se han desarrollado nuevas técnicas analíticas y procesos que ayudan a la eliminación de contaminantes emergentes del agua. En particular, el proceso de adsorción ha sido ampliamente usado debido a que es de fácil operación, bajo costo y tiene un alto grado de eficiencia. Adicionalmente, el uso de un adsorbente adecuado para llevar a cabo este proceso es importante, por lo que uno de los adsorbentes más populares es el carbón activado, debido a sus propiedades, físico-químicas y estructurales que permiten que su uso sea considerado viable, además de que puede obtenerse a partir de residuos agroindustriales. Por lo tanto, debido a que la mayor problemática que se presenta en la contaminación por fármacos en agua ha sido poco estudiada, el presente trabajo reporta la evaluación del carbonizado de hueso de fémur como adsorbente en la remoción de naproxeno en solución acuosa.



METODOLOGÍA

La evaluación de los adsorbentes de fémur de res se realizó con adsorbentes previamente sintetizados a diferentes condiciones, las cuales fueron 500 - 800 °C y 2 - 5 h de temperatura y tiempo de pirólisis, respectivamente, bajo una atmósfera de N2. Los experimentos de adsorción se realizaron utilizando las siguientes condiciones: 0.02 g de cada adsorbente, concentración de naproxeno de 250 mg/L, pH 7 y agitación constante a 120 rpm y 30 °C durante 24 h. Todos los experimentos se realizaron por triplicado.   Posteriormente, mediante Cromatografía de Líquidos de Alta Eficiencia (HPLC) se cuantificó la concentración de naproxeno y se calculó la capacidad de adsorción con la siguiente ecuación: q = (Ci - Ce)V / m donde Ci y Ce son la concentración inicial y en equilibrio del naproxeno en mg/L, V es el volumen de la solución en L y m es la cantidad en g del adsorbente evaluado.    


CONCLUSIONES

Los resultados mostraron que los adsorbentes que tienen mayor capacidad de adsorción de naproxeno corresponden a los que se sintetizaron a 800 °C, obteniendo una capacidad de adsorción entre 12 y 14 mg/g. Así mismo se puede observar, que conforme aumenta la temperatura de síntesis de los adsorbentes, la capacidad de adsorción también lo hace, sin embargo, el tiempo de síntesis no es un factor determinante en el proceso de adsorción. Por lo tanto, se observó que la ruta de síntesis de los adsorbentes es importante, ya que la capacidad de adsorción de los carbones es dependiente de este proceso. En general, el uso de fémur de res como precursor de carbón activado es considerado una alternativa atractiva ya que se considera como un material de desecho y posee propiedades que favorecen la remoción de naproxeno.    
Casares Hernández Humberto, Universidad Autónoma de Guerrero
Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

SISTEMA GESTOR PARA MONITOREO DE LA FUERZA DACTILAR


SISTEMA GESTOR PARA MONITOREO DE LA FUERZA DACTILAR

Casares Hernández Humberto, Universidad Autónoma de Guerrero. Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las manos son una extremidad sumamente importante para las personas, con ellas se pueden sostener objetos y por ende completar diversas actividades en la vida cotidiana y en el campo laboral. Son la parte del cuerpo más utilizadas para actividades finas y tienden a fracturarse con facilidad, tanto así, que es una de las lesiones más frecuentes, 26 por ciento de accidentes laborales son en muñecas y manos. En 2016, en los hospitales de la red hospitalaria del Gobierno de la CDMX, se tuvo un registro de mil 871 egresos hospitalarios por traumatismos de muñeca y mano. Llevar un control de tantas personas en hospitales públicos es un trabajo que consume mucho tiempo, porque aún no se migra completamente a un expediente electrónico. Por ello se plantea desarrollar un sistema que sea capaz de gestionar la información para el evaluador al momento de capturar y registrar pacientes para la rehabilitación de mano. El sistema anterior propone sensores de fuerza FlexiForce con amplificador y filtro pasa bajas para enviar la señal a una tarjeta de adquisición de datos NI myRIO®, que es altamente especializada y por lo tanto su costo es elevado. La tarjeta envía esas señales a un sistema hecho en LabVIEW®. Pero el aplicador de las pruebas tiene que hacer por separado la aplicación de los cuestionarios en papel, y consultar la información fuera de línea. Por ello, se requiere incluir una herramienta para la gestión de los cuestionarios, sus resultados, así como hacer una versión que use sistemas más económicos de registro.



METODOLOGÍA

Para mejorar lo anterior se creó un circuito parecido, la propuesta considera un circuito filtro pasabajas de primer orden con amplificación dependiente de la impedancia asociada al sensor, propuesto en el datasheet del sensor de fuerza y con un Filtro Pasabaja Pasivo AntiAlias para ser adquirido a una frecuencia de 5Hz, y así medir la fuerza que tiene el paciente en sus dedos o manos. Para la adquisición de datos se usó una tarjeta USB-6009 (NI, USA) en lugar de la NI myRIO® debido a que es mucho más económica.  Se diseñó una base de datos relacional en MySQL para manipular la información de una mejor manera. Al final, el sistema es capaz de agregar N cantidad de evaluadores, pacientes y pruebas. El programa inicia con un login de evaluador, en el cual se puede ingresar o crear una cuenta nueva. Dentro del menú del evaluador se tienen las opciones de agregar o eliminar pacientes, aplicar el cuestionario QuickDash digitalizado, realizar pruebas de fuerza con monitoreo en tiempo real, y también consultar los resultados previamente registrados.


CONCLUSIONES

En esta estancia se abordaron dos ámbitos, el programar en LabVIEW, una herramienta de prototipado rápido que se usa ampliamente en la industria para diseño en electrónica y sistemas completos donde se integra la parte de hardware y software. Al final se hicieron dos versiones, una para uso general del sistema de monitoreo en rehabilitación y otro para medir la intensidad del estímulo en un protocolo de evaluación de dolor. Ambas versiones están funcionales y permitirán manejar la información tanto de los cuestionarios como de los archivos de medición de los sensores utilizando la misma herramienta.
Casillas Camacho Geovanni, Instituto Tecnológico de Toluca
Asesor: Dr. Miguel Urrestarazu Gavilán, Universidad de Almería (España)

MEJORAMIENTO DE SISTEMA DE FERTIRRIGACIÓN AUTOMATIZADA EN CULTIVOS SIN SUELO MEDIANTE UN CONTROL PID POR ORDENADOR


MEJORAMIENTO DE SISTEMA DE FERTIRRIGACIÓN AUTOMATIZADA EN CULTIVOS SIN SUELO MEDIANTE UN CONTROL PID POR ORDENADOR

Casillas Camacho Geovanni, Instituto Tecnológico de Toluca. Leal Bustamante Jetro Manases, Universidad Autónoma del Estado de México. Asesor: Dr. Miguel Urrestarazu Gavilán, Universidad de Almería (España)



PLANTEAMIENTO DEL PROBLEMA

  La fertirrigación es una técnica que permite la aplicación simultánea de agua y fertilizantes a través del sistema de riego, aportando al suelo o sustrato los nutrientes que se necesiten para el cultivo (IEP invernaderos, 2017). Estos sistemas permiten distribuir el agua en la ubicación, cantidad, frecuencia y horario requeridos, generalmente utilizando un sistema automatizado. Una función de suma importancia en un sistema automatizado es la posibilidad de realizar controles, con el fin de identificar las características a la entrada y salida para establecer una corrección manual o automática (Martínez, 2013). Estas características en sistemas de fertirrigación son dadas por el potencial de hidrogeno (pH), conductividad eléctrica (Ce), Concentración de Nutrientes, volumen y temperatura del agua alimentada al cultivo.   Un sistema de fertirrigación automática es una de las opciones más cómodas y productivas para regar, permite ahorrar tiempo y garantiza que los cultivos se mantengan en condiciones óptimas. Algunas ventajas y desventajas que menciona Jiménez (2014) son:   Ventajas Reduce el tiempo invertido en los trabajos para el mantenimiento del cultivo A través del controlador es posible ajustar frecuencias, tiempos y horarios independientes para cada circuito de riego Los nutrientes son aplicados en forma exacta y uniforme, sólo al área humedecida, donde se concentran las raíces. Existe un mejor control de la dosis de nutrientes, reduciendo el potencial de toxicidad al cultivo y, por ende, los costos. Permite aplicar los nutrientes en cualquier etapa del cultivo. Reduce los costos de mano de obra y aumenta la eficiencia del fertilizante. Permite adecuar la cantidad y la concentración de los nutrientes de acuerdo con su demanda, durante las diferentes etapas de crecimiento del cultivo. Incrementa los rendimientos, la calidad e inocuidad del producto final. Reduce el potencial de contaminación de aguas subterráneas por lixiviación de fertilizantes.   Desventajas Alto costo inicial de la infraestructura. Inicialmente se requiere personal especializado o capacitado y conocimiento técnico. Mantenimiento continúo para evitar la obstrucción.      



METODOLOGÍA

  Para realizar la inspección del sistema e identificar el fallo en el funcionamiento, es necesaria la identificación de la estructura y conocer cómo trabaja dicho sistema.   Los procesos de fertirrigación automatizada trabajan con un procesador que controla sensores de pH, Ce y Caudal de entrada y salida (Zubelzu, 2019). Los sensores están destinados a medir las características de una mezcla que se produce a través de 4 tanques, los cuales son: Tanque 1 y 2: Macronutrientes Tanque 3: Ácido Nítrico al 0.1 N Tanque 4: Agua proveniente de filtración   La mezcla y control se realiza de manera continua, de tal forma que en la misma tubería se mezclan los componentes. En la salida se instalan los sensores para realizar el control y corrección en caso de haberla (Raghuwanshi N.S, 2013).   El proceso descrito anteriormente se repite de forma continua mientras se realiza el riego. Esta estructura de control es llamada de retroalimentación o Feedback control, es una estructura muy eficaz para sistemas continuos, ya que siempre está verificando la salida y en función de ella establece acciones correctivas en la entrada (Franklin et al., 2002).   En el procesador fue instalada una pantalla LED, la cual permite realizar la programación directa del riego mediante una interfaz fácilmente reconocible, sin embargo, un tanto incomoda a la hora de establecer las condiciones de salida del agua de riego.   Una vez entendido el funcionamiento se procedió a identificar los problemas, encontrando como mayor inconveniente la incomodidad de la pantalla LED para programar las características de salida del agua.   A continuación, se propone realizar el control por medio de un ordenador que se encuentra en una bodega a 15 metros del invernadero (lugar donde se encuentra el sistema de irrigación automática), ya que de esta manera será más fácil la manipulación de la intefaz, el riego, tiempo y variables.   Para ello fue conectado un puerto serial desde el procesador hasta el puerto COM4 del ordenador, con el fin de establecer una comunicación entre el sistema de fertirrigación y el ordenador principal. La conexión se encuentra de forma subterránea para evitar un riesgo de desconexión y deterioro. Una vez definida la forma de comunicación se procede a realizar la reprogramación de Arduino para verificar el buen funcionamiento de electroválvulas, sensores y bombas, así mismo, se realiza para establecer una compatibilidad entre el procesador y la nueva interfaz de ordenador.   El diseño de la interfaz para ordenador se presenta de una forma más cómoda para la vista. El personal entra a la interfaz con un usuario y contraseña, posteriormente, se accede a la pantalla principal donde se observa una cantidad de 20 bancos de riego editables para programar simultáneamente varios riegos en diferentes ubicaciones. Accediendo a cualquier programa se muestra una pantalla que permite el control a tiempo real de ubicación, cantidad, frecuencia, horario, pH y Ce.   La interfaz también permite recopilar datos en tiempo real de riego y estadísticas de las diferentes variables mediante gráficos. Así mismo, en todo momento se muestra un recuadro que indica si el programa que está editando el personal se encuentra activo o inactivo.    


CONCLUSIONES

  A partir de lo descrito en la metodología, se puede concluir que, con la implementación del control por ordenador se redujo de gran manera la incomodidad del personal.   La reprogramación del Arduino e interconexión con un ordenador permitió la programación de una mayor cantidad de programas simultáneos, ya que fue ampliado el rango de 10 que anteriormente podían ser ejecutados en la pantalla LED, a 20 que ahora son posibles con la nueva interfaz.   El control, el monitoreo en tiempo real y la presentación de un resumen de salida, genera una gran ventaja en la reducción de errores humanos a la hora de programar las variables de salida del agua de riego e identificar anomalías en las características del agua de riego.  
Castañeda Lopez Emmanuel, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Eddie López Honorato, Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE LAS PROPIEDADES DE MEMBRANAS DE óXIDO DE GRAFENO CON DIFERENTES GRADOS DE OXIDACIóN PARA SU USO EN MEDIO ACUOSO


ESTUDIO DE LAS PROPIEDADES DE MEMBRANAS DE óXIDO DE GRAFENO CON DIFERENTES GRADOS DE OXIDACIóN PARA SU USO EN MEDIO ACUOSO

Castañeda Lopez Emmanuel, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Eddie López Honorato, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La tecnología de membranas en la actualidad esta tomando auge por sus diferentes campos de aplicación; principalmente en la separación de contaminantes, el óxido de grafeno a tomado importancia en dicha área. Sin embargo, existen diversas áreas de oportunidad respecto a la variación del grado de oxidación del material. Por eso es de suma importancia, cuantificar y determinar las propiedades específicas al variar el grado de oxidación de la membrana.



METODOLOGÍA

Fabricación de las membranas. Estabilidad de las membranas. Se inició con la preparación de las soluciones acuosas a diferentes pH (4, 6, 10) con soluciones HCl 0.1M y NaOH 0.1M.  Después de la preparación de estas soluciones, se cortaron las membranas con un área de 1cm2, para después sumergirlas en un recipiente de poliestireno en un volumen de 15 mL. Resistencia eléctrica. Se cortaron las membranas con una superficie de 1 cm2 para realizar la prueba de los cuatro puntos. Medición del ángulo de humectación. Se realizó la medición del ángulo formado entre una gota o burbuja adyacente a una superficie plana y lisa (membrana en este estudio). Con el programa de IMAGEJ y el goniómetro se tomó la fotografía y se analizó para determinar el ángulo de humectación. Determinación de la rugosidad y espesor. Con el microscopio óptico digital se hizo la medición de la membrana a 500 amplificaciones, con un porta laminillas con una cinta de cobre se le coloco un fracción de membrana de 1cm2 y se leyó en el microscopio la rugosidad y se analizó el espesor. Capacidad de intercambio iónico. Para introducir los grupos funcionales H+ se sumergió la membrana en HCl 1 M durante 24 h, se enjuago la membrana para retirar el ácido y se  hizo una prueba con AgNO3; después la membrana se sumergió en una solución 2 M de NaCl. Las soluciones de NaCl fueron recolectadas y valoradas con 0.1 M NaOH y  fenolftaleína de indicador. Carga electro-estática.   Este procedimiento consistió en la aplicación de una gota de una solución con 0.05% de azul de metileno y naranja de metilo en una muestra.


CONCLUSIONES

Las membranas preparadas sobre borosilicato no se generaron adecuadamente debido a que el OG se quedaba adherido completamente a la superficie lo cual evitó el desprendimiento de las mismas. Los medios acuosos son un factor en la resistencia de las membranas, cuando estas  estuvieron en pH ácidos la MOG (0) resistió por más de 7 días y se encontraba en la misma forma en la que fue depositado, sin embargo, las demás MOG (1, 2 y 3) se desintegraron, en pH neutros la MOG (0) resistió por más de 7 días sin embargo sufrió una ruptura y sigue en la forma colocada, además, las MOG (1, 2, 3) se desintegraron, y en pH básico las MOG (0, 1, 2, 3) se desintegraron totalmente. Cabe mencionar, que la desintegración de las membranas fueron desde el primer día a excepción de las señaladas. Los valores obtenidos de la resistencia oscilan entre 111 ohm y  2.57x107 ohm, las cuales son mas altos que las membranas comerciales que van de los 70-90 ohm. Las distintas membranas tuvieron un ángulo de humectación de tipo hidrofóbico. El espesor de las distintas membranas fue MOG (0)= 121.54 µm, MOG (1)= 83.46 µm, MOG (2)= 73.58 µm y MOG (3)= 43.71 µm este espesor se debe a que  entre menor sea el grado de oxidación mayor será su espesor.
Castañeda Perez Ramiro Jesus, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit

SEGURIDAD DE TECNOLOGíAS DE LA INFORMACIóN


SEGURIDAD DE TECNOLOGíAS DE LA INFORMACIóN

Castañeda Perez Ramiro Jesus, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Pablo Velarde Alvarado, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Hoy en día estar conectado a la red para poderse comunicar o interactuar con distintas personas a lo largo del mundo ya es una forma muy común, en donde estar conectar a la internet significa para una persona común lo siguiente; Comunicación: el medio de estar mandando mensajes o imágenes a distintas personas por medio de redes sociales. Entretenimiento: un ejemplo que hoy en día está sucediendo mucho es de ver series en distintas plataformas como por ejemplo Netflix. Compras online: existen distintas páginas web en donde se exhiben distintos productos para su venta, en ese lugar las personas pueden pagar los productos con dinero físico o con tarjeta de credito. Existen más formas de estar conectado en la red, pero lo que más importa en este tema es que cada acción que se está realizando se va registrando en la red, ¿entonces qué problema existe en esto?, pues cabe destacar que existen personas que se dedican a husmear en la red en búsqueda de datos que sean relevantes para utilizarlos a su beneficio como por ejemplo números de tarjetas o usuarios y contraseñas de distintas cuentas,. Como se mencionó existen distintas formas de obtener información por medio de la red, a esto se le conoce como análisis del tráfico el cual consiste en: observar los datos y el tipo de tráfico transmitido a través de redes informáticas, utilizando para ello herramientas como los sniffers. Así, se conoce como eavesdropping a la interceptación del tráfico que circula por una red de forma pasiva, sin modificar su contenido. Como la tecnología ha avanzado a lo largo del tiempo, también han avanzado las formas de realizar ataques que son denominados ataques Informáticos ya que en estos casos son utilizadas herramientas que están programadas para realizar algún tipo de daño al equipo o robo de información. Por esto mismo con el paso del tiempo también se han desarrollado protocolos de seguridad y herramientas que contrarrestan dichos ataques, dichas herramientas tienen como nombre NetFlow y Harpoon y tienen el propósito de medir el flujo de los paquetes que están transitando en la red y con esto al tener una anomalía en el flujo se puede deducir que algo está pasando y por consecuente se realizaría un análisis para la verificación de un posible ataque.



METODOLOGÍA

La metodología que se utilizó para la realización de este proyecto se menciona a continuación: Análisis y comprensión de la documentación referente a Python. Investigación referente a la mejor forma de instalar Python en Ubuntu. Instalación de Software llamado Anaconda para el manejo de Python versión 3 en Ubuntu. Utilización de Spyder para la realización de programación básica en referente a Python. Utilización de Jupyter para la creación de libros en referencia a la utilización de la programación en Python. Búsqueda de información referente al protocolo de NetFlow. Análisis de las configuraciones que se deben realizar con el protocolo de NetFlow. Búsqueda de documentación referente a la herramienta llamada Harpoon. Análisis y comprensión de los contenedores (Docker).  Implementación de Docker para contener la implementación de Harpoon.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de distintos temas como por ejemplo el uso que se le puede dar a Python en las distintas áreas ya que este lenguaje de programación es práctico y fácil de utilizar.Durante la estancia se investigó lo más que se puedo sobre la programación con Python, para esto se consultó en libros, al igual que también para ponerlo en práctica los conocimientos adquiridos se utilizó una página de internet en donde el contenido hacía referencia a ejercicios básicos. Cabe destacar que un entorno de desarrollo para poder implementar la programación en Python es Anaconda, el cual es una plataforma que tiene distintos entonos de desarrollo para poner en practica la programación, el entorno más destacado que tiene anaconda es Spyder. Dentro de los conocimientos que se lograron adquirir destacan el aprendizaje y la utilización de dos herramientas cuya utilidad es para el manejar del tráfico en la red y al igual que la generación de tráfico de fondo, dichas herramientas tienen como nombre NetFlow y Harpoon, en donde NetFlow es una configuración en los Router de cisco para poder recolectar información del tráfico que está sucediendo al momento y de igual forma representarla por medio de gráficas para su posterior análisis. Harpoon es una herramienta para de fondo para ser aplicado en una cama de pruebas que posteriormente puede ser analizada y determinar el comportamiento de la red. Cabe mencionar que después de obtener conocimientos de dichas herramientas y de su utilización el siguiente paso que se efectuaría seria de utilizar Docker para poder contener todo necesario para la utilización de las herramientas, para esto de igual forma se obtuvieron conocimientos básicos sobre la utilización de Docker en el sistema operativo de Linux.Dentro de los conocimientos que se lograron adquirir destacan el aprendizaje y la utilización de dos herramientas cuya utilidad es para el manejar del tráfico en la red y al igual que la generación de tráfico de fondo, dichas herramientas tienen como nombre NetFlow y Harpoon, en donde NetFlow es una configuración en los Router de cisco para poder recolectar información del tráfico que está sucediendo al momento y de igual forma representarla por medio de gráficas para su posterior análisis. Harpoon es una herramienta para de fondo para ser aplicado en una cama de pruebas que posteriormente puede ser analizada y determinar el comportamiento de la red. Cabe mencionar que después de obtener conocimientos de dichas herramientas y de su utilización el siguiente paso que se efectuaría seria de utilizar Docker para poder contener todo necesario para la utilización de las herramientas, para esto de igual forma se obtuvieron conocimientos básicos sobre la utilización de Docker en el sistema operativo de Linux. 
Castañeda Tajimaroa Juan Pablo, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo

DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.


DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.

Castañeda Tajimaroa Juan Pablo, Instituto Tecnológico Superior de Uruapan. Mendoza Vidales Héctor, Instituto Tecnológico Superior de Uruapan. Torán Sánchez José Luis, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Existen diversos tipos de materiales para construcción, en la mayoría de los casos el material que proporciona sus principales propiedades es el cemento, el cual en su fabricación genera grandes emisiones de CO2, por esta razón se busca realizar sustituciones parciales de cemento por otros materiales naturales que produzcan un resultado similar a una mezcla cotidiana, sin afectar la resistencia y durabilidad de los morteros y concretos, o incluso mejorar las propiedades de los materiales. Con las sustituciones que se realizaron, se buscó mejorar las características y reducir la porosidad de las mezclas. Esta propiedad tiene efectos muy notables en dos de los factores más importantes de nuestra mezcla: la resistencia a la compresión y la durabilidad. A mayor cantidad de vacíos presentes, será mayor la vulnerabilidad de la mezcla a ser atacado por agentes externos, los cuales pueden ser muy agresivos y generar reacciones químicas que lo vayan deteriorando con el tiempo.



METODOLOGÍA

Los especímenes que se están tratando son de mortero base cemento con sustitución de mucílago y fueron elaborados en el mes de octubre del año 2015. Al día de hoy se están realizando diversas pruebas a estos especímenes (considerando que tienen 45 meses de edad). El mucílago es una sustancia viscosa contenida en algunos vegetales como el nopal; para el desarrollo de esta investigación se realizaron dos muestras de mucílago (MN 1:2, MN 1:3), MN es mucílago de nopal. La primera se fabricó hirviendo 1 kg de nopal y 2 L de agua, la segunda, con 1 kg de nopal y 3 L de agua. Se diseñaron tres mezclas de acuerdo a la norma NMX - C - 061 - ONNCCE 2010. A continuación, se presentan las proporciones con las cuales fueron elaboradas las mezclas; 1.- Testigo: 1 Kg de cemento, 2.75 kg de arena y 0.68 L de agua. 2.- MN 1-2:  1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.01 Kg de aditivo-Crisotran R-5 y 0.34 Kg de nopal. 3.- MN 1-3: 1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.003 Kg de aditivo-Crisotran R-5 y 0.23 Kg de nopal. El cemento con el que se fabricaron las mezclas fue CPC 30R RS y la especie del nopal es opuntia ficus - indica. Las mezclas se colaron en los moldes y fueron desmoldados cumplidas las 24 horas. Fueron curados por inmersión hasta la edad de prueba. Los especímenes fueron sometidos a pruebas de resistividad eléctrica y la velocidad de pulso ultrasónico, que arrojan información acerca del grado de porosidad interna del mortero. El procedimiento anterior fue utilizado tanto para la prueba de porosidad total como para la prueba de porosidad efectiva. Las pruebas de porosidad total y porosidad efectiva no podrán ser expresadas con resultados, debido a que actualmente los especímenes se encuentran en el horno, y se analizarán una vez que se obtenga masa seca constante, esto es, cuando la diferencia de masas en porcentaje no es mayor al 0.1%. PRUEBA DE POROSIDAD TOTAL. Para la realización de esta prueba se seguirá el procedimiento que dicta la RED DURAR. Se tomará la masa húmeda (Wsaturado), posteriormente se determinarán sus volúmenes con un picnómetro y una probeta graduada, luego se obtiene la masa sumergida (Wsumergido) utilizando una balanza hidrostática con canastilla. Finalmente, se colocarán los especímenes en el horno a 50°C hasta masa seca constante, para obtener su masa seca (W50° o Wseco). Luego de obtener estos datos se aplicará la siguiente formula: % Porosidad total = ((𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 − 𝑾𝒔𝒆𝒄𝒐) / (𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 −𝑾𝒔𝒖𝒎𝒆𝒓𝒈𝒊𝒅𝒐)) ×𝟏𝟎𝟎 PRUEBA DE POROSIDAD EFECTIVA. Consiste en determinar la absorción capilar que posee el mortero. Actualmente los especímenes se encuentran en el horno a 50°C, y serán retirados hasta obtener masa seca constante; después, los especímenes se cubrirán con parafina y brea en las caras laterales; se registrarán las masas de los especímenes sellados. Posteriormente se colocarán en un recipiente de fondo plano sobre una esponja o cualquier fibra absorbente de manera que el tirante de agua sea de 3 mm por encima de la superficie de la cara del espécimen expuesta al agua. Los especímenes se pesarán a 1, 5, 10, 15, 30 minutos y 1, 2, 3, 4, 6, 24, 48… horas como indica la norma NMX - C - 504 - ONNCCE - 2015. Esta prueba de termina cuando la masa húmeda es constante, es decir, cuando la diferencia de masas de un día a otro no es mayor al 0.1%. Finalmente se elabora una gráfica (𝑊𝑡−𝑊0/𝐴 vs √𝑡).


CONCLUSIONES

Los resultados de la sustitución de mucílago de nopal por agua en la mezcla arrojaron buenos resultados en las pruebas de durabilidad como resistividad eléctrica y velocidad de pulso ultrasónico a edades tardías; ya que el promedio obtenido de resistividad eléctrica es de 77.6 K-cm cuando la norma NMX - C - 514 - ONNCCE - 2016 dicta que una resistividad de 50 - 100 K-cm es considerada con velocidades de corrosión bajas, por lo tanto el resultado es benéfico. Por otra parte, el promedio obtenido en la prueba de velocidad de pulso ultrasónico fue de 4130.2 ; la norma NMX - C - 275 - ONNCCE - 2004 indica que una velocidad de pulso >2350   se debe a pocos vacíos o agrietamiento bajo o nulo, y basado en los criterios de evaluación de la RED DURAR 1998 una velocidad de propagación >4000    resulta como durable. Existen registros de que la adición de fibra de nopal a morteros base cemento aportan una mayor compacidad a la mezcla, disminuyendo la cantidad de poros de aire, de acuerdo a trabajos previos elaborados en el Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil de la UMSNH, en los cuales se realizaron sustituciones en diferentes porcentajes de fibra de nopal y almidón de maíz. Los datos obtenidos reflejan que la sustitución del mucílago es favorable en cuanto a porosidad y, por ende, durabilidad. Por lo cual, se espera obtener resultados positivos en las pruebas de porosidad total y absorción capilar.  
Castañon Estrada Lizeth, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ESTUDIO TéRMICO DE UN CONCENTRADOR SOLAR TIPO FRESNEL LIENAL


ESTUDIO TéRMICO DE UN CONCENTRADOR SOLAR TIPO FRESNEL LIENAL

Castañon Estrada Lizeth, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El sistema energético actual está basado en el uso de los combustibles fósiles como principal fuente de poder. El tema principal de la investigación es el enfoque a las energías solares, siendo de gran interés, con la justificación de que en la región de Sonora se cuenta con un recurso solar mas que necesario para el desarrollo y aprovechamiento de este tipo de tecnologías. La energía solar es por mucho el mayor recurso explotable, proveyendo más energía a la tierra en una sola hora que la necesaria para satisfacer la demanda energética mundial durante todo un año. (Lewis & Nocera, 2006).



METODOLOGÍA

Concentrador lineal Fresnel (CLF) de la Plataforma Solar de Hermosillo (PSH). Especificaciones: •11 líneas de espejos, donde cada línea tiene 2 espejos (2m x 0.5m c/u), con una separación de 0.1m, y un total de área reflejante de 22m2. •Cada línea de espejos se mueve mediante un motor de pasos y una transmisión reductora, controlados por medio de un Arduino MEGA. •Receptor en forma de serpentín con tubos de cobre de 19 mm de diámetro, pintado de negro, a una distancia de 4 m de altura respecto al nivel en que se encuentran los espejos. Sistema de Caracterización Térmica Este consiste en: •Bomba centrifuga de 1/16 hP. •2 termo tanques de 150 L de capacidad, interconectados entre sí. •6 válvulas de bola para direccionar el fluido térmico. •2 válvulas de flecha para regular el caudal. •2 sensores de temperatura tipo PT100 para medir las temperaturas del agua a la entrada y salida del receptor. •Para la medición del caudal de agua se instaló un flujómetro Omega FPR303. •Para la recolección de datos se realizó mediante un controlador NI MyRio y una computadora como interfaz, para acceder a los valores obtenidos. •Disipador de calor


CONCLUSIONES

Podemos concluir que el sistema tiene un mejor comportamiento térmico si se manejan caudales altos, ya que se alcanzó una potencia absorbida de hasta 7.8 kW y una eficiencia térmica estimada del 40%. Esta cifra comprueba que el receptor utilizado puede ser competente debido a su alta eficiencia de absorción y costos relativamente menores.
Castellanos Ramos Melisa, Universidad Veracruzana
Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán

CIENCIA DE DATOS APLICADA A REDES SOCIALES


CIENCIA DE DATOS APLICADA A REDES SOCIALES

Castellanos Ramos Melisa, Universidad Veracruzana. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Es importante conocer las principales ubicaciones de los migrantes mexicanos en Estados Unidos. Una de las aplicaciones de esta información puede ser en el sector comercial. Los comerciantes de productos mexicanos pueden ubicar los posibles clientes en Estados Unidos y así generar estrategias de marketing para estos lugares. Esta información también es útil para el sector público ya que es de interés del gobierno y los ciudadanos conocer en donde se concentran los paisanos en E.U.A. Esta investigación se enfoca principalmente en ubicar las concentraciones de Oaxaqueños en Estados Unidos. Para este fin, se propone la aplicación de Ciencias de Datos. 



METODOLOGÍA

Se siguieron las siguientes etapas de un proyecto de Ciencias de Datos para llegar a la información requerida. Obtención de datos Limpieza de datos Exploración de los datos Visualización de datos Primeramente, realizamos la solicitud de autorización de Twitter para poder utilizar su API y así realizar la extracción de datos. Generamos una lista de términos con palabras únicamente utilizadas en el estado de Oaxaca. Después se desarrolló un script en Python, la cual se encarga de descargar tweets de forma automática según las palabras seleccionadas. Al mismo tiempo se generó la base de datos utilizando MongoDB para almacenar la información. Toda la información descargada se guardó en la base de datos. El script se ejecutó durante 2 semanas para recolectar una gran cantidad de tweets y así proceder con el análisis de datos. La siguiente etapa fue de limpieza de datos. Se tuvo que analizar los datos que se habían descargados. Había varios con ubicaciones no reales o no coherentes. Estas se tuvieron que eliminar para obtener solo los tweets relevantes para la investigación. Posteriormente realizamos queries a la base de datos para obtener datos de ubicación únicas. El siguiente paso fue la etapa de visualización. Se utilizaron dos APIs de Google Maps para visualizar los puntos en un mapa. Se escogió esta API porque es fácil de utilizar y con unas líneas de código se muestran los resultados rápidamente y sin mucha programación. Primero se tuvo que realizar el proceso de geocoding que es el proceso de obtener las coordenadas de un lugar usando la dirección de la ubicación. Se hizo esto por cada uno de las ubicaciones de los tweets descargados. Después de que se obtuvieran las coordenadas se procedió a mapear los puntos. Finalmente se generó un mapa en donde se presentan mediante puntos las ubicaciones de los Oaxaqueños en Estados Unidos.


CONCLUSIONES

En el mapa que se generó se puede visualizar que las mayores concentraciones de Oaxaqueños en Estados Unidos se encuentran en Los Ángeles, California, Dallas , Texas y New York City, New York. Mediante esta investigación se aprendió a utilizar los diferentes APIs de Twitter y Google, así como también a utilizar la base de datos MongoDB. Logramos seguir las etapas de un proyecto de Ciencia de Datos y finalmente presentar los resultados obtenidos en un mapa.
Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING


MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING

Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit. García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara. Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit. Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente la ciudad conurbada de Colima - Villa de Álvarez no cuenta con registros exactos relacionados a la demanda de usuarios de transporte público, específicamente de autobuses urbanos, que existe en cada parada de los camiones a distintas horas y  días del año. Esta situación, causa ciertos inconvenientes al proveer el servicio: mayor cantidad de usuarios esperando en cada parada en horario concurrido, pérdida de tiempo de los usuarios, desperdicio de espacio y combustible en los camiones. Esto  afecta a todos los usuarios del transporte, así como a los  proveedores del servicio, lo que resulta en una problemática latente, pues los usuarios no pueden optimizar sus tiempos de traslado y los proveedores no pueden optimizar sus gastos de operación. Así mismo, teniendo una demanda real de usuarios de transporte público, se podrían realizar experimentos sobre un modelo del sistema real de autobuses, que permita probar diferentes opciones de servicio, tales como: diferentes tamaños de autobuses en diferentes horarios, cambios de precios en horas pico, incremento de la flotilla, generación de nuevas rutas, etc.



METODOLOGÍA

Este proyecto está basado en el método científico, a continuación se explica lo que se realizó paso a paso. Indagar acerca de temáticas relacionadas con IoT, Cloud Computing, Seguridad, NodeMCU, sensores de movimiento, etc. Diseñar el modelo de monitoreo y análisis de demanda de transporte público. Elegir herramientas a utilizar: placa de desarrollo y sensores. Diseñar estructura del prototipo. Montar y establecer conexiones del prototipo. Crear interfaces necesarias para comunicarse con el servidor web. Crear base de datos útil para el proyecto. Acceder a base de datos en la nube. Implantar protocolos y herramientas de seguridad al sistema. Hacer pruebas de funcionalidad al sistema. Realizar modificaciones necesarias. Documentar el proyecto.


CONCLUSIONES

En este proyecto se diseñó un modelo que permitirá la monitorización y posterior análisis de datos sobre la demanda de usuarios de transporte público, en la ciudad conurbada de Colima - Villa de Álvarez. Se implementó un prototipo de este modelo que, utiliza una conexión de red, base de datos, NodeMCU, etc. El prototipo implementado es funcional, se logró enviar información desde un push button que simula el material piezoeléctrico que cuenta las personas que suben y bajan del camión. Esta información viaja hacia un servidor local, que contiene una base de datos que almacena los datos recabados. El prototipo deja un parte aguas para que se pueda implementar el modelo en un futuro cercano, tomando como referencia los objetivos logrados hasta el momento. Así mismo, se destaca que el prototipo es de bajo costo y fácil de crear.
Castilla Diaz Evelyn, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional

TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD


TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD

Alvarado Perales Alan Isaí, Instituto Tecnológico de Piedras Negras. Castilla Diaz Evelyn, Instituto Tecnológico de Tuxtla Gutiérrez. Garibaldi Velázquez Carmen Leticia, Universidad de Guadalajara. Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El motivo por el cual es que se busca realizar este tipo de proyecto es porque actualmente, en el CICATA no existe información a simple vista sobre los lugares que se encuentran en la institución. Así que se desea que el usuario tenga esa facilidad de moverse a través en las instalaciones, por lo cual se desea realizar una app móvil, para usuarios Android, ya que existe un estudio de que los dispositivos Android, en un artículo llamado Evolución de la cuota de mercado de Android(2009-2018) en donde se expresa que en el primer cuatrimestre del 2009, se decía que Symbian, el sistema operativo de Nokia, era dueña y señora del mercado, al pasar del tiempo, para el 2011, Android ya era el sistema operativo más utilizado en el mundo hasta la actualidad.   Otra de las ventajas de la realización de la aplicación móvil es por el simple hecho de ser más práctico y accesible para la mayoría de las personas tanto discapacitadas como no discapacitadas. Accesible en costos y practico en la utilización de estos dispositivos móviles. Y aparte, sin mencionar que nos ofrecen herramientas útiles, como, por ejemplo: Google TalkBack Está diseñada para dispositivos Android y facilita el acceso y consulta del teléfono móvil a personas con discapacidad visual. Mediante respuestas de voz y vibración el usuario podrá hacer uso de su teléfono, permitiendo así usar sus aplicaciones y herramientas. Que tiene las siguientes funcionalidades: Ayuda para acceder a un elemento. Al pulsar sobre un elemento lee su nombre y al pulsar dos veces se accederá a él. Navegar. Para desplazarse por la pantalla utilice dos o más dedos y desplácese horizontal y verticalmente. Ajustes. TalkBack permite adaptar el servicio a su gusto, accediendo a los ajustes podrás ajustar el volumen de voz, sensor de proximidad, vibración, administrar los gestos, etc.   Con ayuda de estas herramientas, hacen más accesible el uso de los dispositivos móviles y de las aplicaciones. Es por eso que se desea implementar este tipo de aplicación en la institución, ya que ayudará al usuario a identificar los lugares que existen en el CICATA de una manera más práctica. También la ayuda de objetos visuales o multimedias ayudan a la interacción del usuario ya será a través de vídeos, sonido, imágenes las cuales harán también el uso de las aplicaciones más fáciles aparte de las herramientas que nos brindan.



METODOLOGÍA

El método Ágil es un proceso que permite al equipo dar respuestas rápidas e impredecibles a las valoraciones que reciben sobre su proyecto. Crea oportunidades de evaluar la dirección de un proyecto durante el ciclo de desarrollo. Los equipos evalúan el proyecto en reuniones regulares, llamadas sprints o iteraciones. Por lo cual, por cuestiones de tiempo y los procesos que ibamos a integrar en el proyecto, decidimoso que este era el más optimo para primera fase aunque si existe un seguimiento, podría cambiar a otro tipo de metodología sin problema.


CONCLUSIONES

Aunque la aplicación puede llegar a ser del todo útil, si no existe la infraestructura adecuada para personas con discapacidad, puede llegar a ser una dificultad muy grande. Tal es el caso del CICATA por lo que se limitó a hacer la aplicación con las tecnologías integradas en los dispositivos. Aparte de eso, también a pesar del proyecto, obtuvimos unas conferencias en el centro cultural regional de Querétaro, en donde impartieron platicas de diferentes proyectos y algunos, ayudaron a dar más idea del proyecto porque trataban sobre personas con discapacidad. Se realizó también lecturas sobre las diferentes discapacidades que existen; de las tecnologías actuales y cuál de las tecnologías que nos ofrecen los dispositivos era la más conveniente.   En general, en la estancia del verano, pudimos apreciar sobre las dificultades y las metas que nos podíamos plantear, ya que a pesar de tener uso de tecnologías, también dependen de otras cosas, debido a que el centro de investigación no cuenta con la infraestructura adecuada para personas con discapacidad.  
Castillo Corrales Victor Emmanuel, Instituto Tecnológico de Tepic
Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)

SIMULADOR BASADO EN AGENTES PARA LA GESTIóN DE FLOTAS URBANAS


SIMULADOR BASADO EN AGENTES PARA LA GESTIóN DE FLOTAS URBANAS

Castillo Corrales Victor Emmanuel, Instituto Tecnológico de Tepic. Vazquez Yañez Gregorio, Instituto Tecnológico de Tepic. Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la movilidad en el entorno urbano ha sufrido cambios considerables a través de los últimos años, desde el tipo de vehículos que transitan hasta la necesidad de transporte desde objetos, hasta grupos de personas. Es por eso que surge la necesidad de obtener un control en cuanto al tránsito en las ciudades para dar abasto de energía a los diversos vehículos. Uno de los principales actores en esta gestión son estaciones donde los vehículos sean capaces de recargar sus niveles de energía para que estos mismos puedan ejercer los servicios a lo largo de su jornada. Las estrategias para colocar las diversas estaciones pueden ser diversas, y el probar con alguna propuesta puede generar costos que pueden convertirse en pérdidas en caso de que no se haya elegida la estrategia más óptima, es por eso que nace la necesidad de simular las diversas estrategias para encontrar la más conveniente de acuerdo a la ciudad donde se desean implementar.



METODOLOGÍA

Para llevar a cabo las simulaciones, se procede con la obtención de las información de una ciudad piloto (en este caso Valencia, España) para saber los puntos más transitados de la misma. Seguido de la elaboración de un software capaz de generar agentes que representan las estaciones, los vehículos, las solicitantes de servicios de transporte, entre otros; Dicho software se llevo acabo en el lenguaje de programación Python en conjunto con JavaScript para una interfaz intuitiva al usuario. De igual forma se trabajó con SPADE, una herramienta de desarrollo para la base del simulador, misma que nace en la Universidad Politécnica de Valencia, para poder generar las estructuras de los agentes en el simulador. Al momento de nosotros arribar a la institución, el trabajo comenzó con la actualización de la documentación de las herramientas con las cuales estuvimos trabajando este tiempo, para posteriormente comenzar con el desarrollo de lo establecido en el plan de trabajo para tener un trabajo completo en tiempo y en orden.


CONCLUSIONES

Como primer conclusión tenemos lo que es un previo al mundo laboral, ya que como ingenieros en sistemas debemos adaptarnos a los entornos de desarrollo donde se están llevando a cabo los software, para poder trabajar y realizar las tareas aptas correspondientes, como también lo es una adaptabilidad al trabajo en equipo y las herramientas de comunicación para estar todos los involucrados con el desarrollo, logren estar al corriente. De igual manera nuestro conocimiento en ciertos lenguajes de programación, rescatando mas Python, lograron madurar al conocer más herramientas como PyCharm y sus entornos virtuales. En conclusión respecto al tema de investigación es una comparación entre México y España, las diferencias de prioridades en cuanto al desarrollo de nuevas tecnologías son grandes y cosas que en un país no se ven, en el otro pueden ser necesidades latentes, con lo cual logramos abrir nuestra mentalidad sobre las necesidades humanas que esta pueda tener en un futuro.
Castillo Cruz Osiel Antonio, Universidad de Guadalajara
Asesor: Dr. Leticia Myriam Torres Guerra, Universidad Autónoma de Nuevo León

DESARROLLO DE HETEROESTRUCTURAS BICAPA Y DOPAJE DE MATERIALES EN PELíCULA DELGADA PARA LA PRODUCCIóN FOTOCATALíTICA Y FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR


DESARROLLO DE HETEROESTRUCTURAS BICAPA Y DOPAJE DE MATERIALES EN PELíCULA DELGADA PARA LA PRODUCCIóN FOTOCATALíTICA Y FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR

Castillo Cruz Osiel Antonio, Universidad de Guadalajara. Asesor: Dr. Leticia Myriam Torres Guerra, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Debido a los numerosos problemas ambientales y a la crisis energética actual, es necesario el desarrollo de tecnologías para la producción de combustibles limpios y sustentables. La producción de hidrógeno mediante métodos fotocatalíticos y fotoelectroquímicos es una de las alternativas más viables. Es por ello que en este trabajo se desarrollaron películas delgadas con diferentes configuraciones usando como base los materiales TiO2 y Fe2O3, crecidos a través de métodos de química suave sobre sustratos de vidrio conductor (ITO).



METODOLOGÍA

Se prepararon 8 diferentes películas mediante la metodología sol-gel y utilizando el sistema de depósito spin-coater combinando capas de Fe2O3 y TiO2 dopado con Zr y Bi .Las propiedades estructurales, morfológicas, ópticas y eléctricas de los materiales se estudiaron mediante las técnicas de Difracción de Rayos X (DRX), Microscopia electrónica de barrido (SEM), Espectroscopía de Ultravioleta Visible (UV-Vis) y Espectroscopia de Impedancia Electroquímica (EIS). La actividad de los materiales desarrollados se evaluó en reactores fotocatalíticos y fotoelectroquímicos para la producción de hidrógeno bajo luz visible.


CONCLUSIONES

Se logró la obtención de las fases puras de TiO2 y Fe2O3  así como del TiO2 dopado con Zr, Bi y ambos, en las películas monocapa y en las heteroestructuras, lo cual se corroboró mediante DRX. Los análisis morfológicos confirmaron la homogeneidad de las partículas depositadas sobre los sustratos de ITO, así también, mediante el análisis EDS se corroboró la composición de las películas. A través de UV-Vis, se determinó el band gap (energía de banda prohibida) de los materiales, y los análisis electroquímicos permitieron determinar el tipo de conductividad de los materiales (n o p), así como el flat band potential y la densidad de donadores de los materiales. Finalmente, se determinó la actividad del TiO2 dopado con Bi para la producción fotocatalítica y fotoelectroquímica de hidrógeno obteniendo una producción de 2510.6 𝛍mol h-1g-1, la cual es más alta que la del TiO2 puro según lo reporta la literatura.
Castillo Delgado Dennis Miguel, Universidad Tecnológica de Nayarit
Asesor: Dr. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit

TENDENCIAS TECNOLóGICAS PARA MEJORAR LA MOVILIDAD URBANA EN UNA CIUDAD DEL ESTADO DE NAYARIT


TENDENCIAS TECNOLóGICAS PARA MEJORAR LA MOVILIDAD URBANA EN UNA CIUDAD DEL ESTADO DE NAYARIT

Castillo Delgado Dennis Miguel, Universidad Tecnológica de Nayarit. Asesor: Dr. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

El transporte fue una innovación importante desde su invención, puesto que cambió radicalmente la forma de vivir de los seres humanos. Este les ayudó a trasladarse distancias cada vez más largas, en menos tiempo, y no solo influyo en el traslado de los humanos sino que también ayudó a expandir el comercio, gracias al traslado de las mercancías del lugar de producción al lugar de demanda (Garrido, 2001). Asimismo con el auge de los transportes se logró sistematizar la vialidad, gracias a la creación de rutas específicas, recorridas por un camión o combi para la creciente demanda de usuarios que necesitaban del servicio para trasladarse a su lugar de destino, y fue así como comenzó el advenimiento del transporte público. En Nayarit se detectó una problemática en los transportes públicos de la ciudad de Tepic a Xalisco que cuentan con una ruta en específica por recorrer principalmente, mediante un análisis de su movilidad en la cotidianidad. La falta de proporción de información por parte de las empresas de transportes públicos  hacia sus usuarios, con respecto a los itinerarios, los horarios, las paradas y la localización ocasionan que los usuarios se dirijan a su lugar de costumbre en donde abordan el camión, pero la cuestión es que estas personas van con una idea vaga de a qué hora pasara su camión a abordar, por lo tanto están sujetas a una cuestión de incertidumbre la cual no les deja opción de organizar sus tiempos. Por otro lado, existen otros usuarios que no frecuentan el uso de los transportes públicos o inclusive turistas que necesitan de este tipo de servicio público, pero no saben qué camiones abordar ni en dónde pueden abordarlos y ni la hora que es posible encontrarlos. Finalmente hay otro factor que aqueja a los usuarios, los cuales exclaman que los choferes de camiones habitualmente no cumplen con su ruta establecida y suelen saltarse paradas para recomponer el tiempo atrasado que perdieron en alguna otra actividad fuera de su programa definido perjudicando al cliente puesto que este está sujeto a los horarios de los camiones y ocasiona que no llegue a tiempo a su destino. Para corroborar lo anterior se realizaron encuestas entre los usuarios del transporte público para recabar información y así hacer un análisis de requerimientos. Tales datos, nos sirvieron para constatar el análisis previo sin técnica de recolección de datos. Se llegó a la conclusión de que los usuarios no tenían conocimiento de la información referente a los camiones (Itinerarios, horarios, paradas oficiales y localización del mismo) ocasionando que la actividad de tomar el camión sea una incertidumbre.



METODOLOGÍA

Método de  Investigación  MeProb Uno de los principales problemas en la realización de una investigación científica en el ámbito educativo es la identificación del problema o el tema a investigar, o cuando se plantea la pregunta ¿Qué voy a investigar? , Por eso es necesario utilizar métodos que te permitan realizar tu investigación de la forma más veraz y confiable para la realización de una investigación con valides y credibilidad. Por lo tanto la presente investigación se efectuó con la metodología   MeProb, que es un conjunto de pasos para identificar problemas reales de investigación que cuenta con once pasos (Ferreiro y Cummings, 2012).  Se aplicó un instrumento de medición el cual  proporciona una descripción cuantitativa de los resultados obtenidos, en este caso se realizaron  200 encuestas repartidas entre estudiantes de la universidad Tecnológica de Nayarit y habitantes de las ciudades de Tepic y Xalisco. La recolección de datos obtenidos gracias a este instrumento  demostró que los usuarios el 90% de los usuarios encuestados piensan que el servicio del transporte público mejoraría. Asimismo el 90% de los encuestados compartieron el acuerdo de que les gustaría tener un servicio de aplicación móvil para obtención de información relacionada al transporte público (Horarios, Paradas, etc.). Por tanto se desarrolló un prototipo de una aplicación móvil que proporciona los itinerarios, los horarios y paradas del transporte público con el fin de optimizar la logística y tiempos de los transportes, así como mejorar el servicio hacia los usuarios. El prototipo se realizó utilizando la metodología de desarrollo de software llamada Scrum, empleando así las etapas y sprints. Dicho modelo marca una optimización de los tiempos y agiliza la elaboración de las actividades requeridas para completar el proyecto.  


CONCLUSIONES

A través de un conjunto de técnicas de investigación científica se detectó y se fundamentó una problemática dentro de la movilidad de la ciudad de Tepic hacia Xalisco, la cual con la ayuda de las tecnologías de la información puede ser resuelta. Por lo tanto se realizó la investigación científica para desarrollo de un prototipo de una aplicación móvil el impacto la cual beneficiara a los usuarios del transporte público ya que podrán saber la ruta exacta del autobús, donde se ubican las paradas más recomendables y los horarios oficiales en la aplicación, por lo que favorecerá en el servicio hacia el usuario por parte de las empresas de transporte.
Castillo Hernandez Liliana, Universidad Autónoma de Guerrero
Asesor: Dr. Lilia Alejandra Conde Hernandez, Benemérita Universidad Autónoma de Puebla

OBTENCIóN DE ACEITES ESENCIALES DE TAGETES LUCIDA( PERICóN)


OBTENCIóN DE ACEITES ESENCIALES DE TAGETES LUCIDA( PERICóN)

Castillo Hernandez Liliana, Universidad Autónoma de Guerrero. Asesor: Dr. Lilia Alejandra Conde Hernandez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Título: Obtención de aceites esenciales de Tagetes lucida ,pericón   Tagetes lucida, conocido como pericón, Santa María, o yerbanís es una yerba nativa de Guatemala y de México que pertenece a la familia de las asteráceas. Es del mismo género que el huacatay y cempasúchil, pero a diferencia de estos dos es perenne. Tiene hojas pequeñas y verdes, muy aromáticas, y flores amarillas en verano. Se encuentra en los llanos, campos y al lado de las carreteras en los bosques de pino-encino templados de México y de Guatemala. Los aceites esenciales son las fracciones liquidas volátiles, las cuales le proporcionan el aroma a las plantas, son importantes para la industria cosmecéutica (perfumes y aromatizantes), nutracéutica (condimentos y saborizantes) y farmacéutica. En su gran mayoría son de olor agradable, aunque existen algunos de olor relativamente desagradable como por ejemplo los del ajo y la cebolla. El aceite esencial de pericón es extraído de las flores de esta planta. Este se prepara a partir de un proceso de destilación al vapor. Entre sus propiedades podemos destacar que posee agentes antibióticos, antimicrobianos, antisépticos, sedantes y antiparasitarios. Esto se debe a que tiene compuestos químicos como el limoneno, ácido valérico y tagetone.Siendo su aceite un tratamiento muy efectivo para tratar heridas abiertas, llagas, cortes y piel ulcerada de poca importancia.Según un estudio hecho por la Flavour and Fragrance Journal este aceite evita el crecimiento y la propagación de infecciones en heridas, y promueve una rápida y efectiva curación de la piel.Incluso se ha visto evidencia de que puede combatir la bacteria conocida como Staphylococcus aureus



METODOLOGÍA

El propósito de este ensayo es la optimización del proceso de extracción de aceite esencial de Pericón para posterior a esto someter la sustancia a distintos estudios para evaluar sus distintas propiedades y que pueda ser utilizado como una alternativa de tratamiento coadyuvante o alternativo. Se utilizó materia prima seca de la planta antes mencionada proporcionada por la Dra. Lilia Alejandra Conde Hernandez responsable de la investigación, se extrajo aceite esencial por el método de destilación por arrastré de vapor. (un proceso de separación) para materiales sensibles a la temperatura como los compuestos aromáticos naturales. Se realizaron 3 repeticiones de extracción como 50 gr de materia prima previamente machacada en mortero y 2 litros de agua desionizada, cada repetición respeto un tiempo determinado de 2 y 3 horas, en donde se descarto el exceso de agua para obtener una sustancia con mayor pureza,el tiempo se consideró como una variable importante pues se esperaba que la cantidad de aceite cambiara de acuerdo a este. Las variables relacionadas con la extracción de aceite esencial a partir de materias primas, son: el estado de humedad de la planta al momento de la extracción, tiempo y cantidad, siendo estas últimas las que afectan el rendimiento de los procesos de la extracción, el tiempo de extracción. Se obtuvieron solo dos viales de 0.5ml se realizó la conversión a gramos como lo solicita la fórmula: 0.005 kg, la extracción no fue del todo exitosa pues como ya se mencionó antes existen distintos factores que pueden afectarla. Se realizo la determinación del rendimiento de la extracción. El rendimiento de la extracción del aceite esencial de cada una de las muestras (hojas y algunos tallos), se obtuvo por medio de la presente ecuación. P = M2/M1 * 100 P = Porcentaje de rendimiento de la extracción M2 = Masa final del aceite (kg) M1 = Masa inicial del material vegetal (kg) 100 = factor matemático Donde se obtuvo un rendimiento de: 0.01% de la planta pericón.  


CONCLUSIONES

El rendimiento de los aceites esenciales es considerado bueno al compararlos con los rendimientos de las partes vegetales (hojas y corteza). En el ensayo esto no se puede verificar por que al colocar la materia prima no se realizaron ensayos por separado de cada parte de la planta porque según la literatura el aceite de pericón se recolecta de las hojas o flores. Podría aumentar el rendimiento al realizar más corridas y utilizar mayor cantidad de materia prima separando las flores y hojas. Durante la estancia de verano se logró adquirir conocimientos teóricos del uso y función de aceites esenciales de plantas nativas de nuestro país las cuales pueden ser usadas en la industria farmacológica como tratamiento de distintos padecimientos contribuyendo o como ayuda a la solución del problema o enfermedad
Castillo Martinez Cinthia Paola, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

INMOVILIZACIóN EN CéLULAS DE ESCHERICHIA COLI GENéTICAMENTE MODIFICADAS EN UNA MATRIZ DE ALGINATO-BACL.


INMOVILIZACIóN EN CéLULAS DE ESCHERICHIA COLI GENéTICAMENTE MODIFICADAS EN UNA MATRIZ DE ALGINATO-BACL.

Castillo Martinez Cinthia Paola, Universidad de Guadalajara. Fierros Zamora Monserrat Sarai, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las bacterias son los seres vivos más utilizados en los procesos biotecnológicos, por ejemplo, la enterobacteria E.coli es la principal en la lista, ya sea como medio o protagonista del proceso.  Un microorganismo de uso industrial debe producir la sustancia de interés; debe estar disponible en cultivo puro; debe ser genéticamente estable y debe crecer en cultivos a gran escala. Otra característica importante es que el microorganismo industrial crezca rápidamente y produzca el producto deseado en un corto período de tiempo. Otro requisito importante es la facilidad de separar las células microbianas del medio de cultivo; la centrifugación es dificultosa o cara a gran escala.  Debido a esto, el proceso de utilizar células libres tiene inconvenientes incluyendo la poca reutilización  y baja productividad. La inmovilización de células tiene algunas ventajas por encima de las células libres, como la más fácil separación del medio de reacción, el aumento de la estabilidad celular, la facilidad del proceso de separación y la aplicabilidad al sistema continuo. El método de inmovilización en alginato para inmovilizar células de E.coli utiliza iones bivalentes de (Ca+2 y Ba+2) para la reticulación de alginato.  Las perlas de alginato de calcio difieren en la estabilidad con respecto a las condiciones de reacción. La sensibilidad de las perlas de alginato de calcio frente a diversos reactivos químicos, como el fosfato, citrato y agentes no gelificantes (iones de sodio y magnesio).  Las perlas de alginato de bario muestran una conformación mayormente estable. Con lo mencionado anteriormente, se pretende elaborar perlas de alginato de bario que sirvan como matriz de inmovilización para E. coli genéticamente modificada la cual producirá metabolitos de interés creando así un biomaterial de características idóneas para su posterior uso en procesos biotecnológicos.



METODOLOGÍA

Cultivos En el proyecto se utilizó una cepa de Escherichia coli DH5α genéticamente modificada (E. coli GFPU0), esta contaba con un plásmido el cual expresaba un gen de resistencia a un antibiótico (ampicilina) además de un gen reportero el cual expresaba una proteína fluorescente (GFP). La misma fue cultivada en medio TB, medio LB y medio M9 con una concentración de ampicilina de 100 ppm   Cuantificación de la fluorescencia de E. coli GFPU0 Se realizaron 2 cultivos en tubos de 15mL los cuales contenían medio M9 y en su caso ampicilina a 100ppm, uno de E. coli DH5a GPFU0 y otro de E. coli DH5 sin modificar genéticamente como control de fluorescencia. Se incubaron por 16 horas a 37C° con una agitación de 150rpm. Al término de la incubación se midió la densidad óptica de los cultivos a una longitud de 600nm, y se ajustó la OD de los cultivos a 0.2 con el fin de estandarizar la medición. Enseguida se tomaron 200 µL de los cultivos y se transfirieron a placas de 96 pocillos para realizar la medida de fluorescencia se utilizó un fluorímetro (Fluoroskan, thermoscientific). Se reportó el resultado como absorbancia al cual se le resto el blanco y se compararon los resultados.   Inmovilización de E. coli DH5α GFPU0 en perlas de alginato-BaCl Se realizó un cultivo de E. coli DH5α GFPU0 en 50mL de TB con ampicilina a 100 ppm, se incubó a 37C° por 16 horas a 150RPM. Se tomó una alícuota de 200 µL para realizar conteo de unidades formadoras de colonias y el resto se centrifugó a 8000 rpm por 5 minutos, se resuspendió el pellet celular en buffer Tris-HCL 50mM pH: 8. Este procedimiento se realizó 3 veces para lavar restos de medio TB. El pellet final se resuspendió en 12.5mL de buffer Tris-HCL 50mM pH: 8 el cual fue mezclado con 50 mL de una solución de alginato de sodio al 2.5% para terminar a una concentración final de 2% de alginato en la solución. La solución fue bombeada a través de una manguera (masterflex) de 7 mm diámetro, el cual al final contaba con una aguja de 32 mm elevada a 25 cm de un recipiente con 200mL de BaCl.3M en agitación constante. Al pasar por la aguja el alginato formó perlas que cayeron al BaCl y se solidificó formando perlas que contienen en su interior las células de E. coli DH5α GFPU0. Las perlas reposaron en la solución de BaCl.3M por 1 hora para incrementar su estabilidad, se tomó una muestra de la solución en la cual se solidificaron las perlas para medir las UFC y seguido a esto se pesaron 5 g de perlas y se transfirieron a matraces de 50mL de medio TB, M9 y buffer Tris-HCL 50mM pH: 8. Se inocularon estas perlas en sus respectivos medios a 37C° a 150 rpm.   Conteo de Unidades Formadoras de Colonias (UFC) En todos los casos se tomaron 20 µL de muestra y se realización diluciones seriadas con solución salina (NaCl .9%). Se plaquearon en cajas Petri con agar LB con ampicilina a 100ppm.


CONCLUSIONES

Se logró el encapsulamiento correcto de células de E.coli DH5α GFPU0 dentro de perlas de alginato-BaCl2, logrando así uno de los objetivos específicos planteados al inicio del trabajo, así mismo, se observaron indicios de una correcta viabilidad de las células además de la estabilidad de las mismas y capacidad de reutilización ; lo que nos proporciona mejores cualidades para nuestro proceso, esta técnica de encapsulamiento permite la oportunidad del escalamiento del proceso a niveles mayores y con mayor rentabilidad en la producción de moléculas de interés.
Castillo Xool Jose Luis, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez

SISTEMA DE REALIDAD AUMENTADA PARA DIFUNDIR EL CUIDADO DEL AGUA


SISTEMA DE REALIDAD AUMENTADA PARA DIFUNDIR EL CUIDADO DEL AGUA

Castillo Xool Jose Luis, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El agua es uno de los factores importantes en la vida y en los ecosistemas. El agua está formada por enlaces químicos y por dos átomos, de hidrogeno y uno de oxígeno, que se le conoce como H2o. Actualmente, los gobiernos buscan la manera correcta de mantener limpios y sin contaminación los cuerpos de agua. Se sabe que el agua es indispensable para las actividades que realiza el ser humano en la vida, por eso se debe cuidar y mantener en su estado natural.  El Índice de Calidad del Agua (ICA) es una herramienta que permite evaluar los cuerpos de agua, para saber si se encuentra limpia y sin contaminación. Existen diferentes tipos de contaminación, una de ellas es la turbidez, que se basa en los desechos que se arrojan dentro del agua, haciendo cambiar la trasparencia y que a la larga afecta en la salud de las personas. Otros tipos de contaminación sobre el agua, son el pH, la conductividad de la electricidad, los sólidos disueltos, entre otros. El mayor problema que se presenta en estos tipos de contaminación, es que la gente en el mundo no sabe cómo cuidar el agua y otros que aun sabiendo como afecta en la vida, lo siguen haciendo. El problema se da por que las personas no están conscientes sobre la contaminación y sólo piensan en el momento que están viviendo. No se dan cuenta que están afectando a los ecosistemas y al mundo. Por lo anterior, se propone desarrollar un sistema de realidad aumentada que sirva como una herramienta alternativa para apoyar en el proceso de concientización del cuidado del agua.  



METODOLOGÍA

El proyecto se basó en realizar una aplicación sobre realidad aumentada para concientizar sobre el cuidado del cuidado del agua. Contendrá un inicio y simulará un cuerpo de agua que estará en movimiento, cuando la cámara enfoque al marcador que se introdujo en el programa. Lo importante que mostrará la aplicación es como se da la contaminación, arrojando objetos o desechos sobre el agua. La idea principal es lograr que las personas conozcan que la contaminación sobre el agua, es un factor que está impactando de manera grave en el mundo, y que a la larga afecta en la salud y en los ecosistemas de la tierra. Con toda la información y el sistema que se está realizando en realidad aumentada, se pretende invitar a las personas a cuidar el agua, y explicarles que es lo uqe no se debe hacer para contaminarla y mantenerla en su estado natural. Lo que se utilizó para la realización del proyecto, es descargar e instalar dos programas, (Blender y Unity). Lo primero que se realizo es descargar ambos programas, después se comenzó a practicar en ellos para conocer sus funcionalidades. Seguidamente, se realizó un bosquejo sobre la interfaz de la aplicación, con sus respectivos botones y funciones de cada uno. Así mismo, se continuó trabajando con Blender, creando un efecto de agua, con movimiento y asignándole texturas. Una vez que se terminó con la creación del agua en 3D, se pasó a trabajar con Unity. Para crear la interfaz en Unity sobre realidad aumentada, primero se creo un nuevo proyecto, después, se agregó un canvas. Dentro del canvas se agregó un color que contendrá el inicio de la aplicación. Continuando con el proyecto, dentro del canvas se crearon dos botones. (inicio y atrás) uno para acceder y el otro para cerrar la aplicación. Seguidamente, en el proyecto creado se agregaron tres carpetas y dentro de cada una se introdujeron las imágenes que la aplicación de realidad aumentada deberá reconocer. Una de las imágenes agregadas dentro de las carpetas servirá como marcador. La simulación de agua creada en Blender se exporto a unity, después, se agregó a una de las carpetas, para después hacer que lo recozca la aplicación. El agua en 3D será la que se mostrará cuando la cámara enfoque sobre el marcador ya agregado. Además, se crearon dos diferentes estilos de agua, una demuestra que se encuentra limpia y la otra que se encuentra sucia, simulando la contaminación. Después de tener listas las carpetas agregadas en el programa de Unity, se continuo con la configuración de los botones para poder reconocer todo el sistema creado. Finalmente, sobré la escena que proyectará la aplicación se mostrará un botón, que tendrá información relacionada sobre la contaminación.  


CONCLUSIONES

En el proyecto planteado sobre realidad aumentada, se busca difundir sobre el cuidado del agua y las consecuencias sobre su contaminación. El proyecto es una aplicación de realidad aumentada, donde primero se trabajó con el programa de blender, realizando la creación de una simulación del agua en 3D, para después exportarlo a unity y finalmente hacer que se recozca mediante un marcador. Así mismo, en el programa de unity se realizó el menú principal que contendrá la aplicación y que de esa forma el usuario podrá acceder. Con todo el sistema de trabajo realizado durante la estancia, se pretende que la aplicación en realidad aumentada sea de buen provecho y ayuda para las personas. Se espera de esa manera apoyar a que el mundo entre en conciencia, deje de contaminar y se pueda cuidar agua.      
Castrejon Duran Daniela Alejandra, Universidad Politécnica de Sinaloa
Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

MOVIMIENTOS DE ROBOT HUMANOID BIOLOID


MOVIMIENTOS DE ROBOT HUMANOID BIOLOID

Castrejon Duran Daniela Alejandra, Universidad Politécnica de Sinaloa. González Morales Martha Carolina, Universidad Politécnica de Sinaloa. Rodriguez Castro Hector Emiliano, Universidad Politécnica de Sinaloa. Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Un robot humanoide es aquel robot que asimila la morfología y movilidad de un ser humano con el que se pretende simular la manera en la que interactúa con su entorno. En la actualidad existen muchos kits de robótica educativa como es el caso del Bioloid, un robot humanoide que funciona mediante 18 motores dyamixel y se puede programar para que realice ciertas acciones deseadas. Idealmente se pueden programar ciertas rutinas específicas mediante su controlador principal el CM-530, sin embargo, es posible utilizar otros módulos para controlarlo; tal es el caso del ESP32, un procesador de 32 bits que es compatible con la interfaz de Arduino. La mayor problemática que se presenta al utilizar este tipo de controlador es que no se cuenta con información que pueda ser utilizada como referencia específicamente para el objetivo deseado, que es el lograr que el robot Bioloid realice ciertas acciones basándose en los colores detectados en una pista a partir de la información obtenida por una cámara, indicándole así la acción que se debe realizar.



METODOLOGÍA

Para darle resolución a la problemática, se necesitó de mucho tiempo de investigación y reconocimiento de distintos entornos de programación que, anteriormente, eran desconocidos. La primera actividad llevada a cabo fue la obtención de distintos softwares que serían usados conforme se fuera avanzando con el tajo asignado. Los softwares descargados fueron RoboPlus y  Eclipse cpp. Se dio inicio a la exploración de las plataformas, usando los motores Dynamixel y el CM 530, controlador por default del bioloid,  para simular movimientos que fueron especificados por medio de la interfaz de RoboPlus Manager, siendo esta la más sencilla de manipular al ser básicamente un contenido de las propiedades de cada motor. Se entendió la forma de cambiar ID, la definición de posición central y velocidad predeterminada. Cuando se hubo entendido el funcionamiento de Manager, se pasó a RoboPlus Motion, la cual contiene más opciones de manejo para la elaboración de movimientos. Posteriormente, se emprendió la tarea de adentrarse en el Software Eclipse cpp, el cual cuenta con una interfaz muy similar a cualquier otra destinada a la programación. Teniendo como objetivo el utilizar la placa ESP32 para el proyecto, se concentró la mayor parte del esfuerzo y tiempo en entender el funcionamiento de dicho controlador, que hasta entonces, resultaba ajeno a nuestro conocimiento. Al inicio, se llevó a cabo programación sencilla en Visual Studio Code, tomando como entorno de programación Arduino ide y añadiendo librerías según se necesitara. Se llevaron a cabo movimientos de uno, dos y tres motores; llegando así a controlar una extremidad completa. A partir de ahí se programaron movimientos a los dieciocho motores. Se crearon primitivas para el robot, desde pasos hasta posiciones complejas, todas estas con el propósito de ser utilizadas después al llamarlas mediante comandos. Los comandos se programaron en Visual Studio, utilizando el monitor serial se pudo llamar la posición o rutina deseada. Después de tener dominado el monitor serial se creó un entorno html con ayuda de la librería wifi.h, gracias a la cual se pudo controlar el robot desde un servidor web por medio de algún dispositivo conectado a la misma red que el controlador. Así, se logró la comunicación inalámbrica con este. Para la programacion del sistema de vision, se utlizó un sistema embebido Arduino Uno, que servia para establecer comunicacion entre la CMUCAM5, que es la camara que se pretende que el robot lleve integrada para poder desenvolverse de manera propia. Se utilzó previamente el software de PixyMon que es el software predeterminado de las Pixy Cam, este software ayudó a programar lo que la cámara percibia y con el arduino filtrar esa información para posteriormente accionar los movimientos ya desarrollados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos sobre cómo se puede utilizar el ESP32 para controlar cada uno de los motores que forman parte del robot Bioloid y así poder manipularlos para que realicen ciertas posturas establecidas a velocidades definidas; ayudando así a establecer los movimientos base o primitivas que permitirán al robot recorrer la pista dependiendo cada uno de los obstáculos que se puedan presentar. De igual manera, se logró realizar la comunicación inalámbrica con el ESP32 para así poder asignarle ciertas rutinas mediante el uso de botones, los cuales mandan la instrucción sobre el movimiento que se quiere que se realice; sin embargo, aún no se logra el objetivo de que el robot sea capaz de identificar por sí mismo qué movimiento debe realizar basándose en el color detectado. Se espera lograr la comunicación de la cámara con el ESP32 para que así se puedan generar condiciones que ayudaran a establecer bajo que circunstancias el robot debe moverse y que movimiento accionar
Castro Burgos Olga Mercedes, Universidad Autónoma de Occidente
Asesor: M.C. Gonzalo Soberanes Flores, Universidad Politécnica del Valle del Évora

UNA RED MESH DE SENSORES PARA EL CAMPO AGRICOLA


UNA RED MESH DE SENSORES PARA EL CAMPO AGRICOLA

Castro Burgos Olga Mercedes, Universidad Autónoma de Occidente. Asesor: M.C. Gonzalo Soberanes Flores, Universidad Politécnica del Valle del Évora



PLANTEAMIENTO DEL PROBLEMA

La agricultura es una de las principales actividades económicas del Estado de Sinaloa, actualmente debido a los cambios climáticos se encuentra en riesgo, el incremento de la población exige un incremento en la producción de las cosechas y debido a el estado actual del campo agrícola es difícil cubrir las necesidades. Es necesario encontrar soluciones optimas y accesibles para el campo agrícola, uno de los avances tecnológicos que ha favorecido a la agricultura de presión son las redes de sensores, estas redes recolectan información sobre el ambiente y el suelo del lugar donde está la siembra. Una red de malla con sensores ayudaría no solo a recolectar la información si no también poder subir esos datos a la nube y poder visualizarlos con una aplicación móvil, de esta manera ciertas variables del campo como temperatura del ambiente y suelo, humedad del suelo y ambiente y luz solar estarían disponibles en el dispositivo móvil, de esta manera se puede tener un cuidado más específico.



METODOLOGÍA

Se realizó la configuración inicial de la tarjeta de desarrollo Particle Argon y su conexión a Internet mediante WiFi, luego se realizó la configuración inicial de la terjeta Particle Xenon y su interconexión con la tarjeta Particle Argon mediante bluetooth. Se realizaron pruebas iniciales de programación de la tarjeta Particle Xenon y enseguida se fueron agregando uno a uno los diferentes sensores. Para cada sensor se realizó una consulta en Internet sobre sus características, su forma de conectarse y su manera de programarse. Una vez que se dominaba el uso de un sensor este agregaba al programa principal de la tarjeta Particle Xenon. Se realizaron diferentes pruebas para el envío de mensajes a la Consola del entorno de desarrollo Particle, así como el uso de la nube de Particle, tanto para subir información como para controlar dispositivos remotos y una vez dominada esta funcionalidad se agregó al programa principal del Particle Xenon. Se desarrolló una aplicación móvil para Android, con el uso de la plataforma MIT App Inventor 2. Con esta aplicación se accede a la nube de Particle, se extrae la información de los sensores y se presenta al ususario para su adecuada utilización.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el uso de las tarjetas de desarrollo Particle Argon y Xenon, su entorno de programación y desarrollo. El menejo de sensores para conocer las principales variables ambientales y del suelo agrícola. El potencial que no ofrece el uso de la nube para la consulta de información remota y cómo esta información podría ser de gran ayuda al campo agrícola Sinaloense.
Castro Bustillos Ruth Eunice, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtro. Marco Antonio Ramírez Hernández, Universidad Tecnológica de Xicotepec de Juárez

RECOLECCIóN Y CONCENTRACIóN DE DATOS PARA EL ANáLISIS DE FACTIBILIDAD DE LA PLATAFORMA IXCHEL, HERRAMIENTA DE APOYO PARA LA GESTIóN OPERATIVA DE LA CLíNICA ESCUELA DE TERAPIA FíSICA DE LA UNIVERSIDAD TECNOLóGICA DE XICOTEPEC DE JUáREZ, PUEBLA


RECOLECCIóN Y CONCENTRACIóN DE DATOS PARA EL ANáLISIS DE FACTIBILIDAD DE LA PLATAFORMA IXCHEL, HERRAMIENTA DE APOYO PARA LA GESTIóN OPERATIVA DE LA CLíNICA ESCUELA DE TERAPIA FíSICA DE LA UNIVERSIDAD TECNOLóGICA DE XICOTEPEC DE JUáREZ, PUEBLA

Castro Bustillos Ruth Eunice, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtro. Marco Antonio Ramírez Hernández, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

Las tecnologías de información y comunicación se encuentran inherentes en los nuevos procesos de la industria, la medicina, la educación; adherida a la sociedad y a los paradigmas construidos en base a la experiencia de la misma. Por lo anterior, se define que las implementaciones de la innovación tecnológica tienen la finalidad de optimizar el recurso como el tiempo, el dinero, las personas, resguardar la información e integridad de los individuos, por dar ejemplo de los múltiples beneficios que se han generado. De modo que, las instituciones educativas no quedan exentas de aprovechar los beneficios anteriores, se encuentra en fase de desarrollo prototipado, por parte de la Universidad Tecnológica de Xicotepec de Juárez, Puebla, una plataforma virtual llamada IXCHEL. El mencionado ente de formación profesional, específicamente el cuerpo académico de Tecnología de Información, se ha enfocado en la clínica-escuela de terapia física, estimulación temprana y desarrollo neurolingüística y motriz, ubicada en el campus universitario. La principal función que se pretende cumplir con IXCHEL, es brindar apoyo a la optimización del proceso en cuanto a la gestión de citas, la atención del paciente, entre otras funciones, para evitar la deserción del tratamiento terapéutico. La problemática presentada, es evidente al situarse la plataforma virtual IXCHEL como etapa prototipo, por lo que es imprescindible la documentación que avale su metodología como investigación experimental descriptiva, sobre todo como empresa socialmente responsable, comprometida con respetar la confidencialidad de la información de los pacientes en tratamiento, asimismo, generar una propuesta de estimación de costos, presentar la normativa oficial que avale sus acciones en cuanto a la seguridad de información del expediente clínico, definir los alcances, limitaciones, atributos y oportunidades de mejora, con el fin de justificar los costos operativos y los requisitos predeterminados al momento de implementarlo en la clínica escuela de terapia.



METODOLOGÍA

Se utilizaron las herramientas tecnológicas para la recolección de datos de manera electrónica, como aplicación de encuestas en línea al personal operativo y administrativo para el estudio de mercado. Es decir, se identificó el personal indirecto a la clínica, personal administrativo que no trabaja en la clínica, pero que labora en Servicios Universitarios, reconocidos mediante observación directa, para descubrir la reacción de aceptación ante la plataforma, sobre todo si destinaría del recurso del área en la que desempeña sus labores, para la implementación de IXCHEL, y si cuenta con injerencia para hacerlo. Por otro lado, al personal operativo de la clínica, como médico cirujano, terapeuta, terapeuta practicante, laboratorista, entre otros, se le aplicó una encuesta en línea, en la que se le preguntaban sus funciones laborales, los aspectos que generaban el incremento del tiempo en el proceso al atender un paciente, cuales son algunos de los problemas que le gustaría que la plataforma IXCHEL solucionara, con qué tipo de dispositivo móvil contaba para adecuar la aplicación digital a sus requerimientos, entre otros aspectos para esclarecer las necesidades del cliente directo. Mientras tanto, se realizó la búsqueda de normativa oficial que avale los requisitos del expediente clínico utilizado en la unidad de terapia física, para que, una vez concluida la base de datos electrónica de la plataforma virtual, se respalde su utilización ante organismos gubernamentales sanitarios y educativos que soliciten su certificación. Igualmente se realizó la pesquisa documental de los elementos hardware, software, entre otros elementos para la propuesta de estimación de costos, con la finalidad de demostrar la cantidad de recurso económico que se necesitará para la fase de su implementación.


CONCLUSIONES

Durante la estancia, se logró aplicar los conocimientos de gestión administrativa de la formación profesional para obtener las bases teórico-prácticas de la plataforma virtual IXCHEL. Asimismo, se adquirió terminología del ámbito tecnológico-informático y metodología para llevar a cabo un análisis de factibilidad de un proyecto de software. Sin embargo, al encontrarse la plataforma IXCHEL, en etapa prototipo y en fase de recolección de información para validar sus acciones, asimismo, referenciando a la confidencialidad del proyecto y del expediente clínico de los pacientes, inclusive de las cifras de gastos de manteamiento de la Institución, no se pueden mostrar los datos obtenidos. Se espera seguir trabajando a distancia para continuar con el análisis de factibilidad de la plataforma IXCHEL y cumplir los objetivos establecidos.
Castro Carrillo María Mercedes, Universidad Autónoma de Sinaloa
Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)

DISEÑO DE UN PROTOTIPO DE VIVIENDA DE INTERÉS SOCIAL CON MATERIALES VERNÁCULOS EN LA CIUDAD DE MANIZALES


DISEÑO DE UN PROTOTIPO DE VIVIENDA DE INTERÉS SOCIAL CON MATERIALES VERNÁCULOS EN LA CIUDAD DE MANIZALES

Castro Carrillo María Mercedes, Universidad Autónoma de Sinaloa. Rebollar Loyola Carlos Javier, Universidad Vizcaya de las Américas. Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las viviendas de invasión  se encuentran ubicadas en zonas de alta vulnerabilidad y no utilizan una normatividad adecuada para la construcción de las mismas, un ejemplo claro en la ciudad de Manizales se localiza en el barrio Bajo Andes donde estas viviendas fueron construidas por los mismos habitantes al pasar de los años en terrenos privados o que hacen parte del estado, por tal motivo surge la idea de  diseñar una vivienda de interés social y prioritaria donde se aplique la norma técnica colombiana NSR-10 para la construcción sobre laderas.



METODOLOGÍA

Se realizará bajo un método mixto, éste consta de tres etapas las cuales se describen a continuación. Para dar continuidad con el proyecto se trabajarán tres puntos clave, en primer lugar se realizará un diagnóstico acerca de las viviendas de invasión en la ciudad de Manizales, de lo cual obtendremos los siguientes puntos: -Análisis de materialidad de las viviendas de invasión. -Búsqueda de información sobre viviendas vernáculas.  -Cuadro comparativo de materiales utilizados en viviendas de invasión y vernáculas. Posterior a esto la Consulta de la norma NSR-10 par de igual forma poder obtener los siguientes datos: -Exigencias de la norma técnica Colombiana para viviendas sobre laderas. Y como último paso se procederá a la realización del Diseño planimétrico de la vivienda y Modelado 3D de la vivienda.


CONCLUSIONES

Con el desarrollo de la investigación se logran realizar fichas de análisis formal y funcional de los componentes constructivos (estructurales y no estructurales) de las viviendas de invasión y vernáculas en la Ciudad de Maizales, estas fichas permitirán, según las encuestas realizadas a la población objeto, consolidar el diseño arquitectónico y civil que defina la espaciosidad y conformación de unidades de vivienda prioritaria y/o vivienda de interés social a bajo costo y con bajo impacto ambiental, pero un gran impacto social logrando determinar que la arquitectura social, pese a que generalmente es construida con bajo recurso, no limita de ninguna forma su calidad espacial, formal y funcional; permitiendo que poblaciones de estratos 1 y 2 apropien sus viviendas y fundamenten su convivencia y soporte laboral en el mismo cuidado y conservación de su hogar.
Castro Flores Edith Alejandra, Instituto Tecnológico de Sonora
Asesor: Dr. Martha Corrales Estrada, Instituto Tecnológico y de Estudios Superiores de Monterrey

LOS COWORKING SPACES COMO UN NUEVO MODELO DE TRABAJO.


LOS COWORKING SPACES COMO UN NUEVO MODELO DE TRABAJO.

Álvarez Carlón Alondra, Instituto Tecnológico de Sonora. Castro Flores Edith Alejandra, Instituto Tecnológico de Sonora. Asesor: Dr. Martha Corrales Estrada, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La innovación y el emprendimiento son apuestas importantes en el desarrollo de nuevos modelos que permitan el crecimiento de la industria hoy en día, se ha demostrado que los países con mayor crecimiento económico han fortalecido sus sistemas de investigación y desarrollo. Los modelos de trabajo asumidos en este verano de investigación estuvieron basados en innovación, emprendimiento y tecnología. Se abordaron tres temas relevantes los cuales son: Estudio de Casos, Coworking Spaces y Design Thinking. El estudio de casos permite analizar las necesidades de una organización para llegar una conclusión basada en la captura de valor mediante aspectos innovadores. Es una manera en que el lector se convierte en crítico de la situación y se guía a desarrollar una competencia de resolución de problemas. Los Coworking Spaces son un modelo de trabajo en el cual se comparten los espacios en donde las personas se desarrollan profesionalmente. Son parte del fenómeno de la economía compartida y en los últimos años han adquirido relevancia en el segmento de freelancers y emprendedores, ya que el modelo les proporciona elementos necesarios sin limitarlos económicamente y ofreciéndoles un networking que les ayuda a desenvolver su potencial intelectual y social. El Design Thinking por su parte es una metodología que genera ideas innovadoras y se centra en entender y dar solución a los usuarios. Es típicamente entendido como el resultado del proceso que resulta en muchas posibilidades de innovación, y de esas posibilidades, es elegida la idea más viable y óptima. En México, estos modelos de negocio son un concepto emergente que aún es desconocido en muchas partes, perociudades grandes del país (Ciudad de México, Monterrey, Guadalajara, etc.) existe un mercado competido en este rubro. La principal problemática que se presenta ante estos nuevos modelos de trabajo es la falta de difusión, lo cual origina un desconocimiento en la población ante el tema y que se sigan viviendo viejas prácticas.



METODOLOGÍA

Se siguió una metodología de investigación que constó de cuatro partes: La primera fue la explorativa: en ella se hizo una observación directa de todos los Coworking Spaces en la ciudad de Monterrey y también se hizo una búsqueda de fuentes secundarias por medio de las fuentes digitales. Se centró en tres entidades solamente y se siguió una metodología LEAD. LEARN: En esta parte se llevó a cabo una revisión de artículos científicos. ENERGYZE: Se elaboró un instrumento para aplicar a las fuentes primarias (CWS bajo estudio). APPLY: Se contactó a los CWS y se programaron citas para poder asistir a su locación, ahí se aplicaron de tres a cuatro entrevistas (Una al fundador, una al administrador y una o más a los Coworkers). DIFUSE: Los resultados se prepararon y se metieron en rubricas para su posterior análisis. La segunda etapa fue la cualitativa: Se estudió un punto de vista interno del costo transaccional de la economía, el conocimiento, recursos y comunidad basada en teorías por colaboración. Caso de estudio: En un contexto especifico se buscó estudiar a ejemplos de empresas que han ganado el premio de la Fundación del Premio Nacional de Tecnología e Innovación, esto con el objetivo de comprender el desarrollo que obtuvieron estas empresas al crear una mejora a su empresa.  Fuentes Primarias: Tres Coworking Spaces Mexicanos, específicamente de la ciudad de Monterrey fueron estudiados: Coworking Monterrey, Compass Centro de Negocios y Cowork y EKA Cowork & Business. En la parte de Design Thinking se analizó la identificación de perfiles, metodologías y soluciones que forman parte de este fenómeno. De acuerdo a Chen (2013), Design Thinking es definido como la transferencia de la filosofía del diseño de la organización en el diseño de actividades y resultados,  su implementación en las organizaciónes exitosas implica 4 factores ideales: La creación y difusión de perfiles de usuarios finales de la organización Obtención de resultados de diseño de los competidores para estimular el pensamiento de diseño Usar la imagen de la marca para establecer un lenguaje de diseño. El cultivar una estructura organizacional orgánica para incrementar la colaboración de los trabajadores.   


CONCLUSIONES

Durante la estancia de verano realizada se adquirieron conocimientos tanto prácticos como teóricos respecto a temas relacionados con la economía compartida y todo lo que engloba los fenómenos de los Coworking Spaces y Design Thinking. Los casos de estudio de la Fundación del Premio Nacional de Tecnología e Innovación mostraron una necesidad resuelta basada en innovación y tecnología, asegurando la creación de valor con una propuesta de captura a través de la monetización; asimismo, se sabe que los tiempos son cambiantes y las necesidades también, las nuevas formas de trabajo han llevado a que se desarrollen nuevos modelos, uno de esos son los Coworking Spaces, los cuales tienen un impacto significativo en las personas que están comenzando a desenvolverse laboralmente, ya que les proporciona una red de conexiones que les permite darse a conocer más rápido y también los costos son mucho más económicos por lo que es una gran idea para los freelancers y empresas pequeñas que desean crecer, al pertenecer a la economía compartida, se puede determinar como una metodología que integra diversidad de perfiles con una metodología estructurada en función de soluciones innovadoras. Además, con ayuda del Design Thinking, (el cual se puede emplear en cualquier organización) aplicar metodologías que sean creativas, positivas y con diversos puntos de vista, hace que la creación e ideación de proyectos tecnológicos tengan una visión hacia el futuro, siendo constantes en cuanto a su actualización, y siempre complaciendo las necesidades del consumidor final.
Castro Gameros David, Universidad Autónoma de Ciudad Juárez
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO


ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO

Arteaga Nieto Daniel, Universidad Politécnica de Texcoco. Castro Gameros David, Universidad Autónoma de Ciudad Juárez. Ortega Contreras Karen Rubi, Universidad Politécnica de Texcoco. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La pregunta de investigación es la siguiente: ¿Cuál es aquella necesidad de la sociedad que se puede suplir con tecnología de bajo costo y cómo hacerlo? En la actualidad la creación de políticas públicas que contribuyan a mejorar la calidad de vida de los habitantes de las urbes metropolitanas se ha visto sesgada por la injerencia que los contaminantes ambientales tienen en la salud de los habitantes. Para proponer las medidas necesarias de precaución es necesario contar con la evidencia científica que respalde las decisiones del estado. La ciudad de Cali, al igual que muchas ciudades latinoamericanas cuenta con una red de monitoreo de calidad del aire, en específico cuenta con 9 estaciones de monitoreo ambiental, las cuales tienen distintos sensores que miden la concentración de partículas PM10 y PM2.5, Ozono Troposférico (O3), Dióxido de Azufre (SO2) y Óxido de Nitrógeno (NOx). Sin embargo, todas las estaciones adolecen de, al menos, dos sensores de los 5 requeridos por la OMS. Objetivo General: Suplir la necesidad de capturar información sobre los indicadores que determinan la calidad del aire que permiten la creación de políticas públicas sustentadas en evidencia científica en ciudades que adolezcan de la tecnología necesaria para hacerlo. Es necesario aclarar los objetivos específicos de esta investigación: Construir una estación de monitoreo de calidad del aire con sensores de bajo costo. Montar la estación de monitoreo en un dron que permita su movilidad aérea. Medir la concentración de 4 contaminantes del aire y 2 parámetros físicos: O3, CO, material particulado, H2, y temperatura y humedad. Transmitir la señal medida a un display en que el usuario pueda tener acceso a los datos de los parámetros ya decodificados. 



METODOLOGÍA

Para dar cumplimiento a los objetivos específicos de la investigación se plantea la siguiente metodología específica para cada uno de ellos. Por medio del uso del equipo y material concesionado por el investigador el M.C. Andrés Garzón Valencia se llevó a cabo la construcción de la estación; de manera inicial se construyó en un Protoboard utilizando equipo electrónico de uso didáctico. En primer lugar, se llevó a cabo el inventariado del equipo; se investigó el funcionamiento, por medio de la consulta de sus hojas de datos, de cada uno de los sensores a ser utilizados en la construcción de la estación; se comprobó su funcionamiento en lo individual por medio de su conexión en un Protoboard y una computadora que permita la comunicación entre el microcontrolador y el programador. Una vez comprobado el funcionamiento de los sensores, todos fueron integrados en un mismo circuito que tiene cómo microcontrolador un Arduino UNO, el cual fue programado para recibir la señal transmitida por los sensores y decodificarla para ser leída por el usuario en un display.


CONCLUSIONES

Resultados parciales: Fue posible construir la estación de monitoreo utilizando el microcontrolador Arduino y cuatro sensores, el MQ-7 de CO, el AM2301 de Temperatura y Humedad, el MQ-8 de H2 y el MQ-131 de O3. De los sensores utilizados se obtuvieron sus lecturas, siendo incapaces de calibrarlos, puesto que es necesario hacerlo bajo condiciones físicas y químicas a las que no se tenía acceso. Sin embargo, se confirma que los sensores funcionan de manera correcta y demuestran una alteración en sus señales cuando son expuestos a distintas concentraciones de contaminantes de la manera esperada. Su montura en el dron no fue posible, puesto que fue necesario utilizar un dispositivo de comunicación inalámbrica al que no se tenía acceso por limitante en presupuesto, pero mediante literatura y experiencias en otros proyectos, se conoce que habría sido posible comunicarse, con toda fiabilidad, con la estación de monitoreo montada en el dron y recibir su señal en tiempo real. Conclusiones: Se concluye que es posible construir una estación de monitoreo de la calidad del aire que pueda ser montada en un dron. La tecnología existe y existe el marco tecnológico y empírico que permite su desarrollo. No es una tarea sencilla y requiere conocimientos, no sólo electrónicos e informáticos, también químicos, lo cual es muy importante para el desarrollo completo del proyecto. No fue posible concluir este proyecto de manera integral abordando todos los objetivos específicos, pero fue posible conocer qué es lo necesario para concluirlo y se descubrió un área, ya existente, pero con mucho potencial de desarrollo, en que los drones pueden utilizarse para el beneficio de una sociedad.
Castro Gaytán Oscar, Universidad de La Salle Bajío
Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)

DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.


DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.

Aguilar Burgoin Hector Alfredo, Universidad Autónoma de Baja California Sur. Castro Gaytán Oscar, Universidad de La Salle Bajío. Toledo Cornejo José Alexis, Universidad Autónoma de Baja California Sur. Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Existen distintas formas de generación de energia eléctrica, la forma más común es por medio de combustibles fósiles. Los cuales son caros y contaminantes; ya que representan alrededor del 60% de las emisiones mundiales de gases de efecto invernadero. El aumento en la necesidad de energía, y la necesidad de la reducción de emisiones; están provocando numerosas investigaciones en fuentes de energía alternativas o diversas maneras de reducir la liberación de partículas contaminantes. Pese a que Colombia genera cerca del 80% de su electricidad por medio de hidroeléctricas, aún tiene dependencia de combustibles finitos y perjudiciales para el medio ambiente. Añadamos a esto, que tiene un gran potencial solar que puede ser aprovechado mediante sistemas solares fotovoltaicos, sobre todo en la zona del Atlántico, justo donde se encuentra la institución a estudio.



METODOLOGÍA

De manera general, este trabajo estimará el número de paneles fotovoltaicos que podrán ser instalados en el área disponible del Politécnico de la Costa Atlántica. Posteriormente, utilizando el software Sketchup, se realizará un modelo 3D de la zona junto con los paneles fotovoltaicos y sus dimensiones reales. Con el software PVsyst se procederá a efectuar la simulación del sistema, con esto se obtendrá la generación total de energía además de las perdidas en eficiencia por sombreado. Asimismo, se estimará la reducción de emisiones de gases de efecto invernadero que se evitaran al instalar el sistema fotovoltaico. Finalmente, se realizará el analisis financiero para ver la rentabilidad del proyecto.


CONCLUSIONES

Se espera que la rentabilidad del proyecto fotovoltaico sea favorable debido a los altos precios de las tarifas eléctricas en Colombia. Además, en este país se aportan bonos financieros a instituciones o empresas que generen energia limpia y renovable. Por otra parte, se espera que la reducción de emisiones contaminantes sea pequeña, ya que al generar cerca del 80% de la electricidad de Colombia por medio de centrales hidroeléctricas el factor de emisiones para partículas contaminantes se mantiene bajo en comparación de países como México
Castro Moreno Esau Isbosset, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

BALANCEO DE LÍNEA EN EL ÁREA DE PROCESO DE HULE GRANULADO EN LA EMPRESA BENEFICIADORA “FÉNIX”.


BALANCEO DE LÍNEA EN EL ÁREA DE PROCESO DE HULE GRANULADO EN LA EMPRESA BENEFICIADORA “FÉNIX”.

Castro Moreno Esau Isbosset, Instituto Tecnológico Superior de Ciudad Hidalgo. Molina Rodríguez Kayna Sayonara, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las pequeñas y grandes organizaciones deben preocuparse por no dejar de ser competentes de acorde con las exigencias demandadas por los clientes y por la competencia, teniendo un desarrollo de la mejora continua adaptándose a las necesidades brindando productos de calidad basada en niveles de productividad. En las empresa beneficiadora de hules FENIX no se tiene un balanceo de sus líneas de producción,  sino que se implementó  en alguna ocasión de cierta  manera, ha  ido  creciendo  la empresa  y  no se hacen  los ajustes  correspondientes. La empresa beneficiadora de hule Fénix, es encargado de producir hule granulado en estado de deshidratación con diferentes grados de impureza. Dicha empresa cuenta con diferentes áreas dentro de la producción, tales como; Almacén de materia prima Área de molienda Área de prensado Área del horno deshidratador Almacén de producto Zona de carga de producto Partiendo desde el área de deshidratación, en el horno en que ocurre esta acción se encuentra que no tiene un control de la producción debido a la capacidad del horno que no es la suficiente para abastecer a las que también afecta al área de corte, prensado, empaquetado, creando tiempos inactivos y ociosos en estas áreas, por lo tanto, la línea de producción de hule granulado no está equilibrada, impidiendo la optimización de las máquinas, equipos y las actividades de los trabajadores para la producción de hule granulado.



METODOLOGÍA

Uno de los primeros pasos antes de comenzar con el balanceo de líneas es tomar conciencia de la necesidad de balancear las líneas de producción, conocer las tareas que se realizan por los trabajadores o máquinas. Se determino la demanda por día, el tiempo de producción diario Cabe mencionar que este balanceo de línea se basara en la regla del número mayor de tareas subsiguientes. Pasos para el balance de una línea de producción: 1. Especificar las relaciones secuenciales entre las tareas utilizando un diagrama de procedencia: Para esto se asistió a la empresa para conocer la distribución de la planta, las tareas que se realizan dentro de cada área ya sean maquinas o trabajadores, así mismo la primera tarea y sus tareas de precedencia. 2. Determinar el tiempo del ciclo requerido(C). Para la determinación del tiempo ciclo se toma en cuenta el tiempo de producción por día y la producción diaria requerida en unidades. Como resultado nos dio que el tiempo ciclo es el que indica el tiempo máximo que se tiene para la realización de una tarea. 3. El siguiente paso fue determinar el número de estaciones de trabajo (N) requeridas para satisfacer la limitación del ciclo, esta brinda una solución teórica de estaciones de trabajo que se requieren para que se cumpla con el tiempo ciclo (el número real puede ser mayor). Aquí se toma la suma del tiempo de las tareas (T) y el tiempo ciclo ya calculado. 4. En este paso se selecciona la regla de asignación en este caso será, de acuerdo a la asignación de las tareas en las diferentes estaciones de trabajo dado el número mayor de tareas subsiguientes. 5. Asignar tareas, una a la vez, a la primera estación de trabajo hasta que la suma de los tiempos sea igual al trabajo del ciclo, una vez determinada la regla de asignación. Las tareas se dividieron por estaciones que no excedieran el tiempo ciclo. 6. Este paso evaluara la eficiencia de equilibrio de las estaciones una vez realizados los 5 pasos anteriores, en este punto se evalúa con ayuda de la suma de los tiempos de las tareas, el número de estaciones de trabajo reales (N) y el tiempo ciclo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y practicos en cuanto al balanceo de líneas de producción mediante datos reales de las tareas de la empresa, sin embargo, de acuerdo a la metodología del balanceo de líneas una línea de producción se dice estar balanceada cuando la eficiencia es igual o mayor a un 95%, realizado el balanceo de líneas en la empresa se determinó un 87% de eficiencia con la propuesta de 29 estaciones de trabajo, elaborada con un tiempo ciclo de 165 segundo, con una producción deseada de 240 pacas de hule cada una de 35 kg de producto terminado  en 11 horas de trabajo, con la regla de número mayor de tareas subsiguientes, por lo tanto se puede concluir que la línea de producción no fue balanceada de forma satisfactoria, aunque si se significó un aumento de la eficiencia en comparación del estado actual.
Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Castro Salmerón María Fernanda, Universidad de Colima
Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)

ELABORACIóN DE PREFABRICADOS NO ESTRUCTURALES PARA ACABADOS DE USO DOMéSTICO A PARTIR DE RCD


ELABORACIóN DE PREFABRICADOS NO ESTRUCTURALES PARA ACABADOS DE USO DOMéSTICO A PARTIR DE RCD

Castro Salmerón María Fernanda, Universidad de Colima. Villegas Pulido Miguel Antonio, Universidad Autónoma de Sinaloa. Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El sector de la construcción ha crecido de forma exponencial en las últimas décadas, y con él, la producción de residuos de construcción y demolición, los cuales, en muchos casos, han ido a parar al medio ambiente, afectándolo en muchos sentidos. Los residuos de construcción y demolición (RCDs) son materiales de desecho, generados en las actividades de construcción, demolición y reforma de edificaciones, obra civil y espacio público. Actualmente en algunas ciudades no se realiza el aprovechamiento de los residuos de construcción y demolición, lo único que se realiza es el almacenamiento de estos en una escombrera aumentando el impacto ambiental. Los RCD son potencialmente aprovechables para emplearlos como agregado para la elaboración de productos no estructurales, decorativos y funcionales en una vivienda, permitiendo reducir costos y reutilizando estos elementos.



METODOLOGÍA

El paso inicial es la trituración de RCD (de concreto hidráulico) en partículas aproximadamente de ¾ con ayuda de la trituradora de escombros 2 FTR, posteriormente se realizó el estudio granulométrico del agregado reciclado de acuerdo con la Norma Técnica Colombiana No. 174. Se propuso una serie de productos para elaborar con este tipo de material. Se fabricó una encuesta con una muestra poblacional de 230, conformada por diferentes apartados donde la población manizaleña determinaba si compraba o no el producto cuánto pagaría por él, las características que desearía que tuviera, entre otras cosas. Este estudio de mercado fue realizado de manera física y en línea. De acuerdo con los resultados se seleccionaron los 3 productos de mayor aceptación. Se llevó a cabo la obtención de los moldes, así como las pruebas necesarias para la caracterización del agregado se sometieron 3 muestras a las mencionadas, con los resultados se realizó el diseño de mezcla. El proceso de mezclado fue el mezclado en dos etapas y finalmente las pruebas resistencia a compresión de los elementos fabricados.


CONCLUSIONES

Los resultados obtenidos al momento los conforma el análisis granulométrico y la caracterización del agregado, así como el estudio de mercado. En el primero los datos sobresalientes son el tamaño máximo del agregado, con valor de ¾, dato importante para los diseños de mezcla. En cuanto a las propiedades físicas el dato que sobresale es el porcentaje de absorción, con un promedio de 6.83. El estudio de mercado es conformado por realizadas. Los productos que presentaron mayor demanda fueron la lámpara con una aceptación del 89%; el lavamanos con una aprobación del 83.3 %; ye le estante para libros con 82.6 % de agrado. Se concluye que el material reciclado cuenta con una granulometría fuera de rango, así como un porcentaje de absorción muy elevado, por lo que se aplicó un método de mezclado distinto al tradicional, llamado mezclado en dos etapas, ayudando al problema del aumento de masa por absorción de agua en el agregado. Con este proyecto esperamos obtener unos productos de calidad en todo sentido. Con valores de resistencia adecuados tomando en cuenta que el agregado grueso es producto de RCD.
Castro Sánchez María Luisa, Corporación Universitaria del Caribe (Colombia)
Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango

SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE


SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE

Aguayo Tut Oscar Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Barzalobre Cruz Ulises, Instituto Tecnológico Superior de Huauchinango. Castro Sánchez María Luisa, Corporación Universitaria del Caribe (Colombia). Ventura Ahumada Víctor Manuel, Universidad de Colima. Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diversos dispositivos que le ayudan a las personas con discapacidad visual a utilizar el sistema Braille, un ejemplo de ello son las distintas impresoras y máquinas de escribir que atañen la estructura de éste sistema, pero dichos dispositivos solo suplen la necesidad básica de comunicación e intercambio de conocimiento y en estos tiempos de tecnología e innovación eso ya no es suficiente, puesto que ahora la preocupación tiene una trascendencia más avanzada y enfocada a la comodidad de las personas que utilizan este sistema y por ende los dispositivos, además de lo expuesto anteriormente hoy por hoy no existe un sistema ergonómico que integre los sistemas de escritura, lectura e impresión para el sistema Braille, que le permita a la persona con discapacidad visual escribir de forma cómoda, leer lo que está escribiendo, tener la oportunidad de corregir si tuvo algún error y luego imprimir lo escrito.



METODOLOGÍA

Para el diseño del sistema de tracción se tomó en cuenta el funcionamiento que debe obedecer en el dispositivo y con base a eso se diseñaron los componentes de éste sistema que son dos pares de rodillos que se encuentran unidos por un eje, 4 micro rodillos, una rampa y un chasis en el que se encontraran todos los sistemas. En este mismo sentido y para el diseño del sistema de impresión se tomó el mismo criterio que para el primer sistema y con base a ello se diseñaron cada una de las estructuras del sistema las cuales son el diseño del recorrido que va a realizar los punzones, los punzones que se integraron a los solenoides y por último la estructura de soporte de los solenoides. Basándose en los diseños descritos anteriormente, se procedió a la manufactura de cada uno de los componentes de cada sistema, tomando en cuenta que no todos son maquinables y por ende solo se realizaron aquellos que si cumplían con la condición, recalcando que éste proceso se dividió en dos partes, una que fue realizada en la impresora 3D y la segunda en el CNC, para la primera solo fue necesario el diseño de las piezas los cuales se realizaron en el software SolidWork, luego de esto se imprimieron las siguientes piezas: los rodillos, los micro rodillos, las estructuras de soportes de los micro rodillos, la camisa de soporte de  los solenoides, los rodillos de tracción para la banda y los rodillos de riel para la banda. Para la segunda parte se apoyó en el software MastercamX5, en el cual se estableció el tipo de maquinado de cada pieza, el tipo de cortador o broca a utilizar para la fabricación y se obtuvo el código G, el cual fue introducido en el CNC, para la fabricación de las piezas, es importante mencionar que las piezas maquinadas en el CNC fueron: las bases laterales del chasis, las bases laterales de la rampa, el chasis, la base de soporte para el motor NEMA y la base de soporte para el motor de 5V, luego de la fabricación de las piezas se integró todas las piezas de los sistemas. En éste mismo sentido se procedió con el dimensionamiento del sistema eléctrico, estructurando un circuito de alimentación con batería de respaldo el cual lo integran diversos componentes como resistencias, condensador, diodo, SCR, su funcionamiento se encuentra fundamentado en la conmutación entre la energía eléctrica proporcionada por la red y la fuente de respaldo, éste se puede analizar en dos momentos, uno cuando existe alimentación por parte de red eléctrica y otro cuando existe una interrupción en éste flujo, la primera parte permite el suministro de energía para los diversos componentes del sistema y de la misma manera cargar a la batería de respaldo, cabe destacar que cuando se encuentra en este estado el circuito el tiristor se encuentra por un pase de cero, esto es causado por la respuesta positiva que existe del ánodo con respecto al cátodo denominado como polarización inversa. En el segundo momento se alimentará el circuito por medio de la batería de respaldo, ocasionando que en el SCR exista una polarización directa y de forma simultanea exista una corriente suficiente a través de la compuerta que lo active permitiendo el flujo de corriente hacía todos los componentes del sistema. Tomando en consideración cada uno de los sistemas que se diseñaron se procedió con el diseño ergonómico del dispositivo en el que por una parte se tomó en cuenta la ubicación espacial de la integración de todos los sistemas y por la otra se enfocó en el control de escritura del dispositivo, cabe destacar que para poder diseñar éste control se realizó un estudio  sobre las dimensiones de la mano de una muestra de 30 personas y sobre la cual se tomaron medidas basándose en la medidas antropométricas las cuales fueron la largura de la mano, la largura de la palma y la altura de ésta misma, el diámetro de agarre, la distancia del final del pulgar hasta el final del dedo índice y la largura del dedo índice, medio, anular y pulgar, y a partir de éstos se estructuró la forma del control y la ubicación de los botones de escritura.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir diversos conocimientos relacionados al diseño, la manufactura, el sistema eléctrico, la ergonomía y el manejo de varios software de diseño y manufactura como Solidwork y MastercamX5, en los que se realizaron los diferentes diseños de la conformación mecánica del dispositivo y sobre el cual se puede decir que si se quiere obtener una propuesta eficiente se debe realizar múltiples pruebas para así encontrar la manera más óptima, posterior a ello y basándose en lo aprendido cabe destacar que para ampliar los conocimientos adquiridos se aprendió a utilizar la máquina CNC, para realizar el maquinado de las piezas. Por otra parte, en el sistema eléctrico se puede decir que si se desea garantizar un flujo eléctrico continuo y confiable en todos los sistemas mencionados anteriormente en caso de que exista de una interrupción en el suministro de energía proporcionada por la red eléctrica se hace necesario la implementación de una batería de respaldo en el que el circuito se fundamente en la implementación de un tiristor SCR.
Castro Uribe Kevin, Instituto Tecnológico de Culiacán
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO


ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO

Arias Ramírez José Ramón, Instituto Tecnológico de Culiacán. Castro Uribe Kevin, Instituto Tecnológico de Culiacán. Urquidez Beltrán Alejandro, Instituto Tecnológico de Culiacán. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Al realizar mediciones de variables fisiológicas en pantas como potencial hídrico, y actividad fotosintética, la apertura y cierre estomática altera fuertemente estas mediciones, de tal manera que se requiere analizar la actividad estomática que tiene la planta bajos diferentes estímulos externos, para poder compensar las mediciones de las variables mencionadas.



METODOLOGÍA

Para conocer el método más factible para la visualización de una estoma hicimos pruebas con pedazos de hojas de distintas plantas. Para la visualización de las estomas en una hoja viva y sin estrés alguno se utilizó un microscopio para poder determinar cuándo una estoma estaba abierta o cerrada, se le dieron pulsos de luz infrarroja, ultravioleta y luz verde, también se le aplicó calor y se mojó la planta para ver las distintas reacciones usando diferentes métodos; intercalando luz, calor o humedad. Cuando se determinó que la estoma se cerraba o abría se tomaban fotografías con la cámara infrarroja en el área que se estaba analizando con el microscopio. El microscopio es digital VELAB VE-D10 con el aumento de 350x. Para tomar las termografías se utilizó una cámara Gobi-640-GigE con un lente de 18 mm.


CONCLUSIONES

La visibilidad de una estoma varía mucho dependiendo el tipo de planta y tamaño de hoja, se espera obtener datos específicos sobre los estímulos que hacen a una estoma abrirse o cerrarse, que, a su vez, nos dará información sobre las condiciones en que una planta lleva a cabo la fotosíntesis. Con la ayuda de una cámara termográfica, se desea ver la reacción térmica de la planta cuando esté realizando la fotosíntesis.
Cazares Galindo Silvia Daniela, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Cazarez Huezo Hilda Vanessa, Instituto Tecnológico de Culiacán
Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)

ACTIVIDAD FOTOCATALíTICA DEL óXIDO DE ZINC (ZNO) MODIFICADO CON CO, CU, NI, MN Y MG SOPORTADO CON VERMICULITA


ACTIVIDAD FOTOCATALíTICA DEL óXIDO DE ZINC (ZNO) MODIFICADO CON CO, CU, NI, MN Y MG SOPORTADO CON VERMICULITA

Cazarez Huezo Hilda Vanessa, Instituto Tecnológico de Culiacán. Asesor: Dr. Jose Octavio Saucedo Lucero, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actividad fotocatalítica del óxido de zinc (ZnO) modificado con Co, Cu, Ni, Mn y Mg soportado con vermiculita Asesor: Doctor José Octavio Saucedo Lucero de la Dirección de investigación y posgrado y capacitación en CIATEC de CONACYT. Alumna: Hilda Vanessa Cázarez Huezo, procedente del Instituto Tecnológico de Culiacán. vanessa_cazarezh@hotmail.com. El aire es una mezcla de gases como nitrógeno, oxígeno, argón, dióxido de carbono, entre otros, y tiene un rol fundamental en los sistemas de vida. Se habla de contaminación ambiental cuando la atmósfera contiene sustancias extrañas a su composición en concentraciones suficientes para producir efectos nocivos en el hombre, los animales, la vegetación y los animales en general. (1995, Urrelo) El presente trabajo es un paso para contribuir a la calidad del aire dentro del transporte urbano, al realizar la síntesis de materiales utilizando el óxido de zinc modificado se pretende obtener un material que sea capaz de degradar contaminantes presentes en la atmosfera. Debido a que cada una de las decisiones individuales puede tener un impacto negativo sobre la calidad del aire de la ciudad: los procesos productivos, la circulación de cientos de miles de vehículos y el uso de artefactos en cada hogar generan emisiones contaminantes. Estas emisiones afectan la salud y el bienestar general de la población expuesta, empeorando su calidad de vida. En muchos casos obligan a cuantiosas inversiones para mitigar sus efectos. (1995, Urrelo). Al ser los altos costos una de las razones por las cuales no se aplican programas para la reducción de contaminantes, en este verano de investigación se ha desarrollado un material que se jacta de un proceso simple de síntesis donde se seleccionaron materiales de bajo costo y de fácil acceso para que sea viable la puesta en marcha a nivel estatal, mejorando la calidad de vida de los habitantes del estado de León Guanajuato. Se propone el uso del óxido de zinc modificado para realizar las actividades antes mencionadas, ya que el  ZnO ha demostrado ser un catalizador más eficiente en lo que concierne a la descontaminación (E.R. Carraway, 1994). Tiene altas tasas de reacción y mineralización (I. Poulios, 1999), también tiene más sitios activos con alta reactividad superficial (B. Pall, 2002). El ZnO se ha demostrado como un fotocatalítico mejorado en comparación con el TiO2 comercializado en base a las mayores tasas iniciales de actividades y su eficacia de absorción de las radiaciones solares. (Ruh Ullah, 2007). 



METODOLOGÍA

1.- Síntesis del óxido de zinc para dopar a los metales Mg, Co, Ni, Mn y Cu. Las nanopartículas de ZnO se prepararán mediante el método de sol-gel, utilizando acetato de zinc dihidratado, ácido oxálico dihidrato y etanol absoluto. El ácido oxálico se disolverá en etanol absoluto en un vaso de precipitado y se agitará con un agitador magnético a 45±5 °C durante 30 min. El acetato de zinc se disolverá con etanol absoluto y se calentará con un agitador magnético a una temperatura de 65±5 °C. En esta misma solución se adicionará los distintos metales seleccionados con base en la revisión bibliográfica se establecieron las concentraciones de dopaje de los metales (5% de Mg, 0.25 % de Co, 1% de Ni, 0.5% Mn, 0.5 mol% Cu), para ello se realizarán los cálculos necesarios para la preparación de las soluciones precursoras de estos metales (Acetato de Magnesio, Nitrato de Cobalto, Cloruro de Níquel, Cloruro de Manganeso y Nitrato Cúprico). Después, la solución de ácido oxálico se añadirá gota a gota a la solución de acetato de zinc con agitación magnética vigorosa hasta que se forme un gel. El gel resultante se secará a 80ºC para formar las nanopartículas de ZnO. El polvo blanco será finalmente calcinado a 450° por dos horas. 2.- Soportar el ZnO en mineral vermiculita Una vez obtenido las nanopartículas se depositarán en el material mineral vermiculita previamente, la cual será previamente lavada, secada y tamizada para lograr un compuesto más estable y manejable. Posterior a ello se continúa con la calcinación. 3.- Evaluación la degradación del naranja de metilo en el reactor. La reacción se realizará en el reactor prototipo alfa y reactor UV (prototipo beta), probando 1g de óxido de zinc modificado para degradar 20ppm de naranja de metilo con un pH de 9. El porcentaje de degradación (D) el cual será calculado matemáticamente.   


CONCLUSIONES

En el tiempo transcurrido se ha logrado una comprensión aceptable del tema, tanto de la importancia que tiene desarrollar la investigación como lo que implica realizarla. Dejando de lado la teoría, durante la práctica se obtuvieron nueve síntesis de materiales a distintos porcentajes de dopaje con material soporte, así como nueve síntesis sin soporte, mismas que están siendo evaluadas en un reactor diseñado para el proyecto. En el reactor se adiciona el contaminante modelo y el material modificado, mismo que es irradiado por luz ultravioleta a 254nm y 360nm, se evaluó la adsorción de cada material y la fotocatálisis de cada uno, utilizando un espectrofotómetro UV-Vis, mismo que arrojó datos de absorbancia de los materiales en distintos tiempos. Los resultados obtenidos durante la evaluación en el reactor fueron extrapolados a tablas que fueron graficadas para poder analizar cuantitativamente la efectividad del material, considerando como variable principal la rapidez de degradación de cada material para identificar el de mayor potencial. Los experimentos se llevaron a cabo en fase acuosa, esto con la finalidad de caracterizar los materiales y evaluar si era posible una fotólisis o no, una vez que han pasado las pruebas básicas de funcionamiento, se pretende extender el experimento para hacer una evaluación en fase gas, para ello se utilizará un reactor modificado que permita poner a prueba los materiales fuera del estado líquido. Cuando se demuestre la eficacia de los materiales y la capacidad de reducción de contaminantes atmosféricos se utilizarán para aumentar la calidad del aire en la ciudad de León Guanajuato.
Ceballos Ruiz Daniela, Universidad Católica de Manizales (Colombia)
Asesor: Dr. Pedro Joaquín Gutiérrez Yurrita, Centro Interdisciplinario de Investigaciones y Estudios sobre Medio Ambiente y Desarrollo (IPN)

DISEÑO DE UN BIODIGESTOR AEROBIO PARA EL APROVECHAMIENTO DE LOS RESIDUOS SÓLIDOS URBANOS ORGÁNICOS GENERADOS EN EL PARQUE NACIONAL LAGO DE CAMÉCUARO. MICHOACÁN


DISEÑO DE UN BIODIGESTOR AEROBIO PARA EL APROVECHAMIENTO DE LOS RESIDUOS SÓLIDOS URBANOS ORGÁNICOS GENERADOS EN EL PARQUE NACIONAL LAGO DE CAMÉCUARO. MICHOACÁN

Ceballos Ruiz Daniela, Universidad Católica de Manizales (Colombia). Asesor: Dr. Pedro Joaquín Gutiérrez Yurrita, Centro Interdisciplinario de Investigaciones y Estudios sobre Medio Ambiente y Desarrollo (IPN)



PLANTEAMIENTO DEL PROBLEMA

Si el Parque Nacional Lago de Camécuaro no cuenta con un sistema confiable y sistemático de recolección de residuos sólidos urbanos orgánicos, se generan malas condiciones sanitarias a la comunidad, pero que podrían ser resueltas con un manejo adecuado de dichos residuos mediante un reciclado sanitario; entonces con el diseño de un biodigestor aerobio se pueden aprovechar estos residuos y mejorar la higiene en el Parque Nacional.



METODOLOGÍA

Se midió en peso la cantidad de residuos orgánicos dispuestos en botes de basura ubicados en la zona de mayor afluencia de visitantes donde preparan y consumen sus alimentos, siendo, asimismo, la zona en donde se concentra la actividad comercial de venta de alimentos. Se identificó la zona que tiene el espacio y las condiciones adecuadas para la instalación del biodigestor aerobio dentro del parque. Trabajo de gabinete y laboratorio: Se realizó una ponderación por densidad de visitantes de generación de residuos sólidos orgánicos en todo el parque, tomando como referencia los registros con las cantidades de residuos orgánicos en cada bote de basura medido, para determinar la máxima cantidad de residuos orgánicos generados en el Parque.   Se estipularon las características y requerimientos para el diseño del biodigestor, considerando la cantidad de residuos generados semanalmente en el PNLC, la aireación que debe tener el biodigestor y el mecanismo de funcionamiento. Además, para el manejo y control del adecuado funcionamiento del biodigestor, se indagó acerca de formas prácticas para medir el pH, la humedad y la temperatura del material que se encuentra reaccionando dentro del biodigestor.


CONCLUSIONES

Se estimó que semanalmente se pueden generar 160 Kg de residuos orgánicos en el PNLC en temporada baja, por lo que se propone dos biodigestores con capacidad de 200 Kg cada uno para que se recolecten los residuos de dos semanas. De acuerdo a la literatura empleada, es necesario que el biodigestor tenga una capacidad no muy grande para que sea más eficiente, para mejorar la aireación y verificar el estado del biodigestor controlando el pH, la humedad y temperatura mediante técnicas y métodos de fácil aplicación. En el diseño de los biodigestores se propone insertar una manivela para hacer el volteo del material una vez por semana durante las primeras cuatro semanas y permitir la aireación de la biomasa. También, es necesario considerar que el lugar donde se acomoden los biodigestores tenga suficiente aireación, que esté techado para evitar que la lluvia altere la humedad y con ello el funcionamiento de los biodigestores. Considerando que los biodigestores pueden colocarse cerca de donde estará la planta de tratamiento de agua, se cuenta con espacio suficiente para poner una cadena de pequeños biodigestores y así, tener producto para fertilizar tierra semanalmente. Sin embargo, también es necesario implementar una campaña de separación de residuos sólidos urbanos y disminución de los mismos al interior del parque.
Cebreros Arellano Kenya Fernanda, Instituto Tecnológico de Sonora
Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA


FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA

Cebreros Arellano Kenya Fernanda, Instituto Tecnológico de Sonora. Pinto Diaz de Leon Patrick, Universidad Autónoma de Baja California. Rincon Herce Jackelyne, Instituto Tecnológico de Querétaro. Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El cáncer infantil es la principal causa de muerte por enfermedad en mexicanos entre 5 y 14 años de edad, conforme a las cifras preliminares en 2013 reportadas en el Sistema Estadístico Epidemiológico de las defunciones (SEED). Entre estas cifras se encuentra el osteosarcoma que es el cáncer más común" que afecta a personas jóvenes de entre 10 y 30 años, donde se detectan entre 100 y 150 nuevos casos al año en México. Se desarrolla principalmente en los huesos largos, con mayor frecuencia en los de las piernas, pero a veces también se presenta en los huesos de los brazos o en la pelvis. Este cáncer suele desarrollarse a partir de los osteoblastos (son las células del hueso encargadas de sintetizar la matriz ósea, por lo que están involucradas en el desarrollo y crecimiento de los huesos), por esto existe una mayor incidencia de este cáncer en los niños que están en el proceso de crecimiento y como la mayoría de los casos de osteosarcoma afecta a los huesos largos como el fémur, genera un problema en el funcionamiento de la rodilla, creando la necesidad de una prótesis. Se tienen datos de que en México se presentan 3 casos por cada 100 mil habitantes de reemplazo de rodilla al año, esto comparado con los 125 nuevos casos promedio que se suman anualmente es muy poco. Esto se debe a que la operación es muy costosa y que la mayoría se van al extranjero a realizarse la operación. Cabe mencionar que el costo de la operación dentro del país es menor comparado con otros. En México no existe la producción de prótesis, al tener que importar la prótesis desde otro país encarece el costo final de la operación.  Por esto nace el interés y la necesidad de crear una infraestructura para la fabricación de prótesis, reduciendo el costo de la prótesis, y poder recurrir a los hospitales mexicanos donde se hacen estas operaciones ayudando a la economía del país desde ambos sectores. Otra inquietud es que estas prótesis importadas solo se pueden conseguir en los tamaños de: grande, mediano y chico. La manufactura aditiva es una opción viable para la fabricación de piezas de geometrías complejas y personalizadas, como lo es la prótesis. Por este motivo se propone como buena opción para la fabricación de la prótesis, permitiéndonos desarrollar una prótesis adaptada a la medida que requiera nuestro cliente.



METODOLOGÍA

El proyecto en el que colaboramos se divide por tareas y actividades específicas estas son: en el primer año tenemos el diseño, modelado, análisis, simulación, optimización de procesos y fabricación, funcionalidad de la superficie y prueba biológica; en el segundo año tenemos las pruebas mecánicas y su implementación en el mercado y por último en el tercer año se trabajará en el rediseño y optimización de la prótesis. Nosotros estuvimos colaborando en las etapas de: diseño, modelado, análisis, simulación, optimización de proceso y fabricación. En la parte de diseño y modelado, se tomó como base del diseño una prótesis fabricada en titanio que ya es implantado en niños con cáncer en México, por reingeniería se escaneo en 3D para dimensionar la geometría exacta y a partir de esto se hizo el modelado en 3D en el software CAD (SOLIDWORKS). Posteriormente se procedió a la parametrización en SOLIDWORKS, donde se crearon tablas con diferentes datos de altura y peso de los niños que determina las dimensiones óptimas para cada rango de edad para la prótesis. El análisis FEA es una simulación mecánica de los elementos antes de su fabricación, mediante un software CAE que nos permite evaluar y simular el diseño de la prótesis. En este software llamado ANSYS podemos escoger cualquier material que este en su librería o bien buscar las propiedades físicas y químicas del material y agregarlo, se buscaron diferentes materiales y se procedió a agregarlos a una librería nueva, esto con el fin de definir el material más adecuado para la prótesis. También se puede hacer un análisis con varios materiales en un mismo proyecto, y así encontrar la mejor combinación de materiales para la prótesis. Antes de pasar a la fabricación se elige el proceso adecuado y para piezas metálicas, actualmente se utiliza la tecnología de cama de polvos (DMLM), estuvimos específicamente trabajando con un equipo de la empresa Concep Laser, con el modelo M2. Nos familiarizamos con el proceso que esta tecnología usa en la fabricación de piezas, donde se tienen varias etapas: preparación de datos, operación del equipo, post-proceso (varias opciones del post-proceso.). En la parte de preparación de datos se utilizaron softwares tales como materialise (MAGICS) para orientar y añadir los soportes necesarios para lograr la mejor impresión de la prótesis, buscando optimizar el uso del material y evitando un post-proceso largo y complejo. Hablando del post-proceso tenemos varias formas de remover las piezas creadas por MDLM de su plato de impresión, la más sencilla es con herramientas de trabajo manual, pero cuando están muy adheridas al plato se tiene que proceder a cortarlas con un equipo maquinado convencional. Cuando estuvimos involucrados en la parte del proceso de la máquina, tuvimos que tener medidas de seguridad, se debe usar un equipo de seguridad conformado por mascarilla facial, bata y botas de seguridad, teniendo el mayor cuidado con el polvo metálico con el que se trabaja, cuando se trabaja con titanio, este tiene un alto grado de inflamabilidad.


CONCLUSIONES

Nos enfrentamos con diferentes problemas en el desarrollo de este proyecto, pero estos problemas nos hicieron reforzar los conocimientos que teníamos respecto a los temas con los que se trabajaron. A lo largo de esta estancia tuvimos tareas grupales e individuales, en todas trabajamos en la realización o mejoramiento tanto de los manuales de operación de la M2 como de los software que utiliza para la preparación de datos, modelado y el análisis FEA. También presentamos una propuesta de optimización de la prótesis y creamos una placa de probetas que evalúa las capacidades de impresión del equipo M2 que se ubica en el consorcio CONACYT en manufactura aditiva.
Cedillo Sanchez Karolina, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

DESARROLLO DE RECURSOS PARA EVALUACIóN CON BASE EN UNA TAXONOMíA DE CONOCIMIENTO.


DESARROLLO DE RECURSOS PARA EVALUACIóN CON BASE EN UNA TAXONOMíA DE CONOCIMIENTO.

Cedillo Sanchez Karolina, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En el contexto de la educación personalizada se necesita identificar los conocimientos con los que cuenta un estudiante; en este caso, referido a una taxonomía de conocimiento para encontrar conceptos, esquemas, fórmulas, procedimientos, problemas, soluciones. Este trabajo se enfoca en el área de ciencia de datos.



METODOLOGÍA

Inicialmente se adquirieron conocimientos analizando un artículo acerca de enseñanza personalizada y el marco teórico relacionado con informática educativa. Posteriormente se realizó el planteamiento del problema acerca de cómo evaluar a un estudiante al cual se quiere elaborar un plan de estudio personalizado. Este plan se debe basar en una taxonomía de conocimiento. Se analizaron dos programas, el primero fue una aplicación que aplica planeación, en donde se tiene un estado Inicial (que es el conocimiento con que cuenta la persona) y otro final, al que se quiere llegar (el conocimiento que se pretende alcanzar). En el plan se obtiene una secuencia de pasos que se realizarán para  que cada estudiante pueda llegar al estado objetivo a partir de sus conocimientos previos. El segundo programa revisado fue un sistema experto que diagnostica las posibilidades de tener un infarto mediante algunas preguntas realizadas al usuario, este se considera un sistema experto debido a que sigue ciertas reglas para determinar lo que cree que necesita le usuario, en este caso no se tiene un estado final conocido previamente. Se modificaron algunos recursos didácticos para adecuarlos a la ciencia de datos, entre estos, un memorama y un programa para completar palabras. Con estos recursos didácticos modificados se obtienen sus respectivos predicados del conocimiento de un estudiante que representa su estado inicial.


CONCLUSIONES

Con la propuesta realizada se espera obtener los predicados que describen el estado inicial del conocimiento de un estudiante para que sea posible obtener un plan de estudios personalizado indicando el objetivo (o estado final).
Cedillo Trujillo Sergio Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar

OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)


OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)

Cedillo Trujillo Sergio Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Vázquez Robles María de Lourdes, Benemérita Universidad Autónoma de Puebla. Velasco Velasco Diana Karen, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El mercado del campo mexicano cada vez demanda más productos orgánicos, o productos que no degradan el medio ambiente, además, cada día es más frecuente que los productores se preocupen por la sostenibilidad de su actividad productiva por lo que el uso de biofertilizantes va cada vez en aumento (Avendaño, 2010). Entre los microorganismos que se proponen para el desarrollo y formulación de biofertilizantes se encuentran las las Cianobacterias, que son un grupo de procariontes, fotosintéticos, con capacidad de fijar N2  desempeñan un papel vital en mantener a largo plazo la fertilidad de los suelos. Además de mejorar la estructura del suelo, influyen en su permeabilidad y capacidad de retención de agua (Mohan et al., 2015) e igualmente liberan metabolitos secundarios que ayudan al control biológico de enfermedades bacterianas y fúngicas en diferentes cultivos.



METODOLOGÍA

Obtención del inoculo: Cada inoculo de las diferentes cepas (Anabaena sp, Fischerella sp, Hapalosiphon sp) se obtuvo por parte de la Universidad del Mar campus Puerto Ángel. Extracto vegetal de Leucaena leucocephala: El extracto se realizó pesando 1g de Leucaena previamente seco y molido, se le agregaron 5 ml de metanol al 99% junto con el extracto pesado y se dejó en agitación durante 1 horaPosteriormente se filtró al vacío se guardó, al resto del filtrado se le agregó nuevamente 5 ml de metanol; se repitió el mismo proceso descrito hasta reunir 10 ml. Por último se agregaron 10 ml de agua dejando volatilizar el metanol. Medio de cultivo: Se prepararon 20 L de medio BG11° el cual costa de 5 stocks. Para el primer stock se agregan 10 ml de este por cada litro de agua, para el segundo, tercer, cuarto y quinto stock es 1 ml por cada litro de agua. Se esterilizó cada stock por separado y se agregó empezando del quinto al primer stock; posteriormente se agitó.  Encapsulamiento de cianobacterias y el extracto de Guaje: Se pesaron 60 gramos de alginato y se disolvió en 500 ml de agua, dejando agitar hasta la homogeneidad de la mezcla y se esterilizó. Por otro lado se prepararon 500 ml de CaCl al 10 % para cada cepa y para el extracto de guaje. Para cada una de las cepas y el extracto de Guaje se tomaron 10 ml y 90 ml de alginato, se agitó vigorosamente por 1 minuto para que se homogenizó la mezcla y se pasó a un embudo de separación, este se montó en un soporte, mientras que en un cristalizador se colocaron los 500 ml de CaCl al 10 %  este se posicionó justo debajo del embudo, por goteo se dejó caer la solución alginato-cianobacteria y la solución alginato-Guaje hacia el CaCl para formar las perlas. Densidad óptica: Se utilizaron 6 tubos de ensaye de 13x100  a los cuales se les añadió una alícuota de 1 ml de cepa pura y 2  ml de agua destilada, posteriormente se sonicaron por separado durante 10 minutos cada uno hasta que se notaran homogéneos. A continuación los tubos se leyeron al espectrofotómetro a las longitudes de onda de 540 nm y 560 nm respectivamente. Diseño experimental Anabaena sp Fischerella sp  Hapalosiphon sp. Se realizaron 4 tratamientos en matraces de 250 ml los cuales consisten en: Tratamiento 1 (control): 180 ml de medio con 1 % de inoculo libre. Tratamiento 2 (control): 180 ml de medio con 200 y 100 perlas de alginato Fischerella, alginato-Hapalosiphon respectivamente. Tratamiento 3: 180 ml de medio con 1 % de inoculo libre y 200 perlas de alginato-Guaje. Tratamiento 4:180 ml de medio con 1 ml de extracto de Guaje seguido de 200 y 100 perlas de alginato-Fischerella, alginato-Hapalosiphon, alginato- Anabaena sp. En el caso de Anabaena sp  el experimento se realizó sin aireación. La cinética de crecimiento tuvo seguimiento de 15 días, tomando muestras cada tercer día tomando una alícuota de 15 ml y en el caso los que tienen perlas de alginato-cianobacterias se tomaron de 4 a 8 perlas, en cada toma de muestra y se alimentó  medio hasta completar los 200 ml.  Peso seco: Esta técnica se llevó a acabo según lo reportado por Arredondo & Votolina 2007. Cuantificación de Amonio: Se prepararon los siguientes reactivos: MnSO4  0.003 M,  NaCIO  y fenato.  A cada muestra de 5 ml de sobrenadante de los respectivos tratamientos se le agregaron 50 ųL de MnSO4, 0.5 ml de NaCIO y 0.6 ml de fenato, se dejaron reposar por 10 minutos aproximadamente y se leyó la absorbancia a 630 nm en el espectrofotómetro. La cuantificación de amonio se llevó a cabo mediante una curva patrón, la cual se  realizó con diferentes concentraciones de amonio.  Extracción y cuantificación de Carbohidratos intracelulares: Esta técnica se llevó a acabo según Duboís et al. 1956. Se tomó una alícuota de 5 ml de cada uno de los  respectivos tratamientos, centrifugaron a 6000 rpm durante 5 minutos a 25 ºC se desechó el sobrenadante, el pellet fue hidrolizado en 2 ml de NaOH  1N a una temperatura de 95 - 100 ºC en un baño María por una hora. Una vez enfriadas las muestras se  colocó  1 ml del extracto obtenido en tubos, se les añadió 0.5 ml de fenol al 4%, 2.5 de ácido sulfúrico concentrado, se dejaron enfriar por 30 minutos y  se agitaron constantemente en un vortex. La absorbancia fue leída a  485 nm en un espectrofotómetro. La curva de calibración se realizó con glucosa anhidra.


CONCLUSIONES

Se espera, para Fischerella sp. y Anabaena sp.  un alto crecimiento de biomasa, así como una buena producción de amonio, debido a que las condiciones a las que fueron sometidas durante el cultivo son las tradicionales según lo reportado por (Alonso S. E., 2015) además de resaltar que el medio carecía de nitrógeno, por lo que esto pudo ser una situación estresante para ellas y desencadenar su producción. Por otro lado Anabaena sp. fue cultivada en un medio sin aireación contrario a lo que reportan (Morales, 2014) con lo cual visiblemente se obtuvieron buenos resultados, pues se notó un crecimiento rápido y un buen desarrollo de la biomasa. En cuanto a carbohidratos intracelulares se espera una buena producción, pues con esto las cianobacterias demostrarían tener un alto potencial para ser un biofertilizante en  futuras aplicaciones  directamente al campo  (Alonso S. E., 2015).
Ceja Alejo Héctor Gustavo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE LA ESTABILIDAD QUíMICA Y TéRMICA DE SILICOFOSFATOS DE CALCIO OBTENIDAS A PARTIR DE MEZCLAS DE HIDROXIAPATITA Y VIDRIO BIOACTIVO


ESTUDIO DE LA ESTABILIDAD QUíMICA Y TéRMICA DE SILICOFOSFATOS DE CALCIO OBTENIDAS A PARTIR DE MEZCLAS DE HIDROXIAPATITA Y VIDRIO BIOACTIVO

Ceja Alejo Héctor Gustavo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La ciencia y tecnología se han desarrollado a tal punto que nos han permitido emplear gran parte de los materiales disponibles (metales, cerámicos, polímeros artificiales, materiales compuestos, etc.) [1]. Con enfoques multidisciplinarios, los biomateriales fueron desarrollados para lograr una combinación adecuada de propiedades físicas del tejido reemplazado con una respuesta tóxica mínima en el huésped. Con el desarrollo de la compresión del sistema inmune se logró pasar de los materiales inertes de primera generación(Alumina y titanio) hasta lo que en estos días se denomina biomateriales de tercera generación(Vidrio bioactivo) [2]. Esta categoría implica una convergencia entre el comportamiento del material bioactivo y reabsorbible para estimular a nivel molecular respuestas celulares específicas [3]. La Hidroxiapatita (HAp) Ca10(PO4)6(OH)2 es ampliamente usada por ser un análogo del componente mineral de los huesos y dientes humanos. Como biomaterial presenta una excelente bioactividad, capacidad para promover la expresión y funciones celulares además de osteoconductividad [4]. Dentro de los principales inconvenientes de HAp están su falta de resistencia mecánica, biodegradabilidad después de la implantación y osteoinductividad. La adición de iones a HAp tales como silicatos, magnesio, sodio, los carbonatos, entre otros, han evidenciado una mejora en el rendimiento mecánico y biológico de estos nuevos materiales que conducen al desarrollo de cerámicas de tercera generación, Silicocarnotita y Nagelschmidtita. De acuerdo con Carlisle, altos niveles de silicato localizados de manera única en el frente de calcificación y sugirieron que el ion de silicio está involucrado en el proceso de calcificación de huesos jóvenes [5]. La síntesis de estas fases biocompatibles ha sido reportada usando varios precursores y técnicas tales como sol-gel, reacción en estado sólido, síntesis mecanoquímica entre otros procesos. Rincón et al. reportaron la obtención de ambos biomateriales utilizando molienda de alta energía en molino de bolas 8000D Mixer/Mill® (SPEX, USA) obteniendo fases puras para las composiciones 85% BHAp- 15% BG para Silicocarnotita y 70% BHAp- 30% BG para Nagelschmidtita. Ahora bien, para determinar el efecto de la adición de vidrio bioactivo sobre las características estructurales, microestructurales, químicas y térmicas de compósitos hidroxiapatita/vidrio bioactivo para la obtención biomateriales de tercera generación como tales Silicocarnotita y Nagelschmidtita se realizarán mezclas de dichos precursores en proporciones 80/20, 75/25, 85/15 y 70/30 respectivamente.



METODOLOGÍA

Metodología 1.- Se comenzó realizando, por medio del proceso de molienda de alta energía mezclas en polvo de Hidoxiapatita (HAp) y Vidrio Bioactivo (BG) en un molino de bolas de alta energía bolas 8000D Mixer/Mill® (SPEX, USA). 3.- El proceso continuó con la producción de cerámicas verdes las cuales se prensaron uniaxialmente a 4 T/ 5 min para formar muestras verdes en forma de disco usando una matriz de 10 mm de diámetro y 0,25 g de polvo por muestra. 2.- Con la finalidad de obtener una transformación de fase de los precursores previamente mecanoactivados por molienda mecánica, se realizó un tratamiento térmico de sinterizado en una mufla Thermolyne 5.8L, a 1220 °C variando los tiempos de la rampa de sostenido. Caracterización Estructurales Difracción de rayos X (DRX), para conocer las fases presentes en la muestra. Refinamiento Rietveld, para determinar las características estructurales de las fases presentes en las muestras.   Microestructura y Composición Química. Microscopía Electrónica de Barrido. (MEB), para observar la microestructura característica de las fases obtenidas. Espectroscopía de rayos x de energía dispersa (EDS), para determinar la composición elemental de las fases presentes y relacionar la presencia de los elementos con la microestructura característica de cada fase. Térmicas  Calorimetría Diferencial de Barrido (DSC) transiciones de fase ligadas a cambios de calor en la muestra. Termogravimétrico (TGA), para determinar el cambio de masa y relacionar esta característica con la formación de las diferentes fases.


CONCLUSIONES

Se obtuvo a partir de diferentes proporciones de los precursores BHAp/BG mezclas de ambas fases (Silicocarnotita, Nagelschmidtita y fosfato tricálcico) clasificadas como biomateriales de tercera generación. A partir de la caracterización estructural, microestructural, química y térmica se determinó que se presentan mezclas de ambas fases donde dependiendo de las condiciones de tratamiento térmico y las proporciones de mezcla predomina Silicocarnotite-Nagelschmidta, Silicocarnotite-Fosfato tricálcico, Silicocarnotite-Nagelschmidta- Fosfato tricálcico. Se logró observar, con respecto a las micrografías, la presencia de dos microestructuras predominantes, así como halos en los que se prevé sea un sitio de nucleación. así como secciones de las cerámicas que sirven como prueba de que ambas fases coexisten teniendo en cuenta variaciones de parámetros en proporciones de precursores y tratamientos térmicos.
Cejuste Stivenson, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)

EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA


EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA

Cejuste Stivenson, Tecnológico de Estudios Superiores de San Felipe del Progreso. Nieto Rueda Maria Fernanda, Universidad Católica de Manizales (Colombia). Ocampo Mejía Arturo, Universidad Católica de Manizales (Colombia). Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La guadua como elemento constructivo, posee grandes beneficios al momento de emplearse para el desarrollo de estructuras,  tanto por lo económico como  por su bajo impacto medioambiental. Sin embargo, existen diversos factores   ambientales,  como por ejemplo  su incorrecto mantenimiento, los cuales pueden incidir negativamente  ya sea en el proceso constructivo o en el mantenimiento de las estructuras, lo que  provoca la erosión y la degradación. En función de consultar estas degradaciones, se realizaron visitas a campo que permitieron tener acercamientos pertinentes, con el propósito de percibir las diferentes afectaciones de la Guadua. Lo cual permite conocer por medio de evidencia fotográfica y bibliográfica los diferentes comportamientos y posibles afectaciones de este material, y de esta manera lograr informar a la sociedad sobre la conducta de la guadua.



METODOLOGÍA

Para estudiar la degradación en las estructuras de guadua, se hicieron varias consultas bibliografías y visitas a campo. Posteriormente se eligió como caso de estudio el restaurante Zafarrancho el cual se encuentra ubicado en la carrera 86 B con calle 42 AS, Bogotá D.C, Colombia. La metodología aplicada corresponde: Cualitativa,  ya que se estudiará sobre las principales afectaciones presentadas en la guadua, relacionado con agentes físicos y biológicos principalmente, las cuales se identificarán en el restaurante Zafarrancho. Algunas técnicas adecuadas para la elaboración de la investigación fueron las visitas a campo; al puente de guadua de la 80 Jenny Garzón, la estructura en guadua ubicada en el Jardín botánico y el restaurante Zafarrancho asados, los cuales permitieron dar a conocer las lesiones presentadas en la estructura del lugar, además de consultas a expertos en el tema que nos permitieron tener una visión y una proyección más amplia de la guadua, como elemento constructivo principal en diversas edificaciones. De esta manera, se utilizaron tanto fuentes bibliográficas como webgráficas, las cuales permiten tener una guía teórica más amplia acerca de este material, sus características y las patologías que se pueden presentar. El desarrollo del proyecto consistió inicialmente en la recopilación de información sobre la guadua y sobre sus características, las patologías existentes que la pueden afectar y sus posibles causas y consecuencias. Posteriormente, se realizó el estudio del caso del restaurante Zafarrancho una estructura completa de guadua, se analizaron las degradaciones presentes en el restaurante y se determinaron sus causas y las principales consecuencias, que pueden tener sobre su integridad física. Finalmente, a través de una monografía se propuso un procedimiento constructivo en guadua para impedir el desarrollo de las degradaciones en las edificaciones construidas con dicho material.


CONCLUSIONES

A través del estudio del restaurante y de las patologías consultadas, se establece que gran parte de estas son de tipo físico y biológico, por la falta de una inmunización adecuada del material. Por lo tanto, estos agentes provocan lesiones como la erosión y aparición de organismos que degradan la Guadua, causando la pérdida paulatina de sus propiedades mecánicas, físicas y biológicas. Debido a esto, es importante a posteriori, realizar reforzamientos en la estructura para evitar futuros inconvenientes en la Guadua, como podría ser el fisuramiento, aplastamiento, entre otros, que se proporciona a raíz de los agentes biológicos. A pesar de la resistencia que tiene la Guadua como material, es un elemento constructivo que no puede sostener ciertas cargas, ya que puede verse afectada su integridad. Finalmente, para la correcta conservación y mantenimiento de sus características estructurales es relevante desde la Arquitectura, prever que los agentes atmosféricos no degraden de una forma acelerada el material, desde el diseño. Teniendo en cuenta lo anteriormente mencionado uno de los referentes tomados en las bases teóricas es Simón Vélez, es relevante la protección del material, debido a la clasificación de Colombia como País tropical, donde las precipitaciones son constantes. Del mismo modo, desde la ingeniería es vital la correcta distribución de las cargas, los tipos de uniones y sobre todo el tipo de guadua, donde en el caso se evidencia el uso del tipoAngustifolia kunth, la cual posee excelentes características en cuanto a su resistencia, como se puede evidenciar en el caso.
Celestin Chesly Junior, Instituto Tecnológico de Pachuca
Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO DE MATERIALES COMPUESTOS CON ENFOQUE EN TOLERANCIA AL DAñO


DISEñO DE MATERIALES COMPUESTOS CON ENFOQUE EN TOLERANCIA AL DAñO

Celestin Chesly Junior, Instituto Tecnológico de Pachuca. Sánchez Olivera Francisco Javier, Instituto Politécnico Nacional. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

A través de este proyecto se exploraron las variables de diseño para fabricar un material compuesto con un enfoque al modelo de tolerancia al daño de Mao Mahadevan y Shiri. Se exploran los diferentes mecanismos de daño que se pueden presentar en un material compuesto de matriz polimérica y refuerzo de fibras. 



METODOLOGÍA

Se realizaron las pruebas en base a las normas de pruebas ASTM necesarias para llevar a cabo la experimentación en las probetas, a su vez se obtuvieron las propiedades mecánicas y parámetro de fatiga del material. Por último se obtuvo el comportamiento mecánico del material a través de las curvas de esfuerzo-deformación y se implementan los modelos de daño mencionados para obtener las curvas de daño-ciclos de vida. Al final se comparó el comportamiento de tolerancia al daño del material compuesto con el de un material metálico y con resultados de tolerancia al daño en compuestos de otros autores.


CONCLUSIONES

A través de este proyecto se conocieron los diferentes modelos de tolerancia al daño de los materiales compuestos. Se pudo aplicar el modelo de Mao-Mahadevan a las probetas fabricadas para las pruebas, gracias a las pruebas cíclicas también se obtuvo la curva de daño-ciclos de carga. De estas curvas se obtuvo el comportamiento en tolerancia al daño de las probetas, donde se pudieron apreciar las 3 secciones de la curva daño-ciclos de carga en materiales compuesto, se pudo apreciar la zona de grieta de matriz, la delaminación, la desunión de la matriz y fibra y la ruptura de la fibra. También se pudo comprara la curva de daño-ciclos de carga entre un material metálico y uno compuesto donde se apreció la diferencia entre los mecanismos de daño de cada material. Se aplicaron los parámetros establecidos en las normas para poder obtener los resultados esperados de la teoría. Se aplicaron las normas ASTM D3039 y la norma ASTM D3479 para las respectivas pruebas de tensión y fatiga. Se operó la maquina Shimadzu y se operó su respectivo software. A su vez se obtuvieron las variables de diseño para obtener un material compuesto con enfoque a tolerancia al daño. Se aplicaron conceptos para obtener los esfuerzos sobre el material, así como las deformaciones en las pruebas, lo que nos sirvió para obtener la fuerza para la prueba de fatiga. También se obtuvo el daño a través del modelo de Mao-Mahadevan hallando el módulo de elasticidad final de la probeta y el módulo de elasticidad en cada ciclo de carga.  A través del estudio de las pruebas se puede ver como las variables de diseño afectan sobre la tolerancia al daño en el material. A través de las referencias podemos observar que la orientación de las fibras afecta la falla, mientras la orientación de las fibras sea mayor con respecto al eje neutro menor es la tolerancia al daño. La fracción volumétrica de fibra tiene un impacto negativo ya que mientras mayor sea esta menor es la tolerancia al daño, esto se debe a que es menor la distribución de esfuerzos que aporta la matriz.
Centeno Torres Brandon Ernesto, Universidad de Guadalajara
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES


FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES

Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional. Centeno Torres Brandon Ernesto, Universidad de Guadalajara. Ibarra Salazar Juan Pablo, Universidad de Sonora. Martínez Ramírez Brian Yannick, Universidad de Guadalajara. Mejia Rivera Marco Antonio, Universidad de Sonora. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el mundo está pasando por una serie de problemas ambientales bastante graves, en su mayoría ocasionadas por el ser humano, pero también ocasionadas por la naturaleza.  Un problema ambiental que se puede atacar es la contaminación debido a la ceniza volcánica, El gas emitido por un volcán se compone en su mayoría (75% aprox.) por vapor de agua (H2O), la fracción restante es conformada por dióxido de carbono (CO2), dióxido de azufre (SO2), sulfuro de hidrógeno (H2S), ácido clorhídrico (HCl), ácido fluorhídrico (HF); estos elementos son los productos principales y se caracterizan por ser emisiones ácidas.  El SO2 emitido se convierte lentamente en ácido sulfúrico (H2SO4), que se condensa en la atmósfera y se precipita en forma de lluvia con partículas muy finas. La concentración de estas partículas origina el llamado aerosol. Cuando éste se forma a partir del azufre se conoce como aerosol de sulfato. El objetivo de este trabajo es utilizar una manera de poder remediar los efectos por la contaminación en el suelo mediante una técnica que no genere contaminantes secundarios, por lo que se utilizó el método de fitorremediación; el cual consiste en aprovechar la capacidad de ciertas plantas para absorber, acumular, metabolizar, volatilizar o estabilizar contaminantes presentes en el suelo, aire, agua o sedimentos como: metales pesados, metales radioactivos, compuestos orgánicos y compuestos derivados del petróleo. Se reporta que algunas especies pertenecientes a las Asteraceas, toleran altos niveles de metales pesados en comparación con otros grupos taxonómicos y se les ha propuesto como especies fitorremediadoras. Helianthus annuus girasol pertenece a la familia de las Asteraceae , posee una facilidad de manejo en su cultivo, se adapta fácilmente a un amplio intervalo en la variación de temperatura. La época de la siembra es variable y depende de las características climatológicas de cada región. El girasol es reportado por su capacidad de acumular metales y responder con una alta biomasa radicular no obstante una baja tolerancia al cromo comparado con otras plantas acumuladoras.  



METODOLOGÍA

Para poder lograr nuestro objetivo de biorremediar zonas contaminadas tuvimos que hacer consideraciones y seguir una serie de pasos para que el desarrollo del proyecto fuera el óptimo, a continuación, en los siguientes puntos se establece el plan que seguimos a lo largo de nuestra estancia: ·         Muestreo de suelo con la que se trabajó. El material poroso tiene el fin de mantener la humedad apropiada para el crecimiento de la planta y de esta forma suministrar el oxígeno necesario, ya que la falta de oxígeno afecta el metabolismo del sistema radical y produce cierre de estomas . La selección de dicho material estuvo limitado a la disponibilidad de materiales en el laboratorio y a la conveniencia de utilizarlos en el sistema. El material seleccionado resultó ser el aserrín. ·         Preparación de la mezcla de suelo. Una vez obtenido el suelo que se usará para plantar el girasol, se limpió el suelo removiendo piedras, trozos de madera, raíces de plantas del lugar donde muestreamos la tierra, quitarle lombrices y otros animales que interfieran en el crecimiento del girasol, se mezcló teniendo como resultado 9 % de aserrín y el 91 % de tierra, esto con el propósito de retener la humedad. ·         Selección de la planta y germinación. Se seleccionó el girasol como planta a trabajar por su capacidad fitorremediadora que esta contiene además de que el tiempo de germinación de la planta es corto y los cuidados del girasol son relativamente sencillos. ·         Selección de un contaminante. Se eligió el azufre como contaminante debido a que el sitio de muestreo se encuentra en una zona que pertenece a los alrededores de los volcanes Iztaccíhuatl y Popocatépetl, y el azufre es un compuesto que se encuentra en cierta cantidad en la ceniza volcánica. Dicho contaminante fue seleccionado de acuerdo con la disponibilidad de reactivos en el laboratorio, así como la relación que este tiene con el campo de aplicación que se tiene. ·         Contaminación de la mezcla de suelo. se contaminó con azufre en diferentes concentraciones para su posterior análisis. Se decidió contaminar con concentraciones que van desde el 1 % hasta el 5 %, haciendo por triplicado cada concentración obteniendo quince macetas contaminadas con azufre. ·         Trasplante de los girasoles germinados al suelo contaminado. Una vez teniendo el girasol germinado (aproximadamente una semana después crecieron los tallos) se plantó en macetas con suelo ya contaminado y así iniciando el proceso de fitorremediación para su posterior análisis. ·         Cuidado de la planta por las siguientes cuatro semanas. Se mantuvieron las condiciones idóneas de humedad, temperatura y exposición solar para el adecuado crecimiento de la planta, además que se medía el pH y humedad dos veces por semana. El girasol es una planta que no necesita tanta agua para sobrevivir por lo que fue fácil su cuidado, en cuanto al pH necesita entre 7 y 7.5, logramos mantener el potencial de hidrógeno en ese rango. ·         Medición Cuantitativa de la degradación del contaminante en la tierra. Una vez pasadas las cuatro semanas se deberá medir el contenido de azufre en el suelo para conocer la cantidad que el girasol proceso.


CONCLUSIONES

La fitorremediación es una prometedora técnica que se puede usar para resolver diferentes problemas ambientales que incluyan dañinos contaminantes en los suelos. En este proyecto, mediante técnicas espectrofotométricas, se  determinará el nivel de degradación del azufre que tiene el girasol siendo seleccionada esta planta para su estudio gracias a las propiedades biorremediadoras que en la literatura se reporta.
Ceragene Mackendy, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

MODELO DE SIMULACIÓN DE FLUJO SUPERFICIAL PARA EL RIO ARMERÍA EN SAN GABRIEL,JALISCO,MÉXICO.


MODELO DE SIMULACIÓN DE FLUJO SUPERFICIAL PARA EL RIO ARMERÍA EN SAN GABRIEL,JALISCO,MÉXICO.

Ceragene Mackendy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Morales Aldana Luis David, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El municipio de San Gabriel, ubicado en Jalisco, en 2019 ha tenido especial atención debido a lo que ha sucedido en el municipio en el temporal de lluvia, pero en especial el día 2 de Junio del 2019, en la Ciudad se vivió una de las peores contingencias que se habían tenido en el pueblo, una gran avalancha de agua, lodo y troncos arrastro todo lo que se encontró a su paso, dejando gran cantidad de afectaciones. San Gabriel es propenso a este tipo de situaciones debido a las pendientes tan pronunciadas que hay en su territorio y además de que es el fin de la cuenca, a donde llegan gran cantidad de escurrimientos.



METODOLOGÍA

Dentro de la metodología lo primero que realizamos fue una investigación sobre la problemática de las inundaciones con todos los elementos que intervienen  y en particular en la zona de San Gabriel, Jalisco. Recolectamos la información sobre población, orografía, topografía,  condiciones económicas y uso de suelo del municipio. Delimitamos la zona afectada dentro de google earth. Obtuvimos una idea de las dimensiones y trazo de la cuenca por medio del SIATL (Simulador de flujos de agua de cuencas). Obtención de todos los datos hidrológicos que se tenían de la cuenca y de la parte afectada. Realizamos el modelado de la cuenca por medio del programa ArcGis 10.1 Importamos lo hecho en ArcGis al programa Iber 2.5 y realizamos la simulación de lo ocurrido el 2 de Junio del 2019 para conocer el comportamiento en tirantes y velocidades. Obtención e interpretación de resultados


CONCLUSIONES

Se requiere instalar un equipo de medición de lluvia en la zona aguas arriba de la cuenca y otra en San Gabriel, para que en caso de una situación similar o mayor se pueda conocer la precipitación. Se requiere una actualización de la batimetría del río dado que ninguna dependencia (federal, estatal y municipal) cuenta con información de este tipo. Se tienen reportes de que días antes del evento hubo incendios de la zona alta del pueblo por lo que se requieren campañas de reforestación para mejorar la capacidad de infiltración. Se requieren obras de protección y mapas de riesgo para evitar daños a las viviendas y perdidas humanas en la comunidad de San Gabriel.
Ceras Flores Norma Paulina, Universidad de Guadalajara
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN


EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN

Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic. Ceras Flores Norma Paulina, Universidad de Guadalajara. Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic. Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic. Valdez López Marco Augusto, Instituto Tecnológico de Tepic. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fitorremediación es una tecnología que utiliza plantas, hongos y semillas para la remediación de agua y suelo contaminados. Consiste en la remoción, transferencia, estabilización y/o degradación y neutralización de compuestos orgánicos, inorgánicos y radioactivos. Es una tecnología de bajo costo, posee un impacto regenerativo en áreas donde se aplica y su capacidad extractiva se mantiene debido al crecimiento vegetal. Las emisiones de dióxido de azufre y óxidos de nitrógeno, que se emiten a la atmósfera mediante fuentes naturales y antropogénicas, originan la lluvia ácida (compuesta por ácido sulfúrico y nítrico), ésta cambia la composición del suelo y desplaza los metales pesados hacia las aguas subterráneas, aumentando su toxicidad e imposibilitando su consumo. Además, los ácidos disminuyen el PH de los acuíferos dulces lo que afecta al desarrollo de la fauna acuática. Según el Registro de Emisiones y Transferencia de Contaminantes (RETC) que se aplica en 17 países, México es el primer lugar (de los países en vías de desarrollo) en la utilización de ácido sulfúrico.  Otra gran problemática actual del ácido sulfúrico en nuestro paíes es el derrame de 3 mil litros de éste el pasado 9 de julio del 2019 en el Mar de Córtés, en la bahía de Guaymas.  Varios compuestos derivados del azufre son nocivos en el medio ambiente, tales como el sulfuro de hidrógeno, disulfuro de carbono o dióxido de azufre Durante el verano de investigación se estudian las capacidades de biorremediación de Crassula ovata en un sitio contaminado por ácido sulfúrico y una Zinnia elegante en un sitio contaminado por azufre.  



METODOLOGÍA

- Preparación de la tierra  Se usó tierra del lago de la BUAP, donde nuestra base fue 500 gramos para cada bolsa siendo las proporciones de esta 91% de tierra y 9% de aserrín, esta relación se usó para las plantas zinnia elegante, las cuales necesitaron de 17 bolsas en total, que contenían 2 blancos y 3 bolsas por cada concentración de contaminante usado los cuales fueron 5. Para la planta suculenta prepararon sólo 5 bolsas con una relación de 95 % tierra y 5% aserrín. - Contaminación de la tierra Se utilizó como contaminante para las plantas zinnia el azufre en forma sólida, teniendo diferentes concentraciones que variaban de 1 a 5%, teniendo cada una un triplicado. Después de realizada las concentraciones se procedió a verter cada una de las concentraciones a una bolsa distinta, dejando reposar una semana y utilizando métodos mecánicos para la agitación y mezclado de la tierra con el contaminante. Para las plantas suculentas se usó como contaminante ácido sulfurico, el cual también se realizaron diluciones que iban de 1 a 5%, cada una agregada a una bolsa distinta, dejando reposar un día y de igual manera usando métodos mécanicos para la agitación y mezclado del contaminante con la tierra. - Determinación de la estratigrafía de la tierra Para determinar el tipo de suelo usado, se pesaron 200 gramos de tierra en una balanza granataria y estos fueron agregados a una probeta de 1 litro, la cual fue aforada con agua por lo que provocó la sedimentación y separación de esta. Como resultado obtuvimos que nuestro suelo es de tipo arenoso y gravilloso. - Selección y germinación de las semillas Se utilizaron dos tipos de plantas, la primera fue conseguida en un supermercado local, la planta es llamada zinnia elegante conseguida en forma de semillas, con un tiempo de germinación corto. Se seleccionó otra planta llamada suculenta por ser típica de la región y tener muy pocos requerimientos para crecer, la cual fue conseguida en un vivero localizado en la ciudad de puebla. Para la germinación de las zinnias se utilizó algodón y agua, dejandolas germinar durante aproximadamente 1 semana en la cual adquirieron una altura de 5 cm. - Plantación en la tierra contaminada Se realizó un proceso de trasplante común, simplemente cubriendo las raíces de las plantas con la tierra previamente contaminada. - Mediciones de pH, densidad de la tierra y humedad Se realizaron mediciones de los parámetros de la tierra antes y después de contaminarla. Además de que se realizan dos mediciones de los parámetros cada semana. Los equipos usados son potenciometro para medir el pH, y la humedad esrealizada con una balanza analítica y una parrilla, dónde se calcula el % de humedad restando el peso húmedo menos el peso seco.  


CONCLUSIONES

- Elaboración de las curvas de calibración. - Determinación de la remoción de los contaminantes. - Analizar las capacidades de biorremediación de Crassula ovata y Zinnia elegante con el respecto al contaminante empleado.  
Cervantes Almonte Yaneli, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro

DESARROLLO DE UN PLAN DE NEGOCIOS PARA UN MATERIAL BIOPOLIMERO


DESARROLLO DE UN PLAN DE NEGOCIOS PARA UN MATERIAL BIOPOLIMERO

Cervantes Almonte Yaneli, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Según Greenpeace (2019). La producción total de plástico en 2016 alcanzó las 335 millones de toneladas. A esta cantidad hay que sumarle las fibras sintéticas que se usan en la ropa, cuerdas, u otros productos, que de forma conjunta representaron 61 millones de toneladas ese mismo año. Se estima que en 2020 se superarán los 500 millones de toneladas anuales, lo que supondría un 900% más que los niveles de 1980. Lo cual es un problema para el mundo y la humanidad pues  ya que se está contaminando demasiado provocando el cambio climático, desastres naturales sin considerar la contaminación de ecosistemas. El plástico se utiliza porque es fácil y barato de fabricar y porque dura mucho tiempo. Lamentablemente, estas mismas ventajas hacen que se convierta en el aliado número uno de la contaminación. Su bajo precio hace que uno se deshaga rápidamente de él, y su larga existencia hace que perdure en el medioambiente durante largos periodos de tiempo, en los que puede causar grandes daños. Ya que no puede descomponerse y se necesita una alta energía de rayos ultravioleta para acabar con él, la cantidad de plástico que se desperdicia en los océanos está aumentando considerablemente. Fernando B.  (2007) El problema del plástico. nU2



METODOLOGÍA

Los componentes de un plan de negocio incluyen un resumen ejecutivo, análisis de mercado, descripciones de productos, servicios y proyecciones financieras  de operaciones. Teniendo esto en cuenta para iniciar nuestro plan de negocio para un material biopolímero, se llevara a cabo la para esta etapa  una investigación de mercado para si determinar nuestros clientes y tipo de mercado así como el tipo de publicidad que se tendrá que ofrecer, se realizara un determinado número de encuestas con el método que sea más adecuado ya sea cualitativo o cuantitativo, las preguntas que se aplicaran para saber si será o no aceptado el producto en la región de Tacámbaro. Se creara las partes que conforman la empresa desde misión, visión, valores, objetivos así como la estructura organizacional, También se elaborara un plan financiero para saber cuánto se gastara, invertirá, ganara y en qué momento se podría decir que se recuperara la inversión, con este análisis financiero también se elaborar un pronóstico de ventas y otras estimaciones de costos, ya teniendo lo mencionado se  realizara un resumen ejecutivo lo cual es totalmente completo y se hablara de toda la empresa así como sus partes y productos que ofrece.


CONCLUSIONES

La Investigación de mercado realizada para el plan de negocios resulto ser favorable, los encuestados respondieron de la siguiente manera: ¿Compraría un popote biodegradable hecho de un material biopolímero de nopal? un 94.59%  respondieron si, solo un 5.41% contestaron un no. Esto indica que el producto es notablemente aceptado. ¿Compraría un popote biodegradable hecho de un material biopolímero de nopal al precio de 0.50 centavos? un 94.59%  respondieron si, solo un 5.41% contestaron no. El resultado es favorable porque la mayoría lo compraría y acepta el precio. El genero 54.05% son mujeres que aceptan el producto,el 45.95 son hombres,con estos datos recabados se definirá el tipo marketing que se va ofrecer será dirigido para ambos sexos.   El resultado que se obtuvo es de mucha ayuda, cabe mencionar quedependía el plan de negocios de esta etapa para poder tener claro que tipo de mercadotecnia, los clientes que tendrá el producto y si sería aceptado. Dentro del análisis expuesto de la investigación de mercado dio como resultado que el popote elaborado de un material biopolímero de nopal esaceptado por la región de Tacámbaro.
Cervantes Ceballos Giselle, Instituto Tecnológico de Pachuca
Asesor: M.C. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica (Colombia)

ANUALIZACIóN DE HORAS EN LA PROGRAMACIóN DE TURNOS: CASO APLICADO A LA INDUSTRIA DE CALL CENTER/RETAIL


ANUALIZACIóN DE HORAS EN LA PROGRAMACIóN DE TURNOS: CASO APLICADO A LA INDUSTRIA DE CALL CENTER/RETAIL

Cervantes Ceballos Giselle, Instituto Tecnológico de Pachuca. Asesor: M.C. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Para un horizonte de planificación semanal y un contexto de tienda minorista, el estudio consiste en planificar una fuerza laboral polivalente que a su vez tiene contratos flexibles. El objetivo es lograr un funcionamiento coste-efecto de la tienda, minimizando los niveles de sobre y falta de personal. Como enfoque de solución, esta investigación propone un modelo híbrido de flexibilidad laboral que combina el uso de contratos flexibles (es decir, contratos a tiempo parcial con diferente duración de turnos) y empleados multiskilled. Para medir los beneficios potenciales de una combinación de flexibilidad estratégica (es decir, empleados con múltiples habilidades y contratos flexibles) en la planificación de personal, también es necesario resolver un problema de programación de recorridos, donde los ahorros en costos de exceso de personal son apreciados cuando los empleados con múltiples habilidades son transferidos entre departamentos de la tienda según a cadenas cerradas generadas. Así, nuestra flexibilidad laboral híbrida.



METODOLOGÍA

El objetivo de la metodología consiste en estructurar una fuerza laboral que combina contratos flexibles y múltiples habilidades en una tienda minorista. Formulación del modelo La formulación del modelo considera los siguientes supuestos: (1) No se considera el ausentismo no programado del personal.  (2) No se considera pausa para comer o descansos adicionales.  (3) Demanda del personal por cada departamento, período de tiempo y día se supone conocido y puede ser parcialmente satisfecho. Esto implica que los costos de falta de personal están incluidos en la función objetivo.  (4) Se supone que estos costos de falta de personal son lo mismo para todos los departamentos, periodos y días.  (5) El exceso de personal también impone un costo y dicho costo también se supone que es el mismo para todos los departamentos, plazos y días.   (6) Al inicio del horizonte de planificación, se supone que no hay ningún empleado contratado, lo que permite que el modelo decida estratégicamente el número requerido de personal y sus habilidades de acuerdo con la demanda.  (7) Se consideran dos tipos de contrato: (i) FT45, para tiempo completo, empleados que trabajan 45 horas semanales lo que permite una sola jornada laboral (9-h); y (ii) PT30, para empleados a tiempo parcial, que trabajan 30 horas semanales lo que permite diferentes jornadas laborales (5, 6 y 10-h).  (8) Los empleados con múltiples habilidades no pueden trabajar en más de dos departamentos. La capacitación para más de dos tipos de tareas a menudo se considera menos rentable.  (9) La fuerza laboral es homogénea, es decir, todos los empleados tienen la misma productividad, incluso independiente de cuántos departamentos están entrenado para trabajar. Esto se debe a que los niveles de complejidad de las tareas en el comercio minorista no son tan altos y variados (en comparación con industrias como la fabricación, donde generalmente se asume la heterogeneidad de los empleados).  (10) Los tiempos de entrenamiento se ignoran. (11) Las preferencias de los empleados de cualquier tipo no son consideradas.  (12) No hay variación de la jornada laboral durante la semana.  Modelado simultáneo de multiskilling y flexible. Modelar esta estrategia de flexibilidad híbrida requiere responder a la siguiendo cuatro preguntas clave: (P1) ¿Cómo podemos incorporar la multiselección en el modelado matemático? (P2) ¿Cómo podemos incorporar contratos flexibles en modelación matemática? (P3) ¿Cómo podemos asignar empleados de múltiples habilidades para sus turnos de trabajo? Y finalmente (P4) ¿Cómo asignamos jornadas de trabajo a los empleados? Por lo tanto, la solución del problema debe indicar cuántos empleados tendrán múltiples habilidades y habilidades únicas y en qué departamentos serán capacitados, así como indicar sus configuraciones de contratos a tiempo completo o parcial. Con respecto a la primera pregunta (P1), la solución del problema debe indicar cuántos empleados se capacitarán en dos departamentos, es decir, empleados con múltiples habilidades y en qué departamento (s) puede trabajar cada uno. La solución a la segunda pregunta (P2) debe indicar cuántos empleados serán de tiempo completo y de tiempo parcial. Con respecto a la tercera pregunta (P3), es importante entender que los empleados con múltiples habilidades se pueden programar con dos enfoques diferentes: (1) Permitir que los empleados con múltiples habilidades sean asignados a un solo departamento por día laborable. (2) Permitir la transferencia de empleados con múltiples habilidades entre departamentos de un día para otro, pero también de uno período al siguiente dentro de un solo día. El segundo enfoque conduce a mayor flexibilidad y mejor uso de la misma, ya que aumenta las oportunidades para la transferencia de empleados polivalentes desde departamentos con presencia de exceso de personal a los departamentos con presencia de personal insuficiente. Sin embargo, este último enfoque también aumenta la combinatoria. Finalmente, con respecto a la cuarta pregunta (P4), los cambios también pueden ser programados con dos enfoques diferentes: (1) Al considerar una constante jornada laboral, es decir, a cada empleado se le asigna un turno de igual duración a lo largo de la semana, de acuerdo a su contrato. (2) Permitiendo que los empleados sean asignados a turnos de diferentes duraciones durante la semana, según su contrato. Nombramos estos dos enfoques: (1) jornada laboral constante y (2) jornada laboral variable.


CONCLUSIONES

Se propuso un modelo de programación lineal de enteros mixtos para la evaluación de los beneficios de una estrategia de flexibilidad híbrida en la gestión de recursos humanos y en un contexto de tienda minorista. Durante la estancia de verano se adquirieron conocimientos teóricos desde otros trabajos analizados de los diferentes modelos propuestos y los resultados obtenidos para la programación de la fuerza laboral en horas anualizadas.  
Cervantes Lopez Misael, Instituto Tecnológico de Tepic
Asesor: Dr. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN DE TúNELES EN 2D UTILIZANDO EL MéTODO DE ELEMENTOS FINITOS (MEF)


MODELACIóN DE TúNELES EN 2D UTILIZANDO EL MéTODO DE ELEMENTOS FINITOS (MEF)

Cervantes Lopez Misael, Instituto Tecnológico de Tepic. Asesor: Dr. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Un túnel se puede definir como una sección hueca que comunica 2 puntos entre sí, pueden ser subterráneos o subacuáticos. Los primeros túneles son generados por la naturaleza, construyendo cuevas y ríos subterráneos en pro de los ecosistemas. Hace 15,000 años los seres humanos imitamos a la naturaleza una vez más y se crean las primeras construcciones subterráneas, es en este punto donde los túneles pasan a ser obras civiles. En México se han construido túneles desde el auge de la civilización maya, incluso en la época colonial en las ciudades de Puebla, Cuernavaca y Guanajuato. Actualmente se sigue una creciente tendencia en la construcción de túneles en nuestro país, por mencionar algunos túneles relevantes por su tamaño e impacto social: túnel de la Línea 3 del Tren Ligero de Guadalajara, el bitunel del tren interurbano México-Toluca, el túnel del Emisor Oriente de la CDMX, Ramal Camelinas en Morelia, etc. En la actualidad existe una gama de herramientas para la modelación de túneles que nos permiten desarrollar mejores modelos y comprender el comportamiento que podrá tener los túneles durante su construcción. Estos modelos utilizan el Método de Elementos Finito (MEF) el cual utiliza ecuaciones diferenciales para la resolución de este método numérico.



METODOLOGÍA

Se utilizó el programa RS2® para la realización de los modelos utilizando los siguientes parámetros. Modelo Geométrico y condiciones de frontera: El modelo geométrico corresponde al estrato del suelo en estudio, así como la sección del túnel considerando una profundidad en la que los resultados sean equivalentes a los obtenidos con la teoría elástica (REF). Las condiciones de frontera nos permiten restringir el modelo en los ejes deseados para evitar los errores matemáticos. Es importante señalar que podemos restringir tanto las aristas como los nodos del modelo. Para nuestro modelo geométrico se considera un cuadrado de 100x100m con restricciones en x-y en los aristas inferior, lateral izquierdo y lateral derecho. Para la arista superior primeramente se consideró con restricción en x-y pero debido a una actualización de RS2® los modelos posteriores presentaban anomalías en sus resultados por lo que se procedió a cambiar en la arista superior la restricción en x. La sección del túnel es circular con un radio de 5m subdividido en 80 secciones. Para todos los modelos se utiliza una malla graduada triangular de 6 nodos. Propiedades del suelo: Los siguientes parámetros del suelo corresponden a un suelo típico de la ciudad de Morelia, México (Equihua et al., 2018). También  se considera en la carga inicial del elemento solamente el esfuerzo del suelo sin tomar en cuenta el peso propio para evitar deformaciones debidas a la gran profundidad con la que se está modelando. En la Tabla 3.1 se presentan los parámetros del suelo. Propiedades hidráulicas del suelo: Las propiedades hidráulicas fueron variadas dependiendo si considerábamos agua en el modelo. Cuando no se considera el agua, se tiene un material drenado, en cambio cuando se considera el agua en nuestro modelo se debe colocar una línea piezométrica en la arista superior, considerar el material como no drenado y cambiar el modelo estático del agua a líneas piezométrica. Cargas en el túnel y etapas: La carga en la periferia del túnel está dado por el peso específico del suelo por la profundidad al centro del túnel. En la etapa 1 se considera como la etapa inicial por lo cual no existe excavación en el túnel, no es sino a partir de la etapa 2 que se considera la excavación y es precisamente en esta etapa donde consideramos la carga en un 90% disminuyendo eventualmente hasta llegar a 0 en la etapa 11.  Con ello logramos obtener las deformaciones en ambas fases (elástico y elastoplástico) si no se considera estas cargas obtendremos solamente la deformación máxima en ambas fases. Se puede considerar los esfuerzos del suelo de 2 maneras, Constante y Gravedad. Utilizando constante se debe definir los valores de Sigma (1,2 y 3) si se considera isotrópico entonces tendremos valores iguales en todos los sigmas.


CONCLUSIONES

La modelación numérica depende en gran medida del usuario, el conocer los parámetros a utilizar e interpretar si los resultados son correctos es esencial. Parámetros como el tipo de suelo (elástico o plástico) modifican en gran medida los resultados de nuestro modelo, cuando se considera el suelo como tipo elastoplástico se presenta mayores deformaciones en el túnel que como cuando es elástico. Si comparamos ambos resultados podemos definir en qué etapa el suelo se comporta de manera plástica. Cuando consideramos agua en el modelo se tiene que cambiar varios parámetros ya que sin estos cambios se obtienen resultados erróneos, estos se pueden verificar al momento revisar las gráficas ya que se obtienen formas extrañas en las deformaciones es precisamente en este punto donde entra el criterio del modelador. Una vez modificados estos parámetros podemos obtener los resultados esperados considerando el agua en el modelo, pero también es importante mencionar que las actualizaciones del programa nos obligan a cambiar parámetros ya que estas traen consigo mejoras al programa. La modelación en 2D permite obtener las deformaciones máximas obtenidas en un modelo numérico, con ello podemos realizar propuestas que estén en un mayor rango de seguridad. Las ventajas de utilizar este software son que es más económico que otros y se necesita un equipo más básico de cómputo.
Cervantes Rodríguez Georgina, Universidad de Guadalajara
Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes

DETERMINACIóN DEL ANCHO ACTIVO DE UNA FALLA GEOLóGICA PREVIAMENTE IDENTIFICADA MEDIANTE INSTRUMENTACIóN.


DETERMINACIóN DEL ANCHO ACTIVO DE UNA FALLA GEOLóGICA PREVIAMENTE IDENTIFICADA MEDIANTE INSTRUMENTACIóN.

Cervantes Rodríguez Georgina, Universidad de Guadalajara. Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En el valle de Aguascalientes existe un grave y creciente problema relacionado con la reactivación de antiguas fallas geológicas y nuevos fracturamientos debido a la subsidencia (proceso de hundimiento gradual del terreno) por la excesiva extracción de agua de los mantos acuíferos del valle. Una gran parte de estas fallas y fracturas se detectaron y cartografiaron desde 1981 (Aranda y Aranda, 1985; Aranda - Gómez, 1989) por lo que la ciudad misma, así como sus poblados externos, crecieron rodeando y bordeando las fracturas dejando un margen arbitrario de lejanía entre las edificaciones y las fallas mismas, sin embargo, estas fallas conocidas han crecido y del mismo modo han surgido nuevas fracturas cuyas consecuencias son daños a la infraestructura de las construcciones cercanas a la traza. El problema surge entonces al dejar a criterio propio este llamado margen arbitrario pues el Código de Ordenamiento Territorial, Desarrollo Urbano y Viviendas del estado de Aguascalientes no incluye normativa concisa referente a estas edificaciones en específico y a la distancia a la cual se podrá desplantar una construcción con seguridad por lo cual esta normativa es de vital importancia puesto que en muchos casos por intereses de particulares este margen arbitrario de seguridad es reducido hasta lo mínimo posible poniendo en riesgo inminente a muchas obras civiles. En un intento por sobrellevar las consecuencias de las regiones afectadas por subsidencia de cualquier tipo se propone la medición y determinación del ancho activo de las fallas presentes en el valle de Aguascalientes. La necesidad de información acerca del ancho activo y/o de afectación surge a partir de las problemáticas legales, constructivas y de protección civil que nos hacen preguntarnos: ¿Será posible determinar y generalizar un ancho de afectación de las fallas geológicas ya detectadas? ¿A partir de qué distancia de la falla es seguro edificar cualquier tipo de construcción? ¿Qué medidas es prudente implementar en los reglamentos de construcción en estas edificaciones específicas? Estas mediciones tienen como objetivo dejar un antecedente a estas preguntas para anticipar construcciones más preparadas para los diferentes cambios en la estabilidad del suelo debido al paso de una falla o grieta cercana al predio de construcción.



METODOLOGÍA

La metodología empleada en este proyecto se respaldó en un estudio de caso documentado en Caracas en octubre de 1997 llamado Vulnerabilidad de los sistemas de agua potable frente a deslizamientos en donde se define una metodología básica para detectar posibles áreas de deslizamiento y/o hundimiento. Dicha metodología es: 1.- La identificación de los mecanismos de falla más comunes en los distintos tipos de materiales geológicos. 2.- El establecimiento de criterios para la recolección de información. 3.- La búsqueda e interpretación de efectos claves para identificar la posible inestabilidad de los taludes. En el caso particular de este proyecto de investigación se optó por abordar la problemática por medio de la instrumentación y recopilación de datos periódicamente puesto que ya se tiene identificado que el mecanismo de falla en la región es dado por el hundimiento diferencial del suelo más que por actividad sísmica. Esta instrumentación fue a base de un nivel topográfico y un estadal para crear un perfil topográfico de una falla previamente detectada ubicada en una zona habitacional en la colonia Vistas del Sol en la ciudad de Aguascalientes. El proceso y criterio de obtención de datos consistió en la marcación de puntos topográficos, a diferente longitud de la traza, a partir del centro visible de la falla hasta 40 metros a los costados de este centro. Una vez marcado el punto central se decidió realizar la marcación hacia los costados de 20 puntos a cada metro y de 10 puntos a cada 2 metros cubriendo así un monitoreo total de 80 metros a lo ancho del agrietamiento. El principal objetivo de esta metodología es monitorear periódicamente (se sugiere un monitoreo mensual) el crecimiento y movimiento de esta falla en específico y lograr visualizar con mayor claridad el ancho de afectación y de movimiento de la misma verificando en qué puntos del perfil topográfico hay un movimiento diferencial constante.


CONCLUSIONES

A lo largo de esta estancia de verano y en este proyecto en específico se llegó a la obtención de un primer levantamiento de nivel topográfico en un tramo de una falla específica para su posterior monitoreo y evolución para que, transcurrido un tiempo, se realice una comparación y se establezca si hay un movimiento a lo ancho de ésta y se pueda determinar si es posible o no generalizar un ancho de afectación para esta falla a todo lo largo de su traza.
Cervantes Velazquez Javier Andres, Instituto Tecnológico de La Piedad
Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL ÓPTIMO PARA UN INVERSOR TRIFÁSICO CONECTADO A LA RED ELÉCTRICA


CONTROL ÓPTIMO PARA UN INVERSOR TRIFÁSICO CONECTADO A LA RED ELÉCTRICA

Cervantes Velazquez Javier Andres, Instituto Tecnológico de La Piedad. Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El objetivo es llevar a cabo el control y transmisión de potencia activa y reactiva a la red electrica, mediante un inversor trifásico de dos niveles con un filtro LCL para la reducción eficiente de armónicos no deseados en la corriente y voltaje de salida. Se hace uso de un algoritmo de control optimo robusto para sistemas no lineales para llevar la potencia activa y reactiva a las referencias deseadas.  



METODOLOGÍA

MODELADO: Se realizaron modelos matemáticos a través de los cuales se pudieron determinar los ajustes necesarios para obtener un resultado particular.   CONTROL: Para simplificar el análisis y diseño del algoritmo de control, se propone un cambio en el marco de referencia ABC , a través de la transformación de Park. Donde las fases ABC se transforman en el llamado marco de referencia dq0. SIMULACION: Se realizaron pruebas de simulación en el software Matlab 2017 del algoritmo de control Óptimo no lineal, para analizar la factibilidad del inversor antes de intentar conectarlo a la red


CONCLUSIONES

Se logró comprobar la factibilidad de seguir con la implementación del inversor, donde fue posible demostrar por medio de la simulación que si era posible tener un control en la corriente activa y reactiva inyectada a la red.    
Chacon Velazquez Francisco Javier, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

PROTECCIÓN DIFERENCIAL DE BANCO DE CAPACITORES


PROTECCIÓN DIFERENCIAL DE BANCO DE CAPACITORES

Chacon Velazquez Francisco Javier, Consejo Quintanarroense de Ciencia y Tecnología. Chan Melvin Leandro, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los bancos de capacitores, (shunt capacitor bank o SCB), se construyen usando unidades individuales conectados en serie/paralelo, son aplicados para proporcionar potencia reactiva (MVAR), además de poderse implementar en cualquier parte de la red, los SCB tiene efectos de beneficio como una mejor regulación de tensión, corrección de factor de potencia, reducción de pérdidas de transmisión y generación. Los SCB, así como cualquier otra maquina eléctrica esta susceptible a fallos eléctricos, como cortos circuitos dentro del banco, fallas a tierra, descargas atmosféricas, etc. Debido esto es de considerar una protección que ayude a aislar la falla en los elementos que constituyen el banco de condensadores. Una segunda problemática es en el instante de energización del SCB, genera una corriente que muchas veces es detectado como falla, de tal manera este momento de energización no debe ser interpretada como falla por el elemento de protección.



METODOLOGÍA

La primera semana se realizó un análisis de literatura de los diferentes tipos de bancos de capacitores y el desbalance de corriente y voltaje cuando existen fallas. De igual manera se estudió el concepto de protección diferencial y su aplicación en los sistemas eléctricos de potencia. Para la simulación del sistema eléctrico se utilizó el programa PSCAD/EMTDC. Luego en un periodo de 3 semanas, se creó un banco de capacitores en PSCAD, el cual consiste de 12 elementos (capacitores) de 31.8uF conectados en paralelo formando un grupo; cada fase consistía de 4 grupos conectados en serie formando el banco de capacitor. La configuración que se utilizó para esta investigación fue de estrella aterrizada. Para la alimentación se utilizó una fuente de 230 KV a 60 Hz. De igual manera dentro del programa se fueron implementando fallas comunes que pueden existir en el sistema. Esto para poder evaluar la aplicación de una protección diferencial a un banco de capacitores. Una semana para el análisis de las simulaciones de las fallas y aplicación de la protección diferencial en el banco. Se observó y analizo todas las gráficas generadas en cada evento de falla, de las corrientes en el neutro y de las fases del sistema. Para análisis de la protección diferencial se estudió la gráfica de corriente diferencial contra corriente de restricción obtenidas por cálculos de las corrientes de fase de entrada y salida del elemento de protección (Banco de capacitor).


CONCLUSIONES

Los diferentes tipos de fallas fueron evaluados y analizados en el banco de capacitores. Se observó que tanto un desequilibrio en la unidad del banco como un fallo interno en la zona de protección producen un desequilibrio en la corriente del neutro y en las corrientes de fase (tanto de entrada como de salida). La protección diferencial fue identificada correctamente entre una corriente de entrada y las diferentes fallas en las tres fases. Por lo tanto, se concluyó que la protección diferencial puede implementarse en un SCB.
Chan - Angel Jose, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez

MONITOREO DE UN SISTEMA FOTOVOLTAICO INTERCONECTADO A LA RED ELECTRICA


MONITOREO DE UN SISTEMA FOTOVOLTAICO INTERCONECTADO A LA RED ELECTRICA

Chan - Angel Jose, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La gran cantidad de energía utilizada por el mundo proviene del petróleo Estos tipos de combustibles no son renovables y emiten gran cantidad de CO2 al medio ambiente provocando un desequilibrio ambiental que está cobrando factura en la actualidad. Hoy en día se busca reducir la contaminación que persiste en el medio ambiente combatiéndolo de una manera más óptica con el aumento de generación de energía renovable. La Comisión Reguladora de Energía (CRE) ha puesto reglamentos a participantes obligados según la LIE Artículo 123. Los Certificados de Energías Limpias (CEL) tiene una estimación para los generadores limpios  que  1 CEL = 1 MWH. La CRE establece que los participantes obligados tienen que comprar el  5%, 5.8%, 7.4%, 10.9%, 13.9%  de su consumo respectivamente en los años 2018, 2019, 2020, 2021, 2022.



METODOLOGÍA

Toda esta situación hace ejercer diferentes ramas relacionadas a la generación, transmisión y distribución de la energía limpias. En este resumen se concentrará en el sistema de monitoreo para paneles solares. Al inicio de la investigación se analizaron dos diferentes sistemas de monitoreo para paneles solares. Los inversores utilizados en las diferentes instalaciones para los clientes fueron de la marca GROWATT y SOLIS. Las dos marcas tienen un gran desempeño para efectuar una implementación de monitoreo a base de una aplicación móvil que facilita al interesado conocer la energía recolectada. Sin embargo en la comparación de graficas de generación de energía eléctrica de cada día y mes desde la interconexión del sistema fotovoltaica, el monitoreo de la marca SOLIS tiene una ventaja sobre GROWATT. Enfocado más en SOLIS  teniendo una cuenta de usuario se puede monitorea en cualquier lugar mientras cuentes con conexión a internet. Durante el transcurso del tiempo algunos clientes que tenían el sistema instalado, tenían quejas ya que comenzaron a pagar un poco más en su recibo de energía eléctrica debido a que al paso del tiempo se instalaban más aparatos electrónicos, instalación de más aires acondicionados los cuales no habían sido contemplados previamente por lo que el consumo se elevaba, las tarifas crecían y por lo cual se buscaban  soluciones. Entonces se hizo una análisis de consumo de energía eléctrica de del usuario en cual se notó que el usuario instalo unas cargas adicionales y consumía un poco más por el tiempo que invertía en su casa. 


CONCLUSIONES

En esta investigación concluyo que los resultados fueron lo esperado, la potencia máxima de generación del inversor es de 10 kilowatts. Tuvimos dos posibles soluciones para resolver la queja de los clientes que sobrepasaban su consumo Pagar el consumo eléctrico que marcaba el recibo de CFE y continuar pagando dicho ’excedente’ Hacer un conteo de Kw que hay en el establecimiento y replantear la posibilidad de aumentar el uso de paneles solares que satisfagan la cantidad de energía requerida. Gracias al monitoreo de energía eléctrica se pudo ver que la generación de energía eléctrica en cada mes casi son casi iguales. Se le comunico al cliente del análisis de su sobre consumo y se le dio la solución que era instalar 5 paneles solares. Con la suma de los otros 5 paneles solares el cliente ya contaba con 40 paneles solares. Esos son las ventajas de tener un buen monitoreo de la generación de energía eléctrica para tener datos para poder  defender los puntos de vista y a su vez presentamos evidencia grafica de estos mismos resultados. Un ingeniero habla con números, gráficas y estadísticas y eso hemos hecho.
Chan Baños Jonathan Eduardo, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos

CREACIÓN DE BASE DE DATOS DEL SURESTE MEXICANO


CREACIÓN DE BASE DE DATOS DEL SURESTE MEXICANO

Chan Baños Jonathan Eduardo, Instituto Tecnológico Superior de Los Ríos. Moha Chan Javier, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En un mercado como el de ahora, globalizado y competitivo, las empresas deben de enfocarse en estrategias que aseguran la calidad del servicio o producto que presentan a sus consumidores. En la empresa de S.A.S (sistemas de alarmas de sur) de S.A DE C.V. es una empresa que busca expandirse a la zana sureste de México para aumentar sus ventas del servicio y a la vez proveer una seguridad a los ciudadanos.



METODOLOGÍA

En el sureste mexicano han ocurrido numerosos casos de robo como: robo de bienes, saqueo de empresas, rapiña, robo de vehículos, tráiler o cargas valiosas de empresas en las autopistas. También ocurren accidentes en hogar o empresas como incendios, cortocircuitos, etc. La empresa S.A.S DE S.A DE C.V busca reducir o erradicar los daños, implementado un servicio de alta calidad a los clientes y este ajustándose al precio de ellos, ya que esta empresa cuanta con sistema de seguridad y alamar para la asistencia del problema que surja ya está monitoreado las 24/7 bajo una central de vigilancia.


CONCLUSIONES

Elaboración de una base de datos en el programa Excel utilizando visual basic para programar la interfaz y los datos que esta llevara, se realizara una investigación de cuales posibles empresas podrían adquirir este servicio de seguridad en los estados de Tabasco, Campeche Y Yucatán con un promedio de 200 empresas por estado llegando a un total de 600 empresas Implementando esta base de datos que se plantea en el presente trabajo se espera aumentar las ventas en el sureste de mexicano, también se espera que la base de datos pueda utilizarse como un estudio de campo en cual pueda proyectar cual es el porcentaje de que este servicio se factible en esta zona y así tomar que favorezcan a la empresa.
Chan Dzib Oscar Adrian, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México

CIENCIAS COMPUTACIONALES.


CIENCIAS COMPUTACIONALES.

Alvizo Pérez Néstor Primitivo, Consejo Quintanarroense de Ciencia y Tecnología. Aranda Cen Jeancarlo Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Chan Dzib Oscar Adrian, Consejo Quintanarroense de Ciencia y Tecnología. de la Cruz Mendez Oscar, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La explicación y aplicación de los simulacros en caso de emergencias en una institución educativa  genera un costo tanto monetario como de tiempo. El uso de simulacros de emergencias mediante inteligencia artificial y realidad virtual tiene beneficios económicos  y de tiempo. Este Proyecto se realizó con el motivo de realizar una simulación virtual de cómo se debería de comportar los alumnos de la Universidad Autónoma de México ante una fenómeno natural como pueden ser terremotos y poder tomar una ruta de evacuación de manera organizada, debido a que muchas personas no sabrían cómo actuar ante tales situaciones.



METODOLOGÍA

Para recrear estas situaciones de emergencias , se ha hecho simulaciones de comportamiento en un entorno  3D utilizando el software de Unity y Sketchup. Seguidamente para visualizarlo se lleva el proyecto de Unity al campo de la realidad virtual. Para esto usamos el software de Occulus y unos lentes VR Occulus rift. Como primer punto se realizo el diseño del edificio G de "Facultad e Ingenieria" en el software de Sketchup. Para ello se tomaron las medidas exteriores e interiores del edificio para hacerlo lo mas real posible.  Seguidamente  se diseñaron avatares y se les programo comportamientos, con el fin de que se simule en ambiente virtual del proposito principal del proyecto. Una vez hecho estos 2 puntos anteriores se llevo el proyecto al ambiente de realidad virtual. Y para poder visualizarlo tuvimos que tener unos lentes VR Occulus Rift que en este caso el investigador nos lo facilito.  Ya teniendo los lentes VR, al proyecto se le integran plugins necesarios para que sea reconocido por los lentes y asi poder visualizarlo en ellos.  


CONCLUSIONES

Los resultados que se obtuvieron fueron al haber creado el entorno virtual para la simulacion de emergencias virtuales. Donde los alumnos pueden entender mas rapido el como reaccionar ante estos eventos. Se espera que este proyecto optimize el tiempo y beneficios a la Universidad al momento de realizar los simulacros. Pues proteme tener exito.
Chan Ek Carlos Lauriano, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima

MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA


MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA

Chan Ek Carlos Lauriano, Consejo Quintanarroense de Ciencia y Tecnología. Dzul Kinil Merly Estrella Darany, Consejo Quintanarroense de Ciencia y Tecnología. Flores Bañuelos Mariana, Universidad de Guadalajara. Reynaga Cobián Rabí Salvador, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el ámbito tecnológico encontramos la clave para tratar al comercio electrónico como una actividad económico-comercial única, pero es necesario hacer énfasis en la división del comercio tradicional y el comercio electrónico. Puesto que el comercio electrónico ofrece diversas bondades a todos los diferentes agentes económicos. No obstante, sigue existiendo la problemática sobre los medios digitales más eficaces y con mayor publicidad para el ofrecimiento de oportunidades de marketing para abarcar la mayor parte del mercado y que tanto los productores, proveedores de bienes/servicios incluyendo usuarios logren el tener acceso y la transmisión mundial a la unificación de hacer uso de las herramientas disponibles de e-commerce para mayor esparcimiento de forma sencilla y económica. La mayor problemática que enfrentan las PyMEs en el estado de Colima es que en ocasiones se sienten limitados y les es difícil la divulgación de sus productos ya sea que para el primer caso sean pequeñas empresas que están comenzando y quieren vender solo en línea, para el segundo caso porque ya están establecidas, pero aún no tienen reconocimiento ni físico ni digitalmente, o en tercer caso porque ya tienen resultados, pero buscan complementarlo para tener aún más éxito. Para solucionar la anterior problemática se elaboró esta investigación que permitirá el desarrollo de un modelo de Marketing Digital empleando el uso de tecnologías y herramientas especializadas para la segmentación de mercado.



METODOLOGÍA

Se utilizó la metodología de Diseño Centrado en el Usuario (DCU), es la aplicación en la que se practica la interacción persona -ordenador, se basa en la participación de las personas en busca de las necesidades del usuario por medio de procesos de diseño y evaluaciones, descubriendo la usabilidad y experiencia de uso, pasando por distintas etapas de diseño hasta llegar al usuario final. También se utilizó como método de medición una encuesta en línea de doce preguntas de opción múltiple elaborada en Google Forms, dirigida a las personas de dos AGEB en Villa de Álvarez del estado de Colima, con una población de 1721 habitantes en la AGEB 10021 donde incluye tres colonias y 2557 habitantes en la AGEB 10290 donde incluye dos colonias, la muestra fue de 278 personas. Gracias a la encuesta se concluyó que la mayoría de los encuestados esta entre los 15 y 30 años de edad, el 96% tiene un teléfono celular inteligente, el 92.7% de los encuestados respondió que si cuenta con acceso a internet lo cual no es limitante para hacer compras en línea y un 77.7% de los encuestados dijo que ha comprado por Internet, vemos que el porcentaje de las compras en línea disminuye a comparación de los usuarios que tienen acceso a internet  lo cual nos comprueba que existen varios obstáculos para hacerlo, uno de ellos es la falta de publicidad  y divulgación por parte de las PyMEs, un 32% de los encuestados también dicen que no hacen compras en línea por ser inseguras, esto le da un plus a nuestra intención ya que la permuta es directa con el cliente  y le da un grado más alto de confianza, el 94.3% de los encuestados expresan que siempre que hacen las compras en línea buscan los mejores precios, también es ventajoso para que las PyMEs  puedan ofrecer  sus productos sin que se eleve el precio a terceros. Entonces nos percatamos que los métodos utilizados son de buen provecho para el seguimiento y realización de la aplicación requerida por las PyMEs. Como resultante de los métodos utilizados realizamos el siguiente diseño en donde se plantea la descripción del Proceso paso a paso: Como primer paso seleccionaremos el producto a vender. Se tomarán 3 fotos desde diferentes ángulos del producto o se puede agregar imágenes desde la galería. Escribir el nombre del producto a vender. Se registrará una descripción específica del producto incluyendo medidas y/o peso. Se debe ingresar precio y existencia del producto a vender. Se registran los datos de contacto incluyendo la forma de pago, ya sea efectivo o tarjeta. Se genera una imagen o PDF incluyendo todas las especificaciones del producto. Se descargará o compartirá la imagen o el PDF generado.


CONCLUSIONES

Sobre los objetivos del proyecto concluimos que las herramientas tecnológicas que utilizamos si traen beneficios en cuanto al refuerzo en las PyMEs ya que encuentran menores barreras de mercado, lo que brinda un panorama donde tenga una mayor posibilidad de obtener clientes potenciales y por consiguiente generar mayores reducciones de costos ya que esto posibilita que empresas no tengan la necesidad de obtener un establecimiento de venta de sus productos y/o servicios al cliente de manera presencial. Se planteó el prototipo de la aplicación generalizando la descripción de sus procesos, interfaces, clases y/o módulos, que se tendrá un desarrollo innovador y fácil para las PyMEs a futuro.
Chan Melvin Leandro, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

PROTECCIÓN DIFERENCIAL DE BANCO DE CAPACITORES


PROTECCIÓN DIFERENCIAL DE BANCO DE CAPACITORES

Chacon Velazquez Francisco Javier, Consejo Quintanarroense de Ciencia y Tecnología. Chan Melvin Leandro, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los bancos de capacitores, (shunt capacitor bank o SCB), se construyen usando unidades individuales conectados en serie/paralelo, son aplicados para proporcionar potencia reactiva (MVAR), además de poderse implementar en cualquier parte de la red, los SCB tiene efectos de beneficio como una mejor regulación de tensión, corrección de factor de potencia, reducción de pérdidas de transmisión y generación. Los SCB, así como cualquier otra maquina eléctrica esta susceptible a fallos eléctricos, como cortos circuitos dentro del banco, fallas a tierra, descargas atmosféricas, etc. Debido esto es de considerar una protección que ayude a aislar la falla en los elementos que constituyen el banco de condensadores. Una segunda problemática es en el instante de energización del SCB, genera una corriente que muchas veces es detectado como falla, de tal manera este momento de energización no debe ser interpretada como falla por el elemento de protección.



METODOLOGÍA

La primera semana se realizó un análisis de literatura de los diferentes tipos de bancos de capacitores y el desbalance de corriente y voltaje cuando existen fallas. De igual manera se estudió el concepto de protección diferencial y su aplicación en los sistemas eléctricos de potencia. Para la simulación del sistema eléctrico se utilizó el programa PSCAD/EMTDC. Luego en un periodo de 3 semanas, se creó un banco de capacitores en PSCAD, el cual consiste de 12 elementos (capacitores) de 31.8uF conectados en paralelo formando un grupo; cada fase consistía de 4 grupos conectados en serie formando el banco de capacitor. La configuración que se utilizó para esta investigación fue de estrella aterrizada. Para la alimentación se utilizó una fuente de 230 KV a 60 Hz. De igual manera dentro del programa se fueron implementando fallas comunes que pueden existir en el sistema. Esto para poder evaluar la aplicación de una protección diferencial a un banco de capacitores. Una semana para el análisis de las simulaciones de las fallas y aplicación de la protección diferencial en el banco. Se observó y analizo todas las gráficas generadas en cada evento de falla, de las corrientes en el neutro y de las fases del sistema. Para análisis de la protección diferencial se estudió la gráfica de corriente diferencial contra corriente de restricción obtenidas por cálculos de las corrientes de fase de entrada y salida del elemento de protección (Banco de capacitor).


CONCLUSIONES

Los diferentes tipos de fallas fueron evaluados y analizados en el banco de capacitores. Se observó que tanto un desequilibrio en la unidad del banco como un fallo interno en la zona de protección producen un desequilibrio en la corriente del neutro y en las corrientes de fase (tanto de entrada como de salida). La protección diferencial fue identificada correctamente entre una corriente de entrada y las diferentes fallas en las tres fases. Por lo tanto, se concluyó que la protección diferencial puede implementarse en un SCB.
Chan Xool Emmanuel de Jesus, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA MEJORA REGULATORIA Y SU IMPACTO A LA PRODUCTIVIDAD


LA MEJORA REGULATORIA Y SU IMPACTO A LA PRODUCTIVIDAD

Chan Xool Emmanuel de Jesus, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

LA MEJORA REGULATORIA Y SU IMPACTO A LA PRODUCTIVIDAD La mejora regulatoria en México está centrada en la apertura de empresas, y no esta enfocada más a fondo para el desarrollo sostenibles, la productividad y la complejidad. La problemática en la mejora regulatoria, más que nada se implementa reformas o lineamientos con deficiencia de diseño o torpemente implementada puede empeorar el desempeño económico de un país y afectar el cumplimiento de objetivos sociales.



METODOLOGÍA

La mejora regulatoria es una política pública que consiste en la generación de normas claras, de trámites y servicios simplificados. En el panorama mundial también distinguir la innovación conforme al entorno regulatorio en el mundo. La mejora regulatoria es herramienta que ayuda a los gobiernos para adoptar buenas prácticas. Comprende los objetivos que se deben cumplir, las instituciones necesarias La mejora regulatoria es una tarea que no solo compete a los funcionarios públicos, es por ello que se describe de igual forma alguna alternativa para los empresarios, y las ciudadanía en general. A veces México se plantean políticas mal diseñadas puede traer consigo barreras y desincentivar el crecimiento económico. La importancia de las herramientas transforman los tramites simples y eficientes, de forma disruptiva y un ambiente agradable para los negocios que es un factor importante para la prosperidad económica. Para que se lleve a cabo la mejora regulatoria de forma eficiente y eficaz. El gobierno tiene que tener la voluntad de apoyar las propuestas y iniciativas para agilizar los procesos, trámites y servicios. Las Normas Oficiales Mexicanas(NOM) y Normas Mexicanas(NMX) son fundamentales para el desarrollo de nuevas empresas, e incentivar la innovación. Pero existen normas que se encuentran desactualizadas, y también se requieren nuevas normas para que se eliminen los contratiempos que se producen en la operación de la regulación. Asimismo produce retrasos para certificar un producto de alta calidad, que se encuentra en otro nivel de complejidad.


CONCLUSIONES

La  mejora regulatoria es una política pública que interviene de manera directa en el sector económico. consiste en la generación de normas claras, de trámites y servicios simplificados, así como de instituciones eficaces para su creación y aplicación en la economía de una sociedad. Un marco regulatorio que facilite la actividad empresarial en la economía formal y no imponga costos desproporcionados o innecesarios a los emprendedores es fundamental para el logro de la competitividad. La regulación de alta calidad en un nivel de gobierno puede verse afectada por políticas y prácticas regulatorias deficientes en otros niveles, impactando de manera negativa en el desempeño de las economías y en las actividades empresariales y de los ciudadanos. Los gobiernos estatales y municipales tienen un papel muy importante en la regulación de las actividades económicas para proteger el interés público (salud, medio ambiente, etc.), pero al mismo tiempo deben evitar obstaculizar la apertura y el crecimiento de las empresas y así incrementar el fomento a la buenas prácticas en la sociedad. México se tiene que impulsar la creación de nuevas las leyes, reformar si es necesario, o por determinado caso eliminarla si es un obstaculizan  el crecimiento productivo, la competitividad y la complejidad. Se tiene que impulsar la productividad en la ganadería , pesca, agricultura etc. También la investigación científica y tecnológica para que México sea complejo y productivo. No olvidar el preservar el medio ambiente y cuidar de ello, ya que es el pulmón de nuestro planeta.
Chapa Alamilla Crystal Raquel, Instituto Tecnológico de Pachuca
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

ENERGY HARVESTING FOR WIRELESS SENSOR NETWORKS


ENERGY HARVESTING FOR WIRELESS SENSOR NETWORKS

Chapa Alamilla Crystal Raquel, Instituto Tecnológico de Pachuca. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Actualmente diversos sectores de la sociedad requieren el uso de redes de sensores para monitorear, controlar y procesar información, sin embargo algunos de estos entornos suelen ser hostiles o peligrosos por lo que acceder a ellos para cambiar o renovar las baterías genera riesgos para los investigadores. De igual manera el mantener la seguridad, confidencialidad y disponibilidad de la red implica el uso de herramientas como protocolos, los cuales consumen un porcentaje considerablemente del total de energía del nodo. Por lo tanto se requiere de técnicas y desarrollo tecnológico para asegurar un suministro de energía continuo.



METODOLOGÍA

Para la realización de una visión general de los diferentes estudios y aplicaciones que se han desarrollado sobre este tema, se hizo una recopilación de diversas investigaciones sobre los tipos de fuentes de energía utilizados así como los campos de aplicación, estudios de caso, características, requerimientos de seguridad, parámetros a considerar, estructuras de los mecanismos de recolección y nuevas o potenciales fuentes de energía. 


CONCLUSIONES

Debido a los requerimientos del ahorro y reducción de energía de las diversas aplicaciones de las redes de sensores inalámbricos los investigadores han estudiado y desarrollado el uso de captadores de energía (EH - WSNs) a través del aprovechamiento de las diversas fuentes existentes en el ambiente. Sin embargo a pesar de que ciertos autores se inclinan por determinadas fuentes la elección del tipo de fuente depende de un gran análisis y estudio de los requerimientos de la aplicación como disponibilidad de la fuente, características del entorno, externo o interno, tamaño de la red, tipos de nodos, nivel de riesgo de ataques a la red, requerimientos de seguridad, entre otros. Así mismo se sigue investigando y descubriendo nuevas fuentes que puedan satisfacer las necesidades de los diferentes campos de aplicación.
Chaverra Sanchez Nelson Farley, Institución Universitaria de Envigado (Colombia)
Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)

DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO


DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO

Bueno Hernandez Alan, Tecnológico de Estudios Superiores de Jocotitlán. Chaverra Sanchez Nelson Farley, Institución Universitaria de Envigado (Colombia). Martinez Londoño Maria Camila, Institución Universitaria de Envigado (Colombia). Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Muchos países requieren de estudiantes matemáticamente calificados ya que estos son importantes para el progreso y el futuro (Rylands & Shearman, 2018). Sin embargo, en los últimos años se han evidenciado problemas de rendimiento académico en el área de las matemáticas. Para fundamentar esto, se tienen los resultados obtenidos en la prueba PISA 2015 en donde el desempeño promedio de las tres áreas (lectura, ciencias y matemáticas) de Latinoamérica está por debajo de la media establecida por la OCDE, destacando que los resultados de matemáticas está aún más abajo que los de las demás áreas (Ministerio de Educación Nacional, 2017).  Los estudiantes de ingeniería de nuevo ingreso se enfrentan al precálculo (también conocido como matemáticas operativas o álgebra básica), asignatura en la cual presentan un promedio académico muy bajo y un alto porcentaje de pérdida, un ejemplo de esto son las estadísticas de la Facultad de Ingeniería que brindó Admisiones y Registros del Tecnológico de Antioquia-Institución Universitaria (TdeA).                     FACULTAD DE INGENIERIA TdeA - MATEMÁTICAS Periodo académico                   2017-1    2017-2    2018-1    2018-2 Número de estudiantes                 261        188         190        153 Porcentaje de pérdida (0-2.9)       41.8%    29.8%     39.5%     47.1% Promedio nota (0-5)                          2.9        2.9          2.8         2.8 Además de estas cifras, se cuenta con los resultados de una encuesta aplicada finalizando el primer trimestre del periodo académico 2018-2 a los estudiantes de un grupo de álgebra y trigonometría de la Institución Universitaria de Envigado (IUE) con la cual se pretendía identificar el tema que les generaba mayor dificultad en dicho trimestre. Los resultados son los siguientes: Potenciacion y radicacion:   7 Función exponencial y logarítmica: 10 Polinomios:  5 Factocización:  18  Con lo anterior, se demuestra que los jóvenes en los colegios e instituciones de educación superior (IES) no están adquiriendo las habilidades matemáticas necesarias para obtener un buen desempeño académico. Por este motivo, se considera de vital importancia desarrollar una estrategia metodológica que permita fortalecer las destrezas matemáticas de estos.Por lo que este trabajo tiene como principal objetivo desarrollar una estrategia didáctica por medio de un juego serio para la enseñanza de la factorización de polinomios con el cual se pretende fortalecer las capacidades de los estudiantes universitarios que estén cursando el primer semestre de ingenierías.  



METODOLOGÍA

La metodología es aplicada y de tipo cuantitativa. Se inicia con la caracterización de estrategias didácticas para la enseñanza de la factorización, esta se realiza con una revisión sistemática de literatura; dicha revisión es planificada, luego es desarrollada utilizando una matriz de clasificación y finalmente se realizan conclusiones. Posteriormente, se retoma la caracterización y se diseña una dinámica de juego serio que agrupe las diferentes estrategias caracterizadas, se sigue con la selección de una plataforma de desarrollo digital por medio de un método comparativo, paso seguido se desarrolla el juego serio de forma iterativa con la finalidad de agregar funcionalidades y por último, se pretende validar por medio del desempeño académico de grupos de control, aplicándose una prueba pretest y postest con estudiantes de precálculo de nuevo ingreso de ingenierías en las tres instituciones involucradas en la investigación.


CONCLUSIONES

Las actividades didácticas que fueron propuestas en los artículos revisados para mejorar el aprendizaje son altamente efectivas. Principalmente, por la forma visual que poseen las metodologías que se implementaron, ya que funcionan para motivar al estudiante en la asignatura, atendiendo toda expectativa y logrando comprender los conceptos de manera ágil debido a que con esta metodología se propone una forma atractiva de explicar la factorización, sin dejar de lado la fundamentación teórico-práctica. De igual forma, en cuanto al tipo de validación los autores coinciden en que la alternativa más común es por medio del análisis del rendimiento académico en grupos de control. Resultados: Obtenidos: De acuerdo con la revisión de literatura se analizaron catorce textos de estrategias para la enseñanza de la factorización, dentro de estas estrategias ocho se establecieron de manera física y seis de manera digital. En tanto a su implementación cinco fueron aplicadas en universidades y nueve en colegios, además cinco obtuvieron una validación por medio del rendimiento académico, seis trabajaron con un grupo de control y tres por percepción cualitativa, paso seguido se realizó la caracterización de dichas estrategias. Como resultados esperados estará; el diseño de la dinámica del juego serio, la creación de este en un ambiente virtual y su implementación en un curso real. Esperados: Se espera que el diseño virtual del juego serio con ayuda de la fundamentación teórico científica llegue hasta su última etapa, en donde el objetivo es tener un juego robusto e iterativo que se convierta en una herramienta fundamental para los estudiantes de nuevo ingreso de ingeniería al momento de fortalecer sus conocimientos en un tema tan importante en matemáticas como lo es la factorización, además se espera que este pueda validarse en las 3 instituciones de educación superior involucradas en la investigación.  
Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Chavez Chavez Humberto, Instituto Politécnico Nacional
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

DISEñO DE UNA HMI PARA MANIPULACIóN DE FERMENTADOR.


DISEñO DE UNA HMI PARA MANIPULACIóN DE FERMENTADOR.

Chavez Chavez Humberto, Instituto Politécnico Nacional. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El uso de fermentadores o bioreactores es muy común dentro de diversos procesos biológicos o químicos, para que la fermentación sea exitosa se deben mantener condiciones específicas dictadas por la naturaleza de cada proceso, por ello se deben tener en primer lugar sensores que nos permitan monitorear el estado de algún parámetro crítico, además que se deben tener actuadores que permitan modificar el valor tenido a uno deseado. Hoy en día ya se cuentan con muchos sistemas que automatizan procesos y existen diversos métodos de control que al darle la sintonización correcta entregan resultados muy satisfactorios. El problema que presentan estos equipos es que no siempre ofrecen una interfaz que sea amigable con el usuario generando procesos fallidos, o bien no obtener el mejor rendimiento del proceso provisto por el equipo. Lo que se propone es desarrollar una interfaz que sea sencilla de utilizar y que facilite el desarrollo del proceso. Para esto, se utilizó una pantalla táctil Nextion la cual ofrece un entorno muy gráfico para el operador del fermentador. Con esto se espera que el operador del dispositivo tenga total visión de las variables en cuestión y tenga la total libertad de cambiar de manera oportuna el estado de algún elemento o bien fijar en otro valor el setpoint del proceso.



METODOLOGÍA

Lo primero que se realizó fue instalar la IDE de Nextion, se aprendio a hacer uso de los objetos que ya tiene precargados, se estudiaron sus atributos y métodos. Además, se investigó como realizar una animación dentro de la pantalla, para ello se tuvo que investigar un poco acerca de los procesadores de imágenes. Teniendo está primer parte se procedió a pensar en el diseño de las páginas de nuestra interfaz, el diseño de los botones, marcos y demás funciones. Además, se establecieron y delimitaron las funciones y controles que tendría. Se procedió a instalar la librería de Nextion en el IDE de arduino, después se adaptaron dichas librerias para que se pudieran usar con un Arduino UNO. Después se procedio a investigar la manera de hacer uso de las funciones de las librerias. Cabe mencionar, que dentro del código de arduino se hizo uso de control PWM,  mapeos y lecturas analógicas.  En este punto se tuvo que adaptar el código ya que el manejo de los objetos de las librerias hacia muy lento el mapeo, por ello se usaron comandos seriales de manera directa. Teniendo el código terminado se procedio a realizar las conexiones de los leds, potenciometros y demás elementos para armar una modelo del sistema real dando como resultado el prototipo final. 


CONCLUSIONES

Después de realizar el proyecto me doy cuenta de que el desarrollo de HMI's tiene un amplio campo de aplicación y lo que desarrollé se puede extrapolar y adaptar a diferentes dispositivos. Además, me doy cuenta de que dentro del diseño y desarrollo de algún dispositivo se debe tener presente al usuario final, ya que muchas veces  sólo nos centramos en que realice la tarea de manera correcta.  Al no tener la interfaz correcta se puede utilizar al equipo de manera equivocada. Cabe mencionar que dentro de la realización de este proyecto se hizo uso de la comunicación serial, gracias a esta se redujo en gran número las conexiones de la pantalla al controlador lo que permite pensar en un diseño más estético y robusto. Por otro lado, puedo ver que al momento de desarrollar algún dispositivo se deben elegir con precaución los elementos a usar y  tener bien justificado su uso, ya que el costo es un factor que se debe tomar en cuenta. En este proyecto se hizo uso de una pantalla táctil Nextion la cual ofrece grandes ventajas, aunque esta no siempre será la respuesta ante otras aplicaciones. El resultado obtenido fue gratificante ya que se obtuvo un buen prototipo de la interfaz de un fermentador, en donde podemos visualizar las lecturas de pH, temperatura, entre otras; podemos variar la velocidad del agitador y establecer un punto de operación el cuál con los actuadores tenidos se intentará mantenerse ahí; además podemos obtener infromación de cada elemento del fermentador y saber que función cumple. Este proyecto puede continuarse desarrollando y llevarlo a un producto comercial si se desarrollan las partes de hardware requeridas, se le agregan técnicas de control y se agrega la instrumentación adecuada  
Chávez Galván Aurea Lizeth, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato

ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO


ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO

Aguilar Álvarez Noé, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Chávez Galván Aurea Lizeth, Instituto Tecnológico de Jiquilpan. Chávez Martínez Diana Laura, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las características exigidas por el cuerpo humano para una articulación artificial exigen que los materiales utilizados  para este propósito deben tener alta resistencia a la corrosión y tener alta dureza, por tanto en este estudio se planea el tratamiento de borurado sobre una aleación AISI 316 LVM (ASTM F-138) para estudiar el efecto de este sobre su dureza y la resistencia a la corrosión, este tratamiento termoquímico se lleva a cabo empleando diferentes temperaturas y periodos de tiempo.



METODOLOGÍA

El procedimiento experimental de las muestras se llevó a cabo en 3 etapas: 1. Preparación de las muestras. 2. Boronización de la pasta. 3. Análisis de la dureza y corrosión.   Se utilizaron barras de acero AISI 316 LVM (ASTM F-138), con una composición química de criolita 5%, carburo de silicio 90-95% y carburo de boro 5%. En las cuales fueron obtenidas 7 muestras con un diámetro de 12.7mm x 4mm, cortadas por una segueta mecánica y posteriormente el lado a tratar de cario con un torno tradicional empleando un avance de 600 Rev/seg; cada una de estas muestras se pulieron manualmente con papel de lija SiC de 1500, 2000, 2500, 3000, 5000. 7000 y 10000, hasta lograr un acabado espejo. Cabe resaltar que usamos 2 muestras para cada estudio (2hrs., 4hrs. y 6hrs.) y una virgen. Posteriormente para limpiar la superficie, las muestras se lavaron consecutivamente con un baño ultrasónico con acetona para  quitar suciedad y contaminación durante 3 min. Enseguida se depositaron las muestras en un horno de secado a 90°C durante 2 horas sobre una lámina de metal para quitarle restos de agua. El proceso de boronización de la pasta se realizó extendiendo la pasta de boro sobre la muestra de acero para  depositar una capa con espesor de 2 gramos. Las muestras se colocaron dentro del horno previamente calentado a 900°C con ayuda de unas pinzas. Al pasar las primeras 2 horas fue sacada la primera lámina que contenía dos muestras, e igualmente con las de 4 y 6 horas, dejándolas enfriar naturalmente hasta el día siguiente. Fue retirado el exceso de material carbonizado para no dañar la capa endurecida con ayuda de unas lijas SiC de 400, 500, 600, 2500, 3000, 5000, 7000 y 10000, fueron llevadas a la toma de muestra de dureza en un micro identador mmt-x con un software modelo ciemex; utilizando solamente una muestra de cada uno de los estudios, realizando 5 lecturas a estas 3 muestras y  también a la virgen, basándonos en la norma E384-10E1 (Método de prueba estándar para Knoop y Vickers). La prueba de dureza se realizó bajo la norma ASTM E384, mediante el ensayo de Microdureza Vickers (HV). Las mediciones se obtuvieron aplicando una carga de 500 g. El estudio de corrosión se realizó utilizando la técnica de polarización (Tafel) y la espectroscopia de impedancia electroquímica (EIS). Para realizar este estudio es importante que todas las piezas a usar estén limpias de cualquier residuo, por lo tanto; las probetas, la celda y las herramientas se les aplicaron un baño ultrasónico con alcohol etílico, acetona, propílico y agua destilada, cada baño con una duración de 10 min. Finalmente metimos las probetas a la celda electroquímica anteriormente lavada y armada, se le añadió 35 ml de solución de Hank a temperatura ambiente, se utilizaron un electrodo de plata y una malla de platino como electrodo de referencia y contraelectrodo, respectivamente. Se usó un área de 12.7mm x 4mm de sustrato de acero borurado como electrodo de trabajo. Antes de las mediciones, se aplicó un potencial de circuito abierto (OCP) durante 60 min. Para la prueba de impedancia, se usó una señal de CA sinusoidal de 10mV (RMS) de amplitud y barrido de 0.1 Hertz a 10000 Hertz. Para obtener los diagramas de Tafel de nuevo se realizó un potencial de circuito abierto (OPC) durante 60 min y después se hizo el escaneo de -250mV frente al potencial de corrosión, Ecorr(grafico de Tafel catódico) y el escaneo continuo a +250 mVfrente a Ecorr (grafico de Tafel anódico). Se usó un paso de 1 mV cada 2S (0.5 mVis). La curva resultante es una gráfica del potencial aplicado frente al algoritmo de la corriente medida. Para determinar la corriente de corrosión (Icor) se superpuso una línea recta a lo largo de la porción lineal de la curva anódica o catódica y se extrapola a las condiciones ideales de EarrUnder. El grafico de Tafel catódica es lineal en un rango de potenciales. Para una gráfica de Tafel catódica esto ocurre entre -500 mV y -250 mV. ¿Cómo se comporta la corrosión ante materiales inoxidables? Estos materiales tienen una zona de comportamiento catódico de bajo potencial y potencial alto a la zona anódica. Si aumenta el potencial se comporta como un ánodo y se oxida, la intensidad de corriente mide la velocidad de corrosión.


CONCLUSIONES

En el proyecto presentado anteriormente se observó la aplicación del borurado a 6 probetas de acero AISI 316 LVM (ASTM F-138), estas fueron tratadas a diferentes condiciones tanto de tiempo como de temperatura, en la búsqueda con respecto a la dureza antes y después del tratamiento se llegó a la conclusión de que en un tiempo intermedio, como una temperatura media es favorable para los resultados de dureza ideales. El estudio arrojo que la dureza fue aumentando según las horas que estuvieron dentro del horno, por lo tanto se puede observar que la dureza menor (virgen) fue de 388.8± 21.3 HV y la mayor dureza final con 796.3± 76.2 HV (6hrs) a diferencia de las demás probetas con mayor o menor temperatura y tiempo. En ambientes corrosivos, las muestras no boronizadas exhiben una resistencia a la corrosión mayor en comparación con las muestras boronizadas.  Es por tanto que llegamos a la conclusión de que este tratamiento no se recomienda para el uso de una prótesis, sin en embargo sí podrían usarse para uso alimentario e instrumentos quirúrgicos, ya que la dureza si aumento significativamente.
Chávez Martínez Diana Laura, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato

ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO


ENDURECIMIENTO SUPERFICIAL DE ACEROS POR DIFUSIÓN DE BORO

Aguilar Álvarez Noé, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Chávez Galván Aurea Lizeth, Instituto Tecnológico de Jiquilpan. Chávez Martínez Diana Laura, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Alfredo Marquez Herrera, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las características exigidas por el cuerpo humano para una articulación artificial exigen que los materiales utilizados  para este propósito deben tener alta resistencia a la corrosión y tener alta dureza, por tanto en este estudio se planea el tratamiento de borurado sobre una aleación AISI 316 LVM (ASTM F-138) para estudiar el efecto de este sobre su dureza y la resistencia a la corrosión, este tratamiento termoquímico se lleva a cabo empleando diferentes temperaturas y periodos de tiempo.



METODOLOGÍA

El procedimiento experimental de las muestras se llevó a cabo en 3 etapas: 1. Preparación de las muestras. 2. Boronización de la pasta. 3. Análisis de la dureza y corrosión.   Se utilizaron barras de acero AISI 316 LVM (ASTM F-138), con una composición química de criolita 5%, carburo de silicio 90-95% y carburo de boro 5%. En las cuales fueron obtenidas 7 muestras con un diámetro de 12.7mm x 4mm, cortadas por una segueta mecánica y posteriormente el lado a tratar de cario con un torno tradicional empleando un avance de 600 Rev/seg; cada una de estas muestras se pulieron manualmente con papel de lija SiC de 1500, 2000, 2500, 3000, 5000. 7000 y 10000, hasta lograr un acabado espejo. Cabe resaltar que usamos 2 muestras para cada estudio (2hrs., 4hrs. y 6hrs.) y una virgen. Posteriormente para limpiar la superficie, las muestras se lavaron consecutivamente con un baño ultrasónico con acetona para  quitar suciedad y contaminación durante 3 min. Enseguida se depositaron las muestras en un horno de secado a 90°C durante 2 horas sobre una lámina de metal para quitarle restos de agua. El proceso de boronización de la pasta se realizó extendiendo la pasta de boro sobre la muestra de acero para  depositar una capa con espesor de 2 gramos. Las muestras se colocaron dentro del horno previamente calentado a 900°C con ayuda de unas pinzas. Al pasar las primeras 2 horas fue sacada la primera lámina que contenía dos muestras, e igualmente con las de 4 y 6 horas, dejándolas enfriar naturalmente hasta el día siguiente. Fue retirado el exceso de material carbonizado para no dañar la capa endurecida con ayuda de unas lijas SiC de 400, 500, 600, 2500, 3000, 5000, 7000 y 10000, fueron llevadas a la toma de muestra de dureza en un micro identador mmt-x con un software modelo ciemex; utilizando solamente una muestra de cada uno de los estudios, realizando 5 lecturas a estas 3 muestras y  también a la virgen, basándonos en la norma E384-10E1 (Método de prueba estándar para Knoop y Vickers). La prueba de dureza se realizó bajo la norma ASTM E384, mediante el ensayo de Microdureza Vickers (HV). Las mediciones se obtuvieron aplicando una carga de 500 g. El estudio de corrosión se realizó utilizando la técnica de polarización (Tafel) y la espectroscopia de impedancia electroquímica (EIS). Para realizar este estudio es importante que todas las piezas a usar estén limpias de cualquier residuo, por lo tanto; las probetas, la celda y las herramientas se les aplicaron un baño ultrasónico con alcohol etílico, acetona, propílico y agua destilada, cada baño con una duración de 10 min. Finalmente metimos las probetas a la celda electroquímica anteriormente lavada y armada, se le añadió 35 ml de solución de Hank a temperatura ambiente, se utilizaron un electrodo de plata y una malla de platino como electrodo de referencia y contraelectrodo, respectivamente. Se usó un área de 12.7mm x 4mm de sustrato de acero borurado como electrodo de trabajo. Antes de las mediciones, se aplicó un potencial de circuito abierto (OCP) durante 60 min. Para la prueba de impedancia, se usó una señal de CA sinusoidal de 10mV (RMS) de amplitud y barrido de 0.1 Hertz a 10000 Hertz. Para obtener los diagramas de Tafel de nuevo se realizó un potencial de circuito abierto (OPC) durante 60 min y después se hizo el escaneo de -250mV frente al potencial de corrosión, Ecorr(grafico de Tafel catódico) y el escaneo continuo a +250 mVfrente a Ecorr (grafico de Tafel anódico). Se usó un paso de 1 mV cada 2S (0.5 mVis). La curva resultante es una gráfica del potencial aplicado frente al algoritmo de la corriente medida. Para determinar la corriente de corrosión (Icor) se superpuso una línea recta a lo largo de la porción lineal de la curva anódica o catódica y se extrapola a las condiciones ideales de EarrUnder. El grafico de Tafel catódica es lineal en un rango de potenciales. Para una gráfica de Tafel catódica esto ocurre entre -500 mV y -250 mV. ¿Cómo se comporta la corrosión ante materiales inoxidables? Estos materiales tienen una zona de comportamiento catódico de bajo potencial y potencial alto a la zona anódica. Si aumenta el potencial se comporta como un ánodo y se oxida, la intensidad de corriente mide la velocidad de corrosión.


CONCLUSIONES

En el proyecto presentado anteriormente se observó la aplicación del borurado a 6 probetas de acero AISI 316 LVM (ASTM F-138), estas fueron tratadas a diferentes condiciones tanto de tiempo como de temperatura, en la búsqueda con respecto a la dureza antes y después del tratamiento se llegó a la conclusión de que en un tiempo intermedio, como una temperatura media es favorable para los resultados de dureza ideales. El estudio arrojo que la dureza fue aumentando según las horas que estuvieron dentro del horno, por lo tanto se puede observar que la dureza menor (virgen) fue de 388.8± 21.3 HV y la mayor dureza final con 796.3± 76.2 HV (6hrs) a diferencia de las demás probetas con mayor o menor temperatura y tiempo. En ambientes corrosivos, las muestras no boronizadas exhiben una resistencia a la corrosión mayor en comparación con las muestras boronizadas.  Es por tanto que llegamos a la conclusión de que este tratamiento no se recomienda para el uso de una prótesis, sin en embargo sí podrían usarse para uso alimentario e instrumentos quirúrgicos, ya que la dureza si aumento significativamente.
Chavez Mejia Jennifer Gissel, Instituto Tecnológico de Sonora
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

APLICACIóN WEB ENFOCADA AL TURISMO EN MAZATLáN SINALOA


APLICACIóN WEB ENFOCADA AL TURISMO EN MAZATLáN SINALOA

Chavez Mejia Jennifer Gissel, Instituto Tecnológico de Sonora. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las aplicaciones web en los últimos años han tenido una importancia muy relevante puesto que presenta muchas posibilidades de mantener informadas a todas las personas de manera interactiva en la red, pero para que una aplicación web pueda ser visitada y colocarse dentro de las mejores, debe de cumplir con ciertos estándares para llegar a ser exitosa (uno de estos requisitos es el llamado responsive design).  En la ciudad de Mazatlán Sinaloa, existe cierta preocupación por parte de profesores y alumnos de la Universidad Politécnica de Sinaloa acerca de las aplicaciones web que existen de la ciudad, dado que se encuentran escasas de información y con estándares bajos de calidad en los diferentes sitios web que dan información de los lugares turísticos, monumentos, flora y fauna que se encuentran en la ciudad. Por lo que genera consecuencias negativas por parte de las personas que visitan estos sitios y hace que pierdan la atracción por el lugar.  Esta investigación tiene como finalidad crear una aplicación web que cuente con información totalmente verídica y explicita acerca de los lugares turísticos, monumentos, centro histórico, flora y fauna. Así como también imágenes y videos de muy buena calidad para de esta manera atraer a más turistas a la ciudad.   



METODOLOGÍA

La metodología que se estará utilizando para el desarrollo de la aplicación web se trata de una metodología ágil y flexible llamada SCRUM que consiste en planificar el proyecto en pequeños bloques o Sprints e ir revisando y mejorando el bloque anterior. Es un método en el cual se trabaja en equipo a partir de repeticiones hasta alcanzar la meta deseada. Los bloques se trabajarán por semana y al final de cada bloque se organizará una reunión de todo los participantes en el proyecto para revisar el trabajo validado de la semana anterior y en función de esto planificar las actividades del siguiente bloque. El primer bloque de este proyecto será el de investigación de los lenguajes HTML y CSS seguido de la capacitación y asignación de los equipos de trabajo, la maquetación de sitio web, programación del sitio web, testing y por ultimo se efectuarán las conclusiones para realizar el reporte final del proyecto. 


CONCLUSIONES

Las aplicaciones web al igual que todas las tecnologías, lenguajes de programación, navegadores y los diferentes dispositivos para navegar en la red están en constante cambio por esto es muy importante diseñar una aplicación web con los requisitos suficientes para que esta pueda ser visitada desde cualquier dispositivo sin dificultad alguna. Con este proyecto esperamos obtener una aplicación web muy bien estructurada, para de esta manera atraer a mas turistas a la ciudad de Mazatlán Sinaloa, al igual para brindar información de calidad y que a la vez esta información sea verídica, así no solamente quedará una buena imagen de la ciudad y de la aplicación web sino también de los desarrolladores encargados de llevar a cabo la aplicación web.
Chavez Pineda Carlos Gabriel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí

ANáLISIS DE LA RESPUESTA INERCIAL DE LA RED CON ALTA PENETRACIóN DE SISTEMAS FOTOVOLTAICOS CON ALMACENAMIENTO DE ENERGíA


ANáLISIS DE LA RESPUESTA INERCIAL DE LA RED CON ALTA PENETRACIóN DE SISTEMAS FOTOVOLTAICOS CON ALMACENAMIENTO DE ENERGíA

Chavez Pineda Carlos Gabriel, Universidad Michoacana de San Nicolás de Hidalgo. Villa Torres Daniel Enrique, Instituto Tecnológico de Sonora. Asesor: Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surge de la necesidad de conocer el impacto que tiene la alta penetración de fuentes renovables de energía, como lo son los paneles fotovoltaicos, en los Sistemas Eléctricos de Potencia.  El objetivo principal es analizar el comportamiento de la frecuencia cuando el sistema se encuentra sujeto a perturbaciones (fallas eléctricas), ante un crecimiento en la inyección de potencia por parte de un sistema de generación fotovoltaico. Adicionalmente, se pretende estudiar la mejora del comportamiento dinámico del sistema mediante el concepto de inercia virtual que pueden proveer las energías renovables en conjunto con sistemas de almacenamiento.



METODOLOGÍA

Se utilizó el software de Simulink para implementar un Sistema Eléctrico de Potencia con cuatro fuentes de energía convencional, representadas mediante generadores síncronos. De este sistema se realizó un estudio comparativo, en donde se obtuvo el comportamiento de la frecuencia al presentarse una falla trifásica en el sistema. Después se realizó otro modelo, con la misma estructura, pero en este caso sólo estuvieran conectados módulos fotovoltaicos para así realizar una comparación del comportamiento de la frecuencia. Durante el transcurso de los días se fueron cambiando las fuentes de energía convencional por módulos fotovoltaicos. Esto para simular un crecimiento en la penetración de los sistemas fotovoltaicos. Se simuló la misma perturbación descrita anteriormente para analizar los cambios en la frecuencia. Finalmente, se propuso el utilizar el concepto de inercia virtual para mejorar la respuesta de la frecuencia ante perturbaciones y en presencia de una alta penetración de energías renovables. Para esto se consideró agregar un banco de baterías conectado a un convertidor, capaz de emular una inercia virtual. Este banco de batería fue variando su valor durante diversas simulaciones de manera que nos acercará al valor y la respuesta deseada con el fin de demostrar el impacto que tiene el creciente aumento de la generación fotovoltaica en redes eléctricas y cómo puede solucionarse el problema utilizando el concepto de inercia virtual. Se espera que los resultados obtenidos sean reportados en un congreso de carácter internacional, para lo que después de haber obtenido los resultados buscados, se dispuso a realizar la redacción de un artículo científico basado en el formato IEEE ya que se enviará al comité respectivo de la asociación mencionada para su aprobación y su publicación. Para la realización del artículo se realizaron gráficas en MATLAB con el fin de exponer gráficamente los resultados, se buscaron los módulos adecuados (máquina síncrona, panel solar, batería) utilizados en nuestro modelo,  así como sus ecuaciones y estos fueron registrados en la redacción del artículo, debido a que es un artículo de nivel internacional, fue desarrollado en el idioma inglés y se tuvieron que consultar diversos artículos desarrollados al tema para así poder realizar citas textuales y tener una mayor base acerca de lo que presentamos.


CONCLUSIONES

Se cumplió el objetivo del trabajo, ya que analizamos y expresamos de manera gráfica tras varias simulaciones y modificaciones en los modelos el comportamiento de la frecuencia cuando se presenta una falla eléctrica en el sistema de prueba. También se simuló una inyección de potencia producido por un sistema de generación fotovoltaico, se comprueba que hay alteraciones en la frecuencia entre más módulos fotovoltaicos están conectados en la red, asimismo se comprueba que hay una mejoría al colocar los bancos de batería planteados al principio. Durante la estancia de verano se logró adquirir conocimientos teóricos del concepto de inercia virtual, así como en lo práctico se desarrolló un uso más completo y por lo tanto mejora en los conocimientos del programa MATLAB en específico el uso de Simulink, el cual nos sirve para simulaciones sobre algún modelo planteado, desde los circuitos más básicos hasta modelos más complejos. A pesar de haber logrado cumplir el objetivo y demostrar numéricamente como se ve afectada la frecuencia y la solución propuesta de mejoras, al ser un modelo convencional y básico aún quedan muchas variables para tomar en cuenta y poder concluir una solución más concreta al problema.
Chavez Portela Mario, Universidad Autónoma de Baja California
Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE MESOPOROS DE CERIA


SíNTESIS DE MESOPOROS DE CERIA

Chavez Portela Mario, Universidad Autónoma de Baja California. Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los materiales mesoporosos son aquellos que en su estructura contienen poros de entre 2 y 50 nm. Dichos materiales tienen muchas aplicaciones en la industria, el área ambiental, vida cotidiana, etc. Actualmente, existen muchos métodos para obtener un material mesoporoso; sin embargo, algunos de ellos pueden llegar a ser costosos y difíciles de realizar. Es por ello por lo que el objetivo de esta estancia de investigación es desarrollar un nuevo método para sintetizar mesoporos de una manera fácil, económica y reproducible.



METODOLOGÍA

Los reactivos que se utilizaron fueron los siguiente:   Cloruro de Cerio Heptahidratado Bromuro de hexacetiltrimetilamonio (CTAB) Hidróxido de Sodio (NaOH) Agua Destilada Etanol   La relación molar utilizada fue: Precursor: Surfactante: NaOH: Agua Destilada - 1: 0.5: 8: 100 El método que se eligió para sintetizar nuestro material es el que se describe brevemente a continuación llamado sol - gel con tratamiento hidrotérmico: Se prepara una primera solución diluyendo con la mitad de agua la sal de Ceria, ésta la nombraremos solución 1. Una vez diluida la sal de ceria en agua agregaremos el surfactante CTAB y agitaremos hasta disolver. Ahora prepararemos una segunda solución con el agua restante y el hidróxido de sodio y esperaremos a que se diluya, ésta la nombraremos solución 2. La solución 2 la agregaremos gota a gota cada 10 segundos a la solución 1 agitando constantemente, se formará un gel el cual dejaremos agitando por 24 horas a una temperatura de 60 °C a 50 rpm. Una vez concluidas las horas introduciremos el gel al horno de secado a 80 °C durante otras 24 horas. Se lava la muestra haciendo tres centrifugados con etanol en una centrifuga a 12,000 rpm y después de los tres lavados la muestra se ingresa en un horno de secado a 80 °C por 24 horas. Nuestro paso final es calcinar la muestra en una mufla a 560 °C por una hora con una rampa de temperatura de 5 °C por minuto. Como es un método nuevo se variaron las cantidades de ciertos parámetros para determinar cómo estos afectaban las propiedades finales de nuestro material. Primero se varió la cantidad de NaOH que se agregaba para formar el gel, siendo estas variaciones 1:1, 1:2, 1:4, 1:8 y 1:12. Después, se varió la cantidad de CTAB que se le agregó a la muestra siendo estas variaciones 1:0.25, 1:0.5, 1:1 y 1:2.


CONCLUSIONES

Durante la estancia de verano se logró conocer diversos métodos para la obtención de mesoporos, así como conocimientos de química necesarios para la aplicación de dicho método que empleamos. Al ser un método sencillo de reproducir se realizó un análisis de su densidad para considerar que muestra es la de menor densidad debido a que entre menos denso sea el material obtenido mayor porosidad tendrá. Se realizará a trabajo futuro la caracterización por Microscopía electrónica y rayos x. Así como, la determinación de su área superficial. Este nuevo método desarrollado es de bajo costo, alto nivel de reproducibilidad y fácil de llevarlo acabo.
Chávez Sánchez Manuel, Universidad de Guadalajara
Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)

ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING


ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING

Chávez Sánchez Manuel, Universidad de Guadalajara. García López Rogelio Guillermo, Universidad de Guadalajara. Zepeda Garcia Yajaira, Universidad de Guadalajara. Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito social y comercial, se sabe que el mercadeo es una parte fundamental en el comercio, en cualquiera de los entornos comerciales en los que nos desenvolvemos. Desde automóviles, marcas telefónicas, entretenimiento deportivo, ropa, etc.; en cada ámbito comercial existió previamente una investigación en la que las grandes compañías analizan el objetivo de su producto, las ventajas que ofrece, las novedades que trae y sobretodo, se analiza la forma en que se ofrece dicho producto a los consumidores. En este estudio, hablaremos de un concepto relativamente nuevo, que ha ido apareciendo en la mercadotecnia gracias a la tecnología, el Neuromarketing aproximadamente desde los años 1971. Esta rama, que combina la ciencia biomédica con la mercadotecnia, trata de analizar los distintos potenciales bioelétricos, al reaccionar a diversos estímulos utilizados en la mercadotecnia, por ejemplo: colores, anuncios, melodías, empaques, y muchas otras herramientas utilizadas en la comercialización de un producto específico.  En este contexto científico, colocamos la siguiente investigación, enfocada a la obtención de potenciales relacionados a eventos y rastreo de mirada, en este caso en colaboración con una Compañía Licorera Nacional, para la elección de etiqueta de uno de sus productos, la crema de ron.   OBJETIVO GENERAL Obtener y caracterizar las señales de Rastreo de mirada y Potenciales Relacionados a Eventos en un protocolo de Neuromarketing para la elección de una etiqueta de Crema de Ron.



METODOLOGÍA

El proyecto desarrollado se dividió en 3 fases: Para la fase 1 se hizo uso del software Spyder® para realizar la presentación aleatoria de 6 estímulos correspondientes a 3 etiquetas diseñadas por el productor de la crema de ron. La fase 2 consistió en la adquisición de las señales de 12 personas divididas en dos grupos de edad: de 20-30 y de 30-40 años, para lo cual se diseñó un protocolo que incluía el consentimiento informado, la encuesta, la conexión de 22 electrodos superficiales en el cuero cabelludo para la toma del EEG y la conexión del dispositivo Eye Tribe para registrar los puntos de mirada. Las señales del sujeto se obtuvieron antes y después de la degustación del producto. En la fase 3 del proyecto, se desarrolló una interfaz en el programa Matlab® la cual permitió caracterizar las señales de los sujetos.


CONCLUSIONES

El proyecto desarrollado permitió demostrar la eficacia del relacionamiento de las técnicas de Electroencefalografía, Eye Tracking y su complemento con instrumentos como encuestas, para los análisis del comportamiento de las personas en la persuasión a través del neuromarketing; lo cual es congruente con estudios previos encontrados en la literatura. Este tipo de estudios de neuromarketing pretenden convertirse en una herramienta primordial en las industrias comerciales, a través del estudio de la influencia cognitiva de las imágenes. De igual manera al reunir todos los datos capturados en esta investigación se espera tener una mayor certeza respecto cuál sería la mejor opción de etiqueta para la botella de la crema de ron estudiada. RESULTADOS Entre los resultados de las actividades de investigación realizadas en la pasantía, se obtuvo el desarrollo de 2 herramientas computacionales, la primera que permite la estimulación de los sujetos al presentar cada estímulo 30 veces de manera aleatoria, la segunda, correspondiente a la interfaz de usuario que permite el análisis de las señales a través de la obtención, filtrado y promediado de los datos de cada imagen. Los análisis que permite realizar la segunda herramienta computacional desarrollada, incluyen la discriminación de las diferentes frecuencias cerebrales (asociadas a actividades cognitivas específicas) y de los canales de los cuales se captura la información, además de sincronizar los datos de Potenciales Relacionados a Eventos con los datos de Rastreo de Mirada, de forma que presente al profesional de mercadeo los puntos de interés de las etiquetas que diseñaron.  
Chipol Seba Bryan Antonio, Universidad Autónoma del Estado de México
Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara

IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.


IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.

Chipol Seba Bryan Antonio, Universidad Autónoma del Estado de México. Cortes Martinez Jesus Miguel, Universidad Politécnica de Texcoco. Reyes Espinosa Aldo Francisco, Universidad Politécnica de Texcoco. Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La adquisición de un punto de venta para la mayoría de las Pymes suele ser costoso por los altos precios que los proveedores ofrecen, pues no solo implica un sistema, también se necesita una estructura completa para el buen funcionamiento y administración del sistema. De acuerdo con el estudio realizado por Zoho Corp, empresa india desarrolladora de software, estima que el 6% de las Pymes en México utilizan las Tecnologías de la Información TIC para mejorar el rendimiento de  la empresas (Villafranco, 2017). Las tecnologías de la información son las que le permiten a las Pymes aumentar su productividad y por ende ser más competitivas (Vaca, 2017). Según la OCDE, la productividad en las empresas es de 6.3 veces mayor a las microempresas, un 2.9 mayor a las pequeñas y un 1.7 superior a las medianas empresas. Tal productividad se debe a la economía de escala con la que cuentan, experiencia en el mercado y uno de los factores importantes son las Tecnologías de la Información (Villafranco, 2017).   Como la mayoría de las Pymes no tienen conocimiento de esta nueva tecnología aplicada en el uso de Raspberry Pi, se tendrán que analizar métodos para introducir estos servicios al mercado de una forma confiable otorgando iguales y mayores beneficios a los puntos de venta que actualmente existen en México. De acuerdo con el INEGI, la mayoría de las empresas son consideradas Pymes. Por lo tanto, esto brinda un alto rango en el mercado para introducir esta nueva modalidad de servicio para la administración de la compra-venta de dichas empresas (INEGI, 2017). A nivel nacional, en el sector de alimentos y bebidas, el 97% de las unidades económicas son micro y pequeñas empresas con un número de empleados por establecimiento menor o igual a diez (CANIRAC, 2016).   A partir de estos fundamentos se plantea el desarrollar un punto de venta que sea económico y eficaz para una microempresa del área de alimentos y bebidas, ya que el establecimiento Coffee Hanna tiene la problemática de controlar las ventas sin tener que adquirir un sistema de punto de venta costoso y que este sea mayor a las necesidades básicas de esta pyme.



METODOLOGÍA

Como primer punto se tiene que instalar el S.O. en el Raspberry. Dentro de este punto tenemos dos opciones proporcionadas por la página oficial de Raspberry Pi por un lado tenemos el S.O. Noobs y por otro a Rasbian a lo que seguiremos los pasos proporcionados por la página.  Los pasos proporcionados por la página guían hasta la instalación del S.O. en la Raspberry Pi a lo cual se procederá a hacer la carga de los servicios necesarios. Dentro del presente link se puede acceder a la mencionada pagina oficial de Raspberry: https://projects.raspberrypi.org/en/projects/raspberry-pi-getting-started/2 Una vez iniciada la Raspberry es necesario obtener las últimas actualizaciones del sistema operativo dentro de la terminal con los siguientes comandos:  Recordando que es importante conectar la Raspberry a una red con acceso a internet. sudo apt-get update            sudo apt-get upgrade          Se debe seguir con la carga y configuración de los servicios necesarios para el punto de acceso (Access Point). Que posteriormente cumplirá el propósito de alojar al sistema punto de venta. Se procede con la instalación y configuración de Apache: sudo apt-get install apache2 Para verificar si se llevó a cabo la instalación puedes introducir el siguiente comando. sudo nano /var/www/html/index.html Para cumplir la función de gestionar las bases de datos se usará Mariadb. El siguiente comando va a instalar este servicio. sudo apt-get install mariadb-server Ahora toca instalar el servicio de PHP. En este punto se recomienda primero revisar cual es la versión más reciente de PHP con el siguiente comando. sudo apt-cache search php7-* Dependiendo de la salida del anterior comando se elige la versión más reciente por ejemplo de la versión más reciente es 7.3 se aplicará el siguiente comando: sudo apt-get install php7.3 Lo único que cambiará será la parte de la versión. Al terminar con la instalación se debe configurar PHP para que trabaje con MySQL. Lo cual va permitir que PHP trabaje con bases de datos. sudo apt-get install php7.3-mysql La configuración de PHPMyadmin es necesaria ya que es de utilidad para controlar las bases de datos de manera gráfica. Esta configuración se logra gracias al siguiente comando. sudo apt-get install phpMyAdmin Ahora es necesario agregar la configuración de PHPMyadmin en Apache.conf por lo que es necesario agregar el siguiente comando: Sudo nano /etc/apache2/apache.conf Este comando abrirá un archivo dentro del cual se debe ir al final para ingresar la siguiente línea, esto con la finalidad de que el servidor web sea capaz de conocer PHPMyadmin como un sitio. Include /etc/phpmyadmin/apache.conf Los siguientes pasos son para crear su Access Point desde la Raspberry, dando facilidad de poder visualizar el punto de Venta desde un Smartphone dando la facilidad de una manipulación del Mini punto de Venta. Abriendo la posibilidad de crear algunas otras herramientas para la optimización de dicho Sistema.


CONCLUSIONES

La mayoría de las pequeñas empresas han empezado a implementar un software que les simplifique el trabajo. Actual el impacto de las computadoras de tamaño reducido (SBC) llamadas Raspberry, los cuales incluyen el sistema operativo Raspbian, existen otras opciones como Arduino en las cuales es necesario programarlos para realizar ciertas actividades. Las empresas interesadas en esta nueva tecnología que ofrece el uso de un Software y Hardware para un fin en específico, en este caso para implementar un mini punto de venta y dentro de este tener una base de datos con los productos o servicios que ofrece la pequeña empresa, lo cual es una opción viable para reducir los costos, tener un control de los productos y también a destinar menos dinero a estos servicios ya que ahorran en  costos de compra e instalación de servidores y acceso a internet, con esta implementación se cuenta con un punto de acceso que proporciona una red WiFi configurada con el proveedor de servicios de internet (ISP) y de igual forma ingresar de forma local para instalar, configurar y administrar el punto de venta mediante el uso de un Smartphone.
Chopin Suastegui Daniel, Instituto Tecnológico de Acapulco
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

INSTRUMENTACIóN PARA EL MODELO EXPERIMENTAL DE FLUJO DE LODO Y ESCOMBRO


INSTRUMENTACIóN PARA EL MODELO EXPERIMENTAL DE FLUJO DE LODO Y ESCOMBRO

Chopin Suastegui Daniel, Instituto Tecnológico de Acapulco. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los flujos de barros y escombros, son una forma de inestabilidad de ladera, manifestándose como mezclas de agua y altas concentraciones de material sólido heterogéneo impulsadas por la gravedad. Produciendo desastres en poblaciones cercanas. La República Mexicana, debido a sus condiciones geográficas, experimenta el embate de ciclones tropicales cada año; además, sus características orográficas y la presencia de algunos factores antrópicos, como la deforestación, provocan que las laderas sean potencialmente inestables en varios Estados. Así, el estado de Michoacán es susceptible a desarrollar flujo de barros y escombros en varias regiones; por ejemplo, en febrero de 2010, Mineral de Angangueo; y recientemente, el 10 de julio de 2018, la zona norte de la ciudad de Morelia. Una de las maneras en que estos fenómenos pueden ser estudiados y modelados es a través de modelos experimentales que sean capaces de reproducirlos a escala. Estos aparatos experimentales deben permitir la medición del mayor número posible de variables involucradas durante el desarrollo del flujo, repro­duciendo las características geométricas de laderas , barrancas naturales, condiciones de sedimentación y hasta la rugosidad del terreno. La observación y análisis de los flujos de detritos, permite conocer características físicas, como el área afectada, las velocidades y niveles alcanzados, y con ello propuestas de mitigación. Adicionalmente, a través de la experimentación a escala se pueden  desarrollar y probar sensores  y equipos de medición que pueden formar parte de soluciones integrales de mitigación.  



METODOLOGÍA

Se realizo un análisis detallado sobre el tema de flujos de detritos para la compresión de las variables involucradas en el experimento de flujo de lodo y escombro. Se observo que se requieren las características hidráulicas del modelo físico experimental de flujo de lodo y escombro. Base a las necesidades del modelo se realizó un análisis granulométrico, de escalas y similitud del material que sería arrastrado por el flujo. Posteriormente se realizó un análisis de sensores que ayudarían a comprender las variables a analizar, para ello se opto por utilizar los sensores compatibles con Arduino ya que tienen una excelente precisión y resulta muy económico, para ello se sugirió el sensor HC-SR04, este, es un sensor de distancia ultrasónico muy económico compatible con Arduino que nos permitiría medir distancia, el tirante y posteriormente la velocidad. Junto con ello se sugirió el sensor IMU de generación NGIMU en este caso resulto que es no es un sensor económico, en el cual trae incorporado un giroscopio de tres ejes, un acelerómetro y un magnetómetro, así como un sensor de presión barométrica y un sensor de humedad el cual nos permitiría conocer la velocidad del flujo. Se realizo una propuesta de monitoreo con los sensores, para ello primero se ubicaron los sensores dentro del modelo físico y se optó por ocupar 9 sensores HC-SR04 para las mediciones de las variables, una vez realizado la ubicación se escogió el microcontrolador NodeMCU esp8266 encargada de leer los datos que entregan los sensores para ser enviados al servidor web (base de datos) y a su vez realizar un control. Para la base de datos el servidor implementado en este proyecto es Ubidots en cual nos ayudara a la recolección y lectura de datos. Se propuso el diseño de una tolva por medio del programa AutoCad para el modelo físico ya que ayudaría a contener aproximadamente 200 kg de material, dependiendo de la densidad y de las clases granulométricas de la mezcla utilizada. La capacidad del contenedor se puede incrementar agregando una o más secciones. Posteriormente se realizo el aforo de una motobomba marca HYUNDAI  HYWF2093 de 9.3 hp y se realizó un análisis de escalas y similitud del flujo que se necesitaría en el modelo físico de lodo y escombro. Resultados esperados Las variables obtenidas permitirán la generación de relaciones graficas que permitan tomar decisiones en el diseño de medidas integrales de mitigación de eventos de flujos de barro y escombro.        


CONCLUSIONES

En la estancia del verano se logró adquirir  conocimientos teóricos sobre escalas y similitud de modelos físicos, se realizó el diseño de la instrumentación de acuerdo al análisis de las variables a analizar, se aprendió lo básico de la programación por Arduino, no obstante se obtuvieron varias dificultades económicas al realizar el modelo físico así como la programación de los sensores y la obtención de datos llevando a un retraso las pruebas preliminares con el sistema de monitoreo.
Choreño Zamora Maria de los Angeles, Universidad Autónoma del Estado de México
Asesor: Mtro. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas

PACMYC RESCATE Y TRADICIÓN Y USOS GASTRONÓMICOS DEL MAÍZ EN NAYARIT ( MERCADOTECNIA DIGITAL, FOTOGRAFÍA, MULTIMEDIA)


PACMYC RESCATE Y TRADICIÓN Y USOS GASTRONÓMICOS DEL MAÍZ EN NAYARIT ( MERCADOTECNIA DIGITAL, FOTOGRAFÍA, MULTIMEDIA)

Choreño Zamora Maria de los Angeles, Universidad Autónoma del Estado de México. Asesor: Mtro. Amparo Jazmín Meza Gutiérrez, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

La presente investigación gira entorno al maíz, este es uno de los alimentos primordiales y sobre todo representativo para los mexicanos, sin embargo mediante la investigación documental y  de campo que se llevó a cabo en algunos municipios del estado de Nayarit, durante la investigación lograron concluir que el uso del maíz en la gastronomía ha disminuido en los últimos años, llegando a una subestimación. Vieron que el maíz ya no tiene la importancia de antes, ya que ahora se utilizan ingredientes modificados por la ciencia o por la integración de la cultura extranjera. Hoy en día suelen consumir una cocina sin origen basada en las necesidades del ritmo de vida actual y por ende está reduciendo el consumo del maíz en el estado. Para muchos nayaritas la cocina tradicional del estado se está volviendo inaccesible ya que en los puntos de interés públicos actuales venden otro tipo de cocina que buscan los consumidores como la comida rápida. Por ello que el punto principal de esta investigación es salvaguardar los platillos tradicionales del Estado de Nayarit en los cuales predomine el uso del maíz; a través de la investigación y análisis culinario,  para proponer una identidad gastronómica del estado y a su vez contribuir al reconocimiento de la cocina Mexicana como patrimonio intangible de la humanidad.  Se han propuesto lograr el rescate de la tradición y usos gastronómicos del maíz en Nayarit, así como la contribuir a la divulgación del trabajo que se está realizando en esta línea de investigación, para conseguir el acercamiento con la gente  (Mercadotecnia digital, fotografía, Multimedia).  



METODOLOGÍA

Mediante un trabajo de campo planificado a diferentes rutas gastronómicas dentro del Estado de Nayarit, el equipo logró reunir recetas que utilicen ingredientes regionales principalmente el maíz nativo nixtamalizado y a su vez poder difundir esta información con la población, así como en el concurso Cocinando con maíz en Nayarit, y en la página de facebook que fue creada, con el propósito de lograr una mayor divulgación y alcance para con las personas.  El primer punto fue la investigación de campo para la obtención de estas recetas, que se integrarán en el libro, el cual estará conformado por 6 capítulos. La  investigación de campo tiene la finalidad de que través de la planeación de las distintas rutas gastronómicas del estado se recabe información documental y verbal sobre el uso del maíz en las diferentes regiones de Nayarit. La siguiente parte consistió en la creación y divulgación del concurso gastronómico, tiene como finalidad enaltecer la gastronomía Nayarita resaltando a su vez el alimento que desde épocas prehispánicas nos ha identificado como mexicanos, "el maíz". De esta manera se estará difundiendo a las nuevas generaciones las recetas de sus antepasados, esto contribuirá a salvaguardar el legado gastronómico que lamentablemente poco a poco se ha ido perdiendo.  En cuanto al concurso se tomaron diversos puntos en cuenta para su realización,.             ●       Planificación y Diseño del concurso Cocinando con maíz en Nayarit. ●       Divulgación del concurso a través de medios gráficos, imágenes, invitaciones, carteles, utilizando para esto redes sociales, correos, y comunicación verbal. ●       Diseñar el área del evento acorde al tema principal el cual es el uso del maíz. una temática acorde al evento, así como la realización del layout ●       Ejecutar el concurso Cocinando con maíz en Nayarit, y estar al tanto de la divulgación del evento.    Se creo una pagina de facebook para publicar en todo momento los avances de la investigación, se creó edición de videos y fotografías para mejorar el contenido de la página y aumentar su rendimiento, todo con la finalidad de involucrar a más personas en el rescate de la tradición y usos gastronómicos del maíz en Nayarit Con toda la información obtenida se dio comienzo a diversas propuestas para el diseño de la portada del libro,  donde se analizó la tipografía, el color, el formato, la retícula, la tipografía, los elementos gráficos (Fotografía)


CONCLUSIONES

Con base en lo que se presenció durante el transcurso de está investigación, puedo decir que se consiguieron grandes logros, que se obtuvo un gran aprendizaje, formar parte del Programa de Verano de Investigación Delfín 2019, fue muy interesante, el tener un intercambio tanto estudiantil como profesional.  Colaborar con compañeros de distintas disciplinas tal como, Gastronomía y Turismo nos permitió lograr el comienzo de un buen proyecto en equipo sin dejar de lado los conocimientos que nos proporcionaron nuestros investigadores.  La investigación de campo por las rutas, el Concurso Gastronómico Cocinando con Maíz en Nayarit, así como ser colaboradores del libro Rescate de la tradición y usos gastronómicos del maíz en Nayarit, son cosas que dejan un buen sabor de boca. Considero que a pesar de que el tema principal era la Gastronomía Nayarita, y que sin duda te preguntas cómo puedes juntar el diseño industrial con la gastronomía realmente es algo que se logró, para conseguir esa divulgación y  un posicionamiento, echar mano de un diseñador no esta demás. Los anteriores actividades se llevaron a cabo con la finalidad retomar el uso tradicional del maíz, del mismo modo con el apoyo del sector restaurantero u hotelero se encaran de retomar en su menú para  exponerlo a  los visitantes y así lograr generar una demanda en este tipo de productos tradicionales de Nayarit. Coincidimos que, mediante esta investigación se puede lograr que el maíz en el Estado de Nayarit (al igual que en otros estados) se potencialice y que no se pierda nuestra emblemática cocina tradicional mexicana, al final del dia somos mexicanos y estar orgulloso de lo que nuestro país es un honor.  
Cibrián Anaya Zibrian Ricardo, Universidad Tecnológica de Nayarit
Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara

DISEñO DE UN KIT EDUCATIVO PARA LOGRAR LA TRANSICIóN DE LA ROBóTICA EDUCATIVA A LA MECATRóNICA EDUCATIVA


DISEñO DE UN KIT EDUCATIVO PARA LOGRAR LA TRANSICIóN DE LA ROBóTICA EDUCATIVA A LA MECATRóNICA EDUCATIVA

Cibrián Anaya Zibrian Ricardo, Universidad Tecnológica de Nayarit. Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la educación se encuentra en una fase constante de desarrollo como consecuencia del avance e implementación de nuevas tecnologías en el marco de Industria 4.0, la cual propone la revolución digital de las empresas a través del uso del internet de las cosas (IoT) y la inteligencia artificial (IA). El pilar actual de la automatización industrial, el controlador lógico programable (PLC), está listo para algunos cambios importantes ya que ahora deberán trabajar mucho más estrechamente con otros sistemas dentro de la fábrica y externamente, por ejemplo, en la nube. Una de las primeras manifestaciones de la ingeniería educativa, se conoce como robótica educativa y es un sistema de aprendizaje interdisciplinario que usa a los robots como hilo conductor gracias al cual se potencia el desarrollo de habilidades y competencias en el alumnado como creatividad, trabajo en equipo, razonamiento matemático, argumentación de ideas, entre otros. Un ejemplo de estos robots es el Lego Mindstorms EV3; el cual permite construir, programar y controlar tus propios robots del modo más inteligente, rápido y divertido mediante una programación intuitiva a bloques. Por otro lado, la Mecatrónica Educativa es una metodología educativa que tiene como objetivo potencializar los conocimientos, habilidades y actitudes en robótica, mecatrónica, inteligencia artificial y sistemas ciber físicos de los nuevos ingenieros en el marco de Industria 4.0; quienes serán los encargados de generar los nuevos productos y servicios que impacten de manera directa en el desarrollo económico del País. La mecatrónica Educativa contempla la utilización de los PLC actuales para después realizar la transición a los PLCs más modernos. Este trabajo contempla la problemática de llevar los participantes que ya utilizan robots en el marco de la Robótica Educativa a utilizar controladores industriales como los PLCs que resuelven problemas reales de la industria realizando una transición suave utilizando una lúdica educativa que permita un proceso de enseñanza-aprendizaje natural.



METODOLOGÍA

El presente proyecto se enfoca en obtener una integración entre un sistema didáctico para Robótica Educativa STEM (ciencia, tecnología, ingeniería y matemáticas) marca Lego Mindstorms modelo EV3 y un PLC (Controlador Lógico Programable) de uso industrial marca Koyo modelo Direct Logic 105. Dicho lo anterior, esta investigación propone la creación de un manual de prácticas: -Primera práctica: Construir un modelo de pruebas de una banda transportadora, con piezas ensamblables de Lego Mindstorms, y realizar una secuencia cíclica de ida y vuelta empleando los sensores propios del sistema. -Segunda práctica: Realizar la programación de la misma secuencia en Lenguaje Escalera o Ladder propio del PLC utilizando el modelo de pruebas de una banda transportadora con piezas ensamblables de Lego Mindstorms.                 Ambos dispositivos (Lego Mindstorms y PLC) diseñados para diferentes propósitos, el reto consistió primeramente en convertir las salidas del PLC en señales digitales, que posteriormente fueran interpretadas por el controlador LEGO. Se procedió a obtener documentación sobre el tipo de comunicación con el que el dispositivo LEGO Mindstorms se conecta con sus propios periféricos de entrada (sensores) y de salida (actuadores), encontrando que la comunicación se realiza mediante el Protocolo I2C; se continuó aprendiendo a emplear dicha documentación. La documentación del sistema LEGO Mindstorms arrojó como resultado una configuración específica para las señales de entrada, estando compuestas por una señal controlada por una resistencia específica, y otra señal de identificación mediante la lectura analógica de otro valor resistivo.                 Para el aprendizaje del protocolo de comunicación, se utilizó un sistema embebido de libre desarrollo denominado Arduino, logrando realizar la comunicación mediante el Protocolo I2C utilizando una placa Arduino MEGA como controlador maestro (Master) y un Arduino Leonardo como esclavo (Slave). La implementación del protocolo de comunicación en estos dispositivos dio paso a comprender la metodología para realizar el mismo proceso de control maestro/esclavo empleando el dispositivo LEGO Mindstorms modelo EV3 como maestro, y el Arduino MEGA como esclavo.                 El siguiente paso consistió en convertir las salidas de relevador del PLC en señales digitales, para ello se diseñó un circuito electrónico en el que se emplea la salida de relevador únicamente como interruptor y mediante un arreglo resistivo se logró obtener una señal digital que sea interpretada por el Arduino para posteriormente ser enviada al LEGO Mindstorms. Al emplear el Arduino MEGA como decodificador de señales, se espera lograr la implementación integral del PLC con el LEGO Mindstorms, sin realizar modificaciones mayores a los dispositivos de interés, obteniendo la posibilidad de realizar una transición más orgánica desde la Robótica Educativa hasta la Mecatrónica Educativa.


CONCLUSIONES

Durante la estancia de verano en el Centro de Investigación, Innovación y Desarrollo Tecnológico de UVM (CIIDETEC-UVM) se lograron adquirir conocimientos teóricos en el área de la Robótica Educativa y Mecatrónica Educativa y protocolos de comunicación entre dispositivos digitales, así como aplicar conocimientos previos en el campo de la Electrónica Digital y PLC.                 La correcta implementación de un dispositivo capaz de integrar PLC y LEGO Mindstorms podrá ayudar a los futuros alumnos de Mecatrónica a desarrollar más y mejores capacidades que le permitan integrarse eficientemente a la Cuarta Revolución Industrial o Industria 4.0.
Cira Esquivel Juan Ignacio, Instituto Tecnológico de Matamoros
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

PREPARACIóN DE NANOESTRUCTURAS Y SU CARACTERIZACIóN POR XPS


PREPARACIóN DE NANOESTRUCTURAS Y SU CARACTERIZACIóN POR XPS

Cira Esquivel Juan Ignacio, Instituto Tecnológico de Matamoros. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Para la producción de las celdas de silicio fotovoltaicos, se necesita silicio policristalino, el cual al momento de ser procesado resulta con impurezas en su superficie, por el cual se busca desarrollar un método de limpieza de la superficie.Para la producción de las celdas de silicio fotovoltaicos, se necesita silicio policristalino, el cual al momento de ser procesado resulta con impurezas en su superficie, por el cual se busca desarrollar un método de limpieza de la superficie.



METODOLOGÍA

El equipo de XPS de la universidad contaba con un cañón de argón, el cual sirve para devastar la superficie y limpiar las impurezas. En la universidad se llevo a cabo el cultivo de oxido de silicio sobre una oblea de silicio. Para poder conseguir esto, la oblea de silicio paso por un tratamiento de RCA el cual consiste en ser enjuagada en diferentes ácidos para después ser limpiada con agua ionizada. Posterior a esto, la oblea es sometida a un tratamiento térmico, en el interior de un tubo de Quarzo a una temperatura de 800°C por un tiempo de 5 minutos, con una fuente de oxígeno continua.   El flujo continuo de oxígeno sometido a alta temperatura produce una reacción con la oblea de silicio, generando una capa de SiO2. Para poder medir el grosor de la capa de SiO2 se introdujo la muestra en el equipo de XPS el cual por medio del análisis más básico de una superficie puede proporcionar información cualitativa y cuantitativa de todos los elementos presentes, excepto helio e hidrogeno. Con un análisis más técnico nos puede proporcionar información sobre la química, organización y morfología de la superficie. Con la información recopilada, nos fue capaz comprender la composición química de la superficie de la oblea de silicio, la cual presentaba una capa de SiO2. Con estos datos nos fue posible realizar cálculos para poder obtener el espesor de SiO2. Se realizaron pruebas realizando un tratamiento con el cañón de argón, siento la potencia del cañón una constante y el tiempo nuestra variable.   Realizamos 2 pruebas, una con una potencia de 5000v con un tiempo de 30 segundos. La segunda prueba se llevo a cabo con la misma potencia, pero esta ves con un tiempo de 90 segundos. De misma manera midiendo de nuevo la composición de la oblea de silicio en cada una de las pruebas se pudo determinar la reducción de SiO2 al analizar la composición química de la superficie, lo cual nos permitió calcular los diferentes espesores que presentaba la oblea de silicio.


CONCLUSIONES

Durante el verano se adquirió el conocimiento para la interpretación de resultados de los análisis por medio del xps, se nos permitió trabajar con el equipo de xps para llevar las pruebas que fuesen necesarias para realizar el estudio sobre el espesor del SiO2 con el fin de realizar las pruebas para la eliminación de impurezas, en la estancia pudimos concretar resultados obteniendo una velocidad promedio de devastación del cañón de argón. La cual nos arrojo resultados prometedores para la eliminación de impurezas sobre la superficie de silicio.
Cirilo Piñon Oscar Ivan, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

DISEñO Y SIMULACIóN DE UNA ANTENA TIPO PARCHE DE 2GHZ


DISEñO Y SIMULACIóN DE UNA ANTENA TIPO PARCHE DE 2GHZ

Cirilo Piñon Oscar Ivan, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El presente proyecto pretende contribuir con la investigación y construcción de antenas debido a que es una herramienta que usamos a diario en casi todas las líneas de comunicaciones, por no decir que, en todas ellas. Para ello, se identificaron los parámetros de caracterización de una antena estándar. Se analizan dichos parámetros realizando una simulación experimental usando el software de onda completa FEKO, con el cual se realiza el diseño y análisis numérico para dicha antena. Posteriormente se diseña la antena tipo parche buscando las medidas a través de la configuración de la antena y obteniendo como dato principal los 2 GHz de frecuencia.



METODOLOGÍA

Para ello nos encargó de analizar e identificar las especificaciones y/o parámetros de una antena como lo son: patrón de radiación, ancho de haz, directividad, ganancia, ancho de banda e impedancia de entrada. Con los que se describirá él porque una antena tipo parche es una mejor opción a usar en comparación de otras, observando su configuración mecánica y observando el tipo de patrón de radiación de cada uno para tener una conclusión más precisa y argumentarlo de manera lógica. De acuerdo con la frecuencia propuesta en el título, el diseño de la antena tendrá un tamaño aproximado de 15 cm de largo, esto tomando en cuenta dicha frecuencia a la que trabajará será de 2 GHz y añadiendo que la estructura tipo parche se eligió debido a que es más fácil de construir y también porque tienen muchas aplicaciones, por lo cual, lo hace eficaz para el trabajo que se quiere realizar a comparación de otros tipos de antenas. Se utiliza el software de onda completa FEKO para el diseño y simulación de la antena. Finalmente se revisan los datos obtenidos para llegar a una conclusión.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las antenas y de los tipos de antenas existentes, además de su configuración y parámetros de las mismas. Además, se logró entender y usar del software de onda completa FEKO para  la simulación. Finalmente, considerando el parámetro ángulo de apertura se utiliza un método para averiguar si es que una antena funciona a la frecuencia que está diseñada, esto con una antena de pruebas.
Cisneros Aleman Miguel Angel, Instituto Tecnológico de Culiacán
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

RECOPILACIóN DE DATOS PARA LA REALIZACIóN DEL ANáLISIS DE CICLO DE VIDA DE MóDULOS FOTOVOLTAICOS


RECOPILACIóN DE DATOS PARA LA REALIZACIóN DEL ANáLISIS DE CICLO DE VIDA DE MóDULOS FOTOVOLTAICOS

Cisneros Aleman Miguel Angel, Instituto Tecnológico de Culiacán. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Dado que los sistemas de energía solar se alimentan de energía "limpia", no producen emisiones contaminantes durante su operación. Sin embargo, llevan el golpe ambiental de otras fases en su ciclo de vida. Para analizar el perfil energético y ambiental de estos sistemas, es necesario ampliar los límites del sistema, teniendo en cuenta también los "impactos ocultos" relacionados con la producción, el transporte y la eliminación del sistema al final de su vida técnica. Aquí, la metodología de evaluación del ciclo de vida se aplica para obtener un perfil energético, ambiental y extendido de los sistemas fotovoltaicos.



METODOLOGÍA

El territorio Mexicano cuenta con 34202627 módulos fotovoltaicos instalados que se encuentran en funcionamiento ocupando 107731.15 hectáreas los cuales están distribuidos en todo el país generando 50066.27 MW por módulos fotovoltaicos. La recopilación de datos es de importante para la realización del análisis, para poder determinar el impacto ambiental que se produce al utilizar esta tecnología para la producción de energía, debido a que las granjas solares para su inicio de funcionamiento se produce un impacto ambiental oculto por la destrucción de la flora, fauna y la necesidad de energía eléctrica. El mix energético de los estados de México permite determinar el impacto ambiental en diferentes regiones debido a que la utilización de diferentes tipos de energía tiene mayor o menor impacto en diferentes estados además, para el análisis de ciclo de vida es necesario determinar cómo se distribuye la energía a diferentes estados por el motivo que la energía excedente sea utilizada en otros estados con ausencia. También, la recopilación de información de entrada y salida de la fabricación de módulos fotovoltaicos de la empresa Solarever es necesaria para la realización del inventario del análisis de ciclo de vida de igual manera para la maquinaria utilizada. Las etapas son las siguientes. Selección de celdas Proceso automatizado de soldadura Montaje Pre-ensamble de panel Prueba de electroluminiscencia Laminación de los paneles pre-ensamblados. Ensamble final Prueba de simulación solar En la selección de celdas las entradas de materia prima son las celdas solares importadas de China, Malasia y Vietnam la cual genera residuos de cartón y plástico en la fábrica. En esta etapa se utiliza un equipo de corte láser de 20W con 0.2667 horas al día. En el proceso automatizado de soldadura las celdas solares que son aprobadas entran a un equipo de soldadura automatizada en el que se utiliza soldadura de estaño además, pasan por un fundente de metanol evaporado. Las entradas de materia primas son las celdas solares, el estaño, el fundente evaporado las cuales tienen residuos de celdas que pueden llegar a romperse y emisión de gases del fundente. Esta etapa utiliza un equipo soldadura automatizada de 6kW que se utiliza 8 horas. En el montaje o pre-ensamble los paneles solares se lleva a cabo de manera manual colocando cada componente por capas, comenzando con la base de vidrio templado, después el encapsulante EVA, posteriormente las series de celdas soldadas, una capa de encapsulante EVA y por último el TPT. Siendo estas capas las materias primas. Después se soldán para tener las terminales del módulo. Después, pasan por una prueba de electroluminiscencia la cual consiste en someter al módulo pre-ensamblado a energía para que emita luz infrarroja lo que arroja una radiografía por computadora del módulo para comprobar que cada una de las celdas esté funcionando correctamente y no haya alguna que no genere energía; si alguna celda no aparece iluminada se deberá cambiar regresando ese módulo al proceso anterior. En esta etapa no existe un residuo sólido y la maquinaria utilizada 360W y trabaja las 8 horas. En el proceso de laminación de los paneles pre-ensamblados el montaje del panel fotovoltaico entra a la máquina donde primero se le añaden 2 papeles encerado tanto en parte de adelante y atrás, en esta etapa la máquina calienta el montaje   por 20 minutos a 130°C y Presión de vacío de -7kPa. Siendo estos dos papeles encerados el residuo. En el ensamble final es colocado el marco de aluminio del panel fotovoltaico, se le añade también la caja de conexiones y el silicón aislante (aceite bicomponente) y se realiza una limpieza. Siendo la materia prima el marco de aluminio y la caja de conexiones sin generar residuos sólidos. Por último, el panel es montado en una máquina que simula las condiciones estándar de 1000w/m2 y 25°C y proporciona las gráficas IV, PV y características del panel como voltaje de circuito abierto, voltaje, corrientes, eficiencia del panel, etc. Sin generar residuos sólidos.


CONCLUSIONES

El análisis de ciclo de vida es un proceso objetivo que permite evaluar las cargas ambientales asociadas a un producto o actividad, identificando y cuantificando el uso materia prima, emisiones negativas al ambiente. Es por ello que esta herramienta es importante para determinar si la energía solar es la mejor alternativa viable a la producción de energía eléctrica. El análisis que se pretende realizar tiene el propósito de ser detallado, es por ello que se analizó el número de módulos en uso, el espacio ocupado y la capacidad de energía en México para determinar el impacto de la utilización de esta tecnología. También que es necesario determinar los diferentes tipos de energía por estado del país debido a que los resultados del análisis cambian. Lo anterior debido a que se genera un mayor o menor impacto por los tipos de energía que utiliza cada estado o región. Además, ciertas regiones al suministran su excedente de producción de energía a otras, lo que afecta el impacto en ambas. Por último, es necesario recolectar información detallada  de entrada y salida de los impactos de paneles fotovoltaicos para realizar el inventario del análisis de ciclo vida y así determinar las emisiones de CO2 y el impacto ambiental agregado por su utilización.
Cisneros Guajardo Hugo Adrian, Universidad de La Salle Bajío
Asesor: Dr. Patricia de la Presa Muñoz de Toro, Universidad Complutense de Madrid (España)

DEPóSITO Y CARACTERIZACIóN DE DISPOSITIVOS DE ONDAS DE ESPíN


DEPóSITO Y CARACTERIZACIóN DE DISPOSITIVOS DE ONDAS DE ESPíN

Cisneros Guajardo Hugo Adrian, Universidad de La Salle Bajío. Asesor: Dr. Patricia de la Presa Muñoz de Toro, Universidad Complutense de Madrid (España)



PLANTEAMIENTO DEL PROBLEMA

Existe la posibilidad de generar sensores químicos y/o eléctricos dependiendo de la variación de las propiedades magnéticas de diversas nanopartículas en relación con su interacción con elementos químicos o biológicos externos (gases por ejemplo). Para esto, el trabajo que se desarrolló en la estancia de investigación del Programa Verano Delfin 2019 en Madrid, España, fue estudiar la interacción de nanoestructuras magnéticas con ondas de espín, de este modo los cambios de las propiedades magnéticas de las nanopartículas se pueden detectar mediante dispositivos de ondas de espín basados en granate de hierro e itrio (YIG). Para estudiar esta interacción se caracterizó la respuesta en frecuencia de los dispositivos de ondas espín combinados con capas magnéticas nanoestructuradas buscando desplazamientos de fase y atenuación en frecuencia.



METODOLOGÍA

Las ondas de espín son generadas y detectadas por antenas corto curcuteadas sobre las que se coloca el dispositivo de YIG, esto permite estudiar cómo afecta las nanopartículas magnéticas a la propagación de estas ondas mediante un analizador de redes que caracteriza la respuesta en frecuencia entre 3 y 4 GHz. Para ejemplificar lo anterior se desarrolló un experimento donde se depositó nanopartículas de Ferrita de Zinc sintético sobre el YIG (figura 2.1) y se obtuvieron las siguientes señales (antes y depues del deposito). Es importante observar que la señal logarítmica se atenua en comparacion con la señal principal que fue tomada antes de depositar, ademas de tener un corrimiento hacia frecuencias menores, que son los cambios que se buscan estudiar en este proyecto (figura 2.2). De igual forma en la señal de fase observamos que esta en una frecuencia diferente a la original al depositar el material (figura 2.0). En las pruebas de concepto hechas en las primeras semanas se vio una respuesta clara de las ondas de espín a la presencia de nanoestructuras magnéticas, sin embargo se verificó que para optimizar el diseño de sensores se requiere un estudio preciso de la respuesta de las ondas de espín con respecto a la posición en altura de la capa nanoestructurada. Bajo esta consigna se optó por diseñar un sistema mecatrónico que consiste de un motor a pasos acoplado a un tornillo micrométrico para tener un control más exacto y automático de la separación entre el material y el soporte con las antenas, y así poder seguir caracterizando materiales agregando el factor de la altura. 


CONCLUSIONES

El diseño más complicado del sistema fue el acople del motor a pasos con el tronillo micrométrico, el cual debía estar perfectamente alineado eje con eje. Mecánicamente fue complejo teniendo en cuenta el margen de error de la impresora, sin embargo, modificando algunas piezas logramos una alineación de ejes considerablemente buena. Por medio de un programa en LabVIEW en comunicación serial con Arduino se tiene el control de distancia del material que se acerca o se aleja hacia el dispositivo para su caracterización. Gracias al motor a pasos y al tornillo micrométrico se consigue una resolución de 2.5 micrómetros por paso del motor, en condiciones ideales. Con esta calibración se pueden obtener datos muy precisos en cuanto al cambio de frecuencia o fase de las ondas spin, lo cual podemos observar en el Analizador de redes que nos proporciona la señal de respuesta en frecuencia en fase y logarítmica.
Claudio Ramirez Edgar Jordi, Instituto Tecnológico de Acapulco
Asesor: Dr. Delia Esther Páramo Calderón, Universidad del Papaloapan

ELABORACIóN DE TORTILLAS COMO ALIMENTO FUNCIONAL LIBRE DE GLUTEN A PARTIR DE HARINAS DE PLáTANO INMADURO (MUSA PARADISIACA L.) Y DEL TUBéRCULO MALANGA (COLOCASIA ESCULENTA (L.) SCHOTT): CARACTERIZACIóN FíSICA Y NUTRICIONAL.


ELABORACIóN DE TORTILLAS COMO ALIMENTO FUNCIONAL LIBRE DE GLUTEN A PARTIR DE HARINAS DE PLáTANO INMADURO (MUSA PARADISIACA L.) Y DEL TUBéRCULO MALANGA (COLOCASIA ESCULENTA (L.) SCHOTT): CARACTERIZACIóN FíSICA Y NUTRICIONAL.

Claudio Ramirez Edgar Jordi, Instituto Tecnológico de Acapulco. Asesor: Dr. Delia Esther Páramo Calderón, Universidad del Papaloapan



PLANTEAMIENTO DEL PROBLEMA

Los alimentos funcionales han mostrado ser un reto para la industria alimentaria, siendo en la actualidad una de las más demandadas en el mundo. Debido a lo anterior, el desarrollo de nuevos productos juega un papel muy importante en la industria de alimentos, ya que los consumidores constantemente demandan productos alimenticios con alto valor nutricional y que tengan beneficios adicionales para la salud. En la actualidad, es tendencia o moda que las personas exijan a las industrias alimentarias productos libres de gluten. Por ello, existe un mercado interesante para la industria de los alimentos en los consumidores intolerantes y no intolerantes que quieren llevar una dieta libre de gluten. Sin embargo, no es sencillo obtener productos libres de gluten con características similares a los que tienen gluten y con el mismo costo. En México y algunos países de Centro América, la tortilla de maíz es uno de los principales alimentos consumidos y es una buena fuente de calorías en las personas de bajos recursos económicos. El problema está en el maíz, ya que es un cereal de grano que contiene gluten y, en consecuencia, las personas intolerantes y no intolerantes que buscan una dieta libre de gluten, se ven forzados a no consumir este alimento. Por ello, buscan alternativas con productos libres de gluten para su consumo.



METODOLOGÍA

Se utilizó como materia prima el plátano inmaduro y el tubérculo malanga que fueron cosechados en la región productora San Juan Bautista Tuxtepec, Oaxaca y fueron transportadas hasta el laboratorio. La materia prima fue lavada con abundante agua y se dejó escurrir para su uso posterior. Para la obtención de la harina de plátano la pulpa fue rebanada en rodajas con un espesor aproximado de 1-2 mm, las cuales fueron sumergidas en solución de ácido cítrico 0.3% (m/v) para evitar el pardeamiento enzimático, posteriormente se colocaron en charolas y se procedió a deshidratarlas en un secador de charolas a una temperatura de 50 °C durante 24 horas. Por último, las rodajas deshidratadas fueron pulverizadas empleando una licuadora industrial y tamizadas con una malla número 50 para su posterior almacenamiento en recipientes de plástico. Para la obtención de la harina del tubérculo malanga, la cáscara fue removida usando un cuchillo y rebanada en rodajas con un espesor aproximado de 1-2 mm. Posteriormente fueron colocadas en charolas y se procedió a deshidratarlas empleando un secador de charolas a una temperatura de 50 °C durante 24 horas. Por último, las rodajas deshidratadas fueron pulverizadas empleando una licuadora industrial y tamizadas con una malla número 50 para su posterior almacenamiento en recipientes de plástico. Para la elaboración de las tortillas de harinas de plátano inmaduro (HP) y tubérculo malanga (HM) se utilizaron las siguientes proporciones (HP/HM) 100:0, 80:20, 60:40, 50:50, 40:60, 20:80 y 0:100. Se mezcló las harinas en las proporciones anteriormente mencionadas adicionando 0.35 g sal de mesa (NaCl)/100 g de mezcla total, hasta homogenizar la mezcla. Posteriormente se adicionaron de 94-100 mL de agua a una temperatura de 75 °C hasta que la mezcla se formara una masa y se siguió amasando 5-10 minutos para obtener una consistencia más firme. Se deja reposar la masa de 15-20 minutos. Se tomó una muestra de masa de 50 g, se le dio forma manualmente y por último se prensó con una maquina tortillera manual hasta obtener círculos delgados de 1-2 mm y 11 ± 1 cm de diámetro, que posteriormente se sometieron a cocción en un comal a una temperatura de 195 ± 5 °C durante 80 s aproximadamente en dos tiempos: dejando tiempos de 40 s por cada lado de la tortilla. Para el análisis químico proximal se determinó humedad por método de estufa de vacío (método AOAC 32.1.03., 1995), cenizas (método AACC 08-01., 2000), lípidos por método Soxhlet (método AACC 30-25., 2000) y proteínas por método macro Kjeldahl (método AOAC 981.10., 1990), y se realizó por triplicado.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos acerca del desarrollo de alimentos funcionales las cuales fueron puestas al elaborar las tortillas de harina las cuales al prepararse presentaron un aspecto quebradizo por la falta del gluten que la da esa elasticidad al alimento. Se logró generar conocimiento en técnicas de análisis químico proximal. Sin embargo, al ser un extenso trabajo aún se encuentra en la fase de caracterización nutricional por lo que no es posible mostrar los próximos datos a obtener.
Cocom Gutiérrez Francisco Jesús, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

APOYO AL PROCESO DE REHABILITACIóN EN PERSONAS DE LA TERCERA EDAD CON INESTABILIDAD POSTURAL MEDIANTE REALIDAD VIRTUAL


APOYO AL PROCESO DE REHABILITACIóN EN PERSONAS DE LA TERCERA EDAD CON INESTABILIDAD POSTURAL MEDIANTE REALIDAD VIRTUAL

Calvillo García Hugo Osvaldo, Instituto Tecnológico de Estudios Superiores de Zamora. Cocom Gutiérrez Francisco Jesús, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es una habilidad motora compleja derivada de la interacción de varios procesos sensorio motores, que permiten tanto la realización y cumplimiento de metas funcionales, así como el mantenimiento de la estabilidad y la orientación postural y el equilibrio. La mayoría de personas quienes presentan alteración del control postural son los adultos mayores, debido a que responden de manera inadecuada a los ajustes posturales, siendo cerca del 50% de las caídas causadas por la perturbación en la base de apoyo, 35% por desplazamiento externo del centro de la masa corporal y solo el 10% derivados de eventos fisiológicos. El Control Postural es realmente importante, dado que es la base para el desarrollo y ejecución de patrones de movimiento selectivos de las actividades de la vida diaria, y por tanto tiene una implicación directa en la participación del individuo en la sociedad. La mayor problemática que se presentan en los procesos de rehabilitación, es el abandono de estos procesos por distintas causas, ya que los ejercicios para rehabilitar el control postural resultan ser monótonos, estresantes, el tiempo de traslado hacia el centro de rehabilitación para algunas personas resulta ser un fastidio, por lo que en el verano de investigación se pretende desarrollar un software de realidad virtual que apoye el proceso de rehabilitación del control postural de personas de la tercera edad con inestabilidad utilizando mecánicas y dinámicas de gamificación.



METODOLOGÍA

Uno de los objetivos de las actividades que se aplican en el proceso de rehabilitación es valorar el equilibrio estático de la persona, y para ello se utiliza el test de Romberg, el cual es una prueba vestibular, esta prueba estudia el funcionamiento de los conductos semicirculares. Los conductos semicirculares son tres tubos muy pequeños, ubicados en el oído interno, que contienen líquido y te ayudan a mantener el equilibrio. Cuando mueves la cabeza, el líquido del interior de los conductos semicirculares se agita y mueve los diminutos pelos de cada canal. El test de Romberg consiste en colocar a la persona de pie, quieta en bipedestación durante 30 segundos, con los pies juntos y los brazos a lo largo del cuerpo. Primero con los ojos abiertos y luego se le ordena cerrar los ojos. Si antes de este tiempo la persona cae, mueve los pies, abre los ojos o extiende los brazos se considera que dicha persona sufre de un trastorno del equilibrio. En el proceso de rehabilitación es importante tener una retroalimentación y saber hacia que lados la persona suele inclinarse más. Para esto durante el verano se desarrolló una escena en el motor de desarrollo para la creación de videojuegos Unity utilizando SteamVR Plugin, este complemento nos permite utilizar elementos para el desarrollo de juegos realidad virtual, además de usar las gafas de realidad virtual fabricadas por HTC y Valve. Este dispositivo está diseñado para utilizar el espacio en una habitación y sumergirse en un mundo virtual en el que se permite al usuario caminar y utilizar controladores para interactuar con objetos virtuales. La escena debe cumplir con la funcionalidad del test de Romberg, mecánicas y dinámicas de gamificación y registrar hacia que lados la persona suele perder más el equilibrio. Se implementaron los modelos 3d de toda una casa amueblada y un jardín los cuales son vistos en realidad virtual, para cumplir con la funcionalidad del test de Romberg y asegurarnos de que la persona al tener puestas las gafas de realidad virtual tengan los ojos cerrados como lo pide la actividad, por medio de programación orientada a objetos se obscureció la escena durante 10 segundos después de 10 segundos de haber iniciado. Para gamificar la actividad y al mismo tiempo tener una retroalimentación de los resultados, se optó por implementar un modelo 3d de una diana a la cual se le apunta y se lanzan flechas automáticamente cada segundo, la dirección de las flechas depende de la inclinación del cuerpo, mostrándose en la diana un puntero que nos indica en que posición estamos apuntando y en que posición será disparada la flecha. Al iniciar la actividad la persona puede estar viendo con los ojos abiertos como son lanzadas las flechas y se percata de que de la inclinación de su cuerpo depende la dirección de las flechas, una vez pasados 10 segundos con los ojos abiertos, se obscurece la escena e igualmente se siguen lanzando flechas cada segundo, después de obscurecer las escena durante 10 segundos se quita el obscurecimiento y se puede apreciar la puntuación de la actividad dependiendo que tan estable se mantuvo la persona durante la actividad..


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos en un lenguaje de programación llamado C#, como también un software para desarrollar videojuegos. Estudiamos una metodología de un sistema de rehabilitación el cual logramos gamificar algunos de los ejercicios, con lo que pusimos en práctica lo aprendido y desarrollamos un escenario con el cual trabajar, de esta manera se pretende ayudar en la postura y el equilibrio de la persona.
Colima Ceceña Mariana, Universidad Autónoma de Baja California
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES


COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES

Campos Cuiniche Pablo Esteban, Universidad Autónoma de Baja California. Colima Ceceña Mariana, Universidad Autónoma de Baja California. Figueroa Moreno Israel, Universidad Autónoma de Baja California. Rocha Díaz Carlos Emilio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

A lo largo del último siglo, la industria aeroespacial ha generado un notable avance de innovación y mejora de nuevos materiales compuestos, los cuales buscan cumplir los requerimientos de normatividad en el área, como propiedades mecánicas y ligereza, sin embargo, presentan el inconveniente de ser contaminantes y una vez que termina su ciclo de uso ya no pueden ser reutilizados o ser reciclados. En consecuencia, se pretende genera nuevos materiales compuestos donde se apliquen polímeros a base de bioepóxicos y fibras naturales y de esta manera, generar materiales compuestos biodegradables, es decir, productos no contaminantes al medio ambiente y que puedan ser reciclados, siempre en pro de la conservación las propiedades tanto mecánicas como de ligereza requeridos en la industria aeroespacial. En este proyecto se desarrollará dos materiales compuesto a base de fibras naturales: coco y henequén con resina epóxica biodegradable.



METODOLOGÍA

Para la realización de este proyecto se utilizó resina bioepóxica SR GreenPoxy 56 reforzada con fibra de henequén y de coco formando dos materiales compuestos distintos. Dado que este subproducto tiene un grado de humedad relativamente alto, se llevó a cabo el experimento haciendo laminados tanto con fibra seca como fibra con humedad ambiente. Recorte de fibras Tanto la fibra de coco como las de henequén fueron recortadas con dimensiones de 25 x 25 cm, obteniendo 8 láminas de cada tipo de fibra, para posteriormente utilizar 4 de ellas en cada laminado. Proceso de secado El secado previo de las fibras se realizó en un horno de secado a una temperatura máxima de 100°C durante 5 horas siguiendo las condiciones estándar. La temperatura de secado se determinó en base al análisis termogravimétrico de la celulosa buscando la temperatura óptima para eliminar la humedad y no degradar la celulosa de la fibra. Una vez secas las fibras, se colocaron en el desecador para evitar que éstas adquirieran humedad nuevamente. Proceso de manufactura Para la fabricación de los materiales compuestos, se utilizó el proceso de laminado por impregnación al vacío en las 4 muestras. Previo a cada laminado, se preparó un molde de aluminio. Se colocó masking tape en el contorno del molde, esto con el fin de evitar colocar antiadherente en esas zonas y poder aplicar butilo para sellar la bolsa de vacío. Posteriormente se añadió el antiadherente utilizando un paño completamente húmedo siguiendo líneas rectas en dirección de 0° hasta cubrir la superficie del molde. Se esperaron 2 minutos y con un paño seco pasa en dirección de 90° con el fin de retirar el exceso y rellenar en las zonas donde pudo haber faltado. Después de 15 minutos transcurridos, se aplica la segunda capa siguiendo las direcciones contrarias. El procedimiento se repitió hasta completar 4 capas de antiadherente. Antes de utilizar el molde deben haber pasado mínimo 30 minutos. Sobre la orilla del molde se colocó butilo cuidadosamente. Posteriormente se adhirieron las mangueras de entrada y salida del sistema de igual manera con butilo. Conectado a las mangueras estaban las conexiones T. Como medio de difusión se fabricaron unos tubos a base de fibra de henequén envuelta en peel ply, las cuales se colocaron en la entrada y salida del sistema de vacío dentro de las conexiones T. En el centro del sistema se colocaron las 4 láminas de fibra de coco/henequén, con una placa de metal encima forrada con una película antiadherente para evitar que la placa se adhiera al laminado. Esta placa se utilizó con el fin de generar una presión uniforme y lograr un mejor acabado en el laminado. Además, se añadió una capa de peel ply de 7 x 25 cm a la entrada y salida, y una capa de Green mesh a la entrada como medios de distribución. El peel ply funciona como medio de transmisión de la resina y el Green mesh ayuda para dirigir la resina hacia las láminas de fibra. Por último, se colocó la bolsa de vació cuidando de que quedara completamente sellada con butilo, comenzando a sellarla desde la zona de la manguera de salida y haciendo presión entre la bolsa y el butilo. Una vez listo el sistema, se encendió la bomba de vacío durante 15 minutos. Seguido de esto, se preparó la mezcla de resina en un recipiente metálico y se ingresó al sistema por medio de la manguera de entrada. El flujo de ésta estuvo siendo regulando con una prensa troquelada. Después de ingresar toda la resina, se continuó aplicando vacío durante 5 horas más.


CONCLUSIONES

Se presentó un trabajo de manufactura de materiales compuestos reforzados con fibras en el que se utilizó la técnica de infusión por bolsa de vacío. Las fibras de coco utilizadas funcionaron como un buen refuerzo para el compuesto laminado, que junto con la matriz de resina bioepoxy, presentaron una buena adhesión interfacial a pesar de la humedad relativa de las fibras. De acuerdo con la experiencia adquirida en el desarrollo experimental, nos percatamos de la importancia de controlar diversas condiciones en el momento de llevar a cabo la infusión. Una de ellas es el vacío. Un buen sellado de la bolsa asegura que no existan entradas de aire, y así evitar la formación de concentradores de esfuerzos que afectan a las propiedades mecánicas del laminado, también nos dimos cuenta de la importancia de controlar la velocidad de flujo de la resina, ya que, permitir que la resina se difunda con menor velocidad, da como resultado un mejor relleno de la fibra y una superficie más homogénea y uniforme. Al final, se espera obtener laminados de fibras de coco y fibras de henequén con la capacidad de degradarse y de presentar un buen comportamiento ante esfuerzos. Para ello, se realizarán ensayos de tensión y compresión, así como también una caracterización óptica que nos permitirá predecir ciertas características del material. A partir de los resultados obtenidos, se podrá evaluar si sus propiedades son las adecuadas y si son una alternativa viable para la sustitución de algunos materiales en el sector aeroespacial.
Colín Lárraga José Antonio, Instituto Tecnológico de Toluca
Asesor: Dr. Rocio Sanchez Montero, Universidad de Alcalá (España)

ESTUDIO DEL COMPORTAMIENTO ELECTROMAGNéTICO FRENTE A CAMBIOS DE MATERIALES EN ANTENAS WEARABLE PARA LA BANDA ISM DE APLICACIONES MéDICAS EN CST STUDIO SUITE


ESTUDIO DEL COMPORTAMIENTO ELECTROMAGNéTICO FRENTE A CAMBIOS DE MATERIALES EN ANTENAS WEARABLE PARA LA BANDA ISM DE APLICACIONES MéDICAS EN CST STUDIO SUITE

Colín Lárraga José Antonio, Instituto Tecnológico de Toluca. Asesor: Dr. Rocio Sanchez Montero, Universidad de Alcalá (España)



PLANTEAMIENTO DEL PROBLEMA

El diseño de una antena wearable es un tema de estudio muy extenso debido a la enorme cantidad de posibles formas y dimensiones que una antena puede tener. Una antena wearable consiste de 3 elementos que son: plano de tierra, sustrato dieléctrico y el elemento radiante. Estas antenas buscan facilitar el monitoreo remoto de pacientes y presentan excelentes ventajas al ser métodos de bajo costo, no invasivos y que pueden operar bajo las diferentes condiciones en las que se encuentre el paciente.  Para sintetizar una antena wearable es importante tener en cuenta que al ser implementada en una aplicación de monitoreo remoto, existirá la influencia de diversos factores como la humedad, la curvatura, condiciones del entorno y dimensiones de la antena, por lo cual, es necesario buscar la optimización de sus parámetros de rendimiento mediante la implementación de los materiales que ofrezcan los mejores resultados. Por lo anterior, es necesario empezar por un análisis mediante software que nos permita caracterizar los materiales y dimensiones de una antena básica para obtener la mayor cantidad posible de resultados para comparar.



METODOLOGÍA

Para la realización de este estudio se establece la frecuencia de trabajo de 2.45GHz con un ancho de banda mínimo de 2.4 a 2.5 GHz que se ajusta a lo establecido por estándar de IEEE para la aplicación de antenas wearable en el monitoreo remoto. Debido al enfoque especifico de este estudio, se usó un diseño básico de antena en forma U para todas las simulaciones. Las simulaciones se realizaron utilizando el módulo Microwave Studio del software CST Studio Suite que nos permite diseñar nuestra antena y hacer el análisis en el dominio del tiempo. Comenzamos diseñando una antena en forma de U con las siguientes materiales: Plano de tierra, hecho de cobre Sustrato dieléctrico, hecho de fieltro Elemento radiante, hecho de cobre.  La siguiente etapa del estudio consistió en modificar únicamente el sustrato dieléctrico, es decir, cambiar el material dieléctrico de la antena conservando el plano de tierra y el elemento radiante de cobre. Para esto se obtuvieron los valores especificos de cada material dielectrico en sus parametros de permitvidad y su tangente de perdidas, reuniendo un total de 8 materiales: fieltro, seda, poliamida, gomaespuma, lana, fieltro de lana, Cordura y algodón.  Para cada cambio de material dieléctrico se realizó una simulación diferente, debido a las propiedades de los materiales se modifican los parámetros de rendimiento de la antena, por lo cual, cada cambio significo ajustes en las dimensiones de la forma U de la antena para que cada una de las simulaciones arrojara los resultados deseados para nuestra frecuencia de resonancia de 2.45GHz. Tras recopilar los datos y resultados de las variaciones en el material dieléctrico se eligieron dos simulaciones para continuar a la tercera etapa del estudio; estas dos simulaciones fueron elegidas basándose en los resultados obtenidos en el ancho de banda, se eligieron la de mayor ancho de banda y la de menor ancho de banda, siendo las siguientes: Mayor ancho de banda - 2.34 a 2.65 GHz. Utilizando algodón y cobre. Menor ancho de banda - 2.40 a 2.50 GHz. Utilizando gomaespuma y cobre. En la tercera parte del estudio se realizaron cambios del material conductor, es decir, el material usado en el plano de tierra y en el elemento radiante. Para estos cambios tomamos en cuenta 5 materiales distintos, seleccionados de acuerdo a los valores especificos de conductividad de cada uno de ellos; los materiales selecciondos fueron: Zelt, cobre, plata, nickel y cobre en tinta. Se realizó una simulación para cada cambio de material, al igual en la parte anterior del estudio estos cambios significaron variaciones en la frecuencia de resonancia y en consecuencia se ajustaron de nuevo las medidas de la forma U en la antena. Cabe mencionar que los ajustes realizados en las dimensiones fueron menores a los hechos en la etapa anterior del estudio. Se completó un registro de los resultados obtenidos, los cuales fueron: coeficiente de reflexión, patrón de radiación en 3D, modelo de la estructura de la antena, graficas polares del campo eléctrico y magnético, registro en tabla de datos de los parámetros de rendimiento.​  


CONCLUSIONES

En cuanto a las variaciones en la forma de la antena se puede decir que las medidas de los laterales se modificaban de manera pareja para que ambas conservaran un ancho igual y conservar la simetría. Además, en algunas simulaciones también se modificó el ancho de la parte baja de la forma U, lo cual generaba cambios en la magnitud del coeficiente de reflexión; ambos efectos mencionados anteriormente se observaron en la gráfica de los parámetros-S del simulador. Las variaciones en el material dieléctrico generaron mayores cambios en los comportamientos de la antena original, hecha de cobre y fieltro, por lo que fue la etapa donde más tiempo se invirtió ajustando las medidas para que las antenas llegaran a la frecuencia de 2.45GHz. En el estudio de los cambios en el material conductor se observó que entre el cobre y la plata los resultados llegaban a permanecer prácticamente idénticos, sin embargo, la plata permitía que mediante la modificación de las medidas de la antena se pudieran obtener mejores resultados sin modificar la frecuencia de resonancia. Las gráficas en 3D del diagrama de radiación, son de gran utilidad para observar el comportamiento de la radiación de la antena y asegurarnos que estamos cumpliendo con el objetivo básico que es enviar toda la radiación en un solo sentido para disminuir todo lo posible la radiación que llega hacia el paciente en monitoreo. Los mejores resultados en cuanto al ancho de banda se obtuvieron utilizando nickel y algodón; y en cuanto a  eficiencia se obtuvo el mejor resultado con plata y algodón. Podemos concluir que este estudio cumple con su propósito y quedará como evidencia útil para el desarrollo futuro de antenas wearables.
Collazo Flores María Teresa, Instituto Politécnico Nacional
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

IMPLANTACIóN DE UN MAPA DE REALIDAD AUMENTADA ACTIVADA POR MóDULOS QR


IMPLANTACIóN DE UN MAPA DE REALIDAD AUMENTADA ACTIVADA POR MóDULOS QR

Collazo Flores María Teresa, Instituto Politécnico Nacional. Gutierrez Soto Marcos Yehosua, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La Realidad Aumentada es la disciplina que estudia la interacción de elementos virtuales en ambientes reales, uno de los factores importantes es la sinergia entre la información física con la información virtual, mediante un dispositivo o una serie de dispositivos; lo que permite la combinación de elementos físicos con elementos virtuales, adecuados en tiempo real, considerando las necesidades de la aplicación específica, a las condiciones de estos. En la actualidad, la incorporación de interfaces capaces de integrar la Realidad Aumentada es muy robusta y complicada para su implementación. Diversos medios y programas han desarrollado librerías y medios para simplificar su aplicación, dando como resultado una experiencia de desarrollo más eficiente y accesible para este tipo de interfaces, en las cuales se incluye el Framework A- frame, que es una de las herramientas utilizadas en este trabajo de investigación.



METODOLOGÍA

Para la realización de este proyecto, se comenzó aprendiendo e implementando la herramienta de A-frame, que es un Framework de código abierto auxiliar para la realización e implementación de entornos capaces de soportar interfaces de realidad aumentada, así como el lenguaje de marcado HTML el cual implementa el Framework para crear interfaces de realidad aumentada accesibles desde cualquier dispositivo, que cuente con cámara, mediante entornos webs. Posteriormente se escogió una actividad para aplicar lo aprendido y desarrollar un entorno web con Realidad Aumentada, siendo éste un “Mapa de un zoológico interactivo”, el cual consiste en el diseño de un croquis donde se incluyen códigos QR, que son analizados posteriormente por una interfaz web capaz de proyectar el animal o actividad referente a su ubicación real dentro del zoológico.


CONCLUSIONES

De la presente investigación, se ha logrado la obtención de nuevos conocimientos y habilidades sobre interfaces web, realidad aumentada, desarrollo web, entre otros temas que serán provechosos para seguir con nuestra formación como estudiantes e investigadores, así como la obtención de un mapa interactivo funcional que puede ser adecuado e implementado en cualquier zoológico o parque de la república mexicana.
Concha Ramirez Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DISEñO DE UN BAñO SECO EN LA UNAM


DISEñO DE UN BAñO SECO EN LA UNAM

Concha Ramirez Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Picazo Medina Paola Yamileth, Instituto Politécnico Nacional. Sánchez Méndez Martin, Universidad Autónoma del Estado de México. Tinajero Franco Diana Laura, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El problema de escasez de agua en la Ciudad de México se debe al uso ineficiente de los diversos servicios de agua y saneamientos. Dada la problemática de agua en la ciudad, cobra importancia la visión previsora en su cuidado y manejo, es por ello que el proyecto busca incorporar el uso de baños secos en una de las instalaciones del campus central de la Universidad Nacional Autónoma de México (UNAM). Un hecho notable es que en el campus debe abastecer una demanda de agua de 80 litros por segundo y, en promedio, el consumo diario total es de 8 050 metros cúbicos. De acuerdo con la Dirección General de Obras de la UNAM durante la última década el consumo anual promedio se ha mantenido en 3 millones de m3 de agua. El sistema de agua potable para el consumo en las distintas dependencias de Ciudad Universitaria (CU) se compone de tres subsistemas: el de suministro, el de almacenamiento y el de la red de distribución de agua. Este último lleva más de 30 años en servicio, por lo cual su mantenimiento se vuelve complicado. Con la finalidad de disminuir el consumo, desde hace más de diez años se ha modernizado el inmobiliario de los sanitarios en las distintas dependencias. En los últimos años, la Facultad de Ingeniería y el Centro de Investigación Avanzada (CIA) han desarrollado como propuesta alterna y visionaria un núcleo sanitario que reduzca el consumo de agua mediante sanitarios secos suficientes para abastecer la demanda de dicho edificio donde los  desechos se tratan mediante un sistema de compostaje adecuado para hacer uso de la materia fecal de una forma segura y eficaz para el usuario y el medio ambiente. El desarrollo de este producto también conlleva una seria problemática social debido al prejuicio que se tiene de los baños secos donde el rechazo hacia los olores y la suciedad es evidente por parte de los usuarios, a diferencia de casos análogos ya desarrollados cercanos a la ciudad. Se busca combatir este tipo de problemas desde el desarrollo mecánico y estético del cuerpo del producto propuesto. El mismo deberá responder a estándares de sustentabilidad, higiene, calidad y pretende obtener la aceptación de los distintos usuarios presentes y futuros, que utilicen el baño en la Facultad de Ingeniería, buscando ofrecer una buena experiencia en su uso. cantidades considerables de compostaje y el traslado del desecho.



METODOLOGÍA

Para desarrollar la propuesta del baño seco se realizaron una serie de pasos que nos han permitido tener un correcto desarrollo del proyecto. En principio revisamos los antecedentes respecto a los baños secos existentes y también analizamos el espacio donde se adaptará, el lugar se encuentra en el edificio I de la facultad de ingeniería, dentro de CU. Esto nos permitió tener noción de su estado para identificar su problemática, conocer sus magnitudes y características. Se hizo una investigación de campo en la cual se analizaron baños públicos de diferentes establecimientos, esto nos permitió realizar una tabla comparativa en donde se observaron cuáles eran los detalles que le generan una mejor experiencia al usuario, las cuales se tuvieron en cuenta a la hora de tomar decisiones en el diseño. De la misma manera se analizaron a los usuarios que participan en este proyecto y se determinaron que existían dos tipos (Estudiantes y conserjes). Siguiendo la metodología de Karl Ulrich se realizaron evaluaciones para determinar, entre todos los conceptos de solución,  el mejor diseño enfocado en el usuario. Durante estas evaluaciones simulamos Escenarios para entender mejor el contexto en el cual se desenvuelven los personajes, y del mismo modo a estos se les dotaron características que se vieron reflejadas en los diagramas de rutas de los usuarios. En conclusión durante este análisis se nos brindó una visión más amplia de los individuos que estarán en contacto directo con el producto final, así como sus rutinas y su metodología a la hora de estar dentro de los baños. Las propuestas de solución se evaluaron con diagramas de polaridad y matrices morfológicas para valorar las características, las funciones, los materiales y/u objetos que serían indispensables para la funcionalidad del proyecto. El proyecto se dividió en áreas de especialidad, dependiendo del perfil de cada integrante del equipo, de este modo la información se incorporaba y todo el equipo añadía un panorama más amplio acerca de los problemas ecológicos que se encontraron en la universidad. Con este sistema se facilitó la generación de alternativas de solución con rasgos ambientales que nos permiten disminuir la huella ecológica que actualmente estamos generando. Para concluir, los resultados se elaboraron virtualmente con el modelado de en 2D utilizando AutoCAD y en 3D utilizando Revit con la finalidad de compartir de manera gráfica los resultados y nuestra visión del baño del futuro.


CONCLUSIONES

La escasez de agua en todo el mundo es un problema que cada vez se vuelve más preocupante. Un sistema que ayude a evitar que las aguas residuales de las ciudades contengan heces fecales, tendrá beneficios en los ámbitos ambientales, sociales, agrícola y económico ya que serán únicamente aguas grises    Es importante mejorar la funcionalidad de los baños públicos con una nuevo diseño y mantener la sostenibilidad a medida que se van descubriendo vulnerabilidades. El proceso que se llevó a cabo para diseñar permitió desarrollar una propuesta la cual cumple con las necesidades del usuario. Más adelante se planea trabajar con otras disciplinas médicas, agrícolas y salud para garantizar la seguridad de los estudiantes interesados en la conservación del ambiente. Así mismo, validar la propuesta a través de prototipos funcionales que nos permitan tener un baño público favorable según los requerimientos establecidos.
Contreras Torres Kevin Alexis, Universidad de Sonora
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Corado Peralta Francisco Javier, Universidad Autónoma de Baja California
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

DISEñO E INSTRUMENTACIóN DE SISTEMA IOT PARA CALENTADORES SOLARES


DISEñO E INSTRUMENTACIóN DE SISTEMA IOT PARA CALENTADORES SOLARES

Corado Peralta Francisco Javier, Universidad Autónoma de Baja California. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen múltiples formas de desarrollar sistemas con un enfoque basado en IoT (Internet de las Cosas por sus siglas en inglés), no obstante existen diversos aspectos que dificultan el proceso de desarrollo estándar en el ámbito de IoT. Esto derivado de la gran cantidad de verticales de aplicación, variedad de tecnologías habilitadoras que a su vez pueden presentar múltiples arreglos de configuración, así como las diversas arquitecturas o modelos de capas. Todo esto en conjunto representa un reto, es por eso por lo que la búsqueda de un método estándar o arquitectura genérica en el desarrollo de sistemas basados en IoT enfocado en Smart Homes (Casas Inteligentes) es de importancia, ya que como se ha mencionado anteriormente, ha ganado popularidad al ser la más adoptada cotidianamente.



METODOLOGÍA

A partir del estudio del trabajo previo que se tenia en el proyecto por parte de la Universidad Autónoma de Guadalajara (Software de aplicación y de cloud computing) se comenzaron a estudiar las variables físicas deseadas a medir (flujo del agua y temperatura de la misma) para empezar a buscar sensores y circuitos electrónicos para adecuación de señal, una vez hecho esto se procedió a la adquisición de datos por medio del convertidor analógico/digital del microcontrolador ESP-32, al conocer el consumo aparente de energía eléctrica se procedió a optimizar por medio de la utilización deep sleep (modo de bajo consumo del microcontrolador) y la programación del núcleo ULP (Ultra Baja Potencia por sus siglas en inglés) para llegar a tener un sistema con un tiempo de autonomía mayor, también se agrego una parte de carga solar en para llegar a lograr un suministro de energía continuo para que el sistema funcione por un extenso periodo de tiempo. Una vez que ya se contó con el desarrollo general del prototipo, se procedió a trabajar en el circuito impreso en placa para y la búsqueda de materiales en tiendas distribuidoras de componentes electrónicos, por ultimo se procedió a ensamblar el hardware y probar con los códigos previamente desarrollados, una vez que se tuvo el sistema funcional se instaló para comprobar su correcto funcionamiento.


CONCLUSIONES

Gracias al apoyo de la Universidad Autónoma de Guadalajara y en especifico a mis asesores en este programa de verano tuve la oportunidad de aplicar mis conocimientos en electrónica y programación para desarrollar hardware y código embebido para un prototipo de internet de las cosas, prototipo el cual tuvo una gran cantidad de retos como: sensores, adecuación de señal, optimización de consumo, carga solar, tiempo de autonomía. El sistema todavía tiene características mejorables, como la adición de programación mediante el aire (OTA por sus siglas en inglés) y la adición de conector JTAG para realizar debugging, independientemente de los cambios adicionales, el sistema en un su primera versión es un ejemplo de la realización de un proyecto de IoT con valor comercial.  
Cordova Chaides Adán Alberto, Universidad de Sonora
Asesor: Dr. Daniel Sánchez Martínez, Universidad Autónoma de Nuevo León

DESARROLLO DE MATERIALES, COMPOSITES PARA LA DEGRADACIóN FOTOCATALíTICA DE ACETAMINOFéN.


DESARROLLO DE MATERIALES, COMPOSITES PARA LA DEGRADACIóN FOTOCATALíTICA DE ACETAMINOFéN.

Cordova Chaides Adán Alberto, Universidad de Sonora. Asesor: Dr. Daniel Sánchez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Recientemente, la descarga de contaminantes orgánicos emergentes en ecosistemas acuáticos se ha intensificado, ocasionando una amenaza para el ambiente, presentándose efectos tales como la toxicidad en los organismos, un aumento en la pérdida de biodiversidad y amenazas para la salud humana. Entre estos contaminantes se encuentran los productos farmacéuticos y debido a su uso desmedido por la sociedad se han detectado en los ecosistemas acuáticos y terrestres. Por lo tanto, en el presente trabajo se realizó un estudio para la degradación fotocatalítica de paracetamol, el cual es uno de los fármacos más empelados por la sociedad sin prescripción médica. El Paracetamol (acetaminofén) es un analgésico, antipirético seguro y eficaz. Entre los efectos tóxicos se presenta hepatoxicidad con dosis de 325 mg que también pueden afectar los riñones, corazón y Sistema Nervioso Central. De igual manera una sobredosis en el embarazo provoca nacimientos prematuros y/o abortos.  Una técnica frecuentemente utilizada en la actualidad es la fotocatálisis heterogénea, ya que ha demostrado ser una potente arma para la degradación de contaminantes emergentes y de colorantes. Dicha técnica requiere de un fotocatalizador (semiconductor)  que se activa al recibir radiación en una determinada longitud de onda, para que los electrones de la banda de valencia pasen a la banda de conducción y ahí reaccionan  con sustancias en el medio para el radical hidroxilo (OH°), superoxidos (O-°) entre otras especies oxidantes para lograr degrada la molécula orgánica contaminante. Recientemente, el g-C3N4 se ha convertido en uno de los mejores fotocatalizadores con los que se cuenta, debido a su buena eficiencia, alta estabilidad fisicoquímica y bajo costo. Se busca encontrar la mejor relación del composite mezclando g-C3N4 con óxidos simples, tales como Sb2O3 y Nb2O5, para poder catapultar las propiedades de cada uno y tener un mayor porcentaje de degradación.  



METODOLOGÍA

Para obtener g-C3N4 se calcino una cierta cantidad de Melamina (C3H6N6) a 550°C por 4.5 h con una velocidad de calentamiento de  25°C/min. Una vez obtenido el g-C3N4 se hicieron los composites. Para el caso de Sb2O3, se mezcló físicamente con g-C3N4 en un mortero de ágata en proporciones 95:5, 80:20, 60:40, 50:50, 40:60, 20:80, ambos en porcentaje en peso (g-C3N4 /Sb2O3), durante una molienda de 10 minutos, utilizando como solvente etanol.En el caso de utilizar el Nb2O5 para formar los composites con el nitruro, también se, también se mezcló físicamente con el g-C3N4 en un mortero de ágata en las proporciones siguientes: 97:3, 95:5, 90:10, 80:20, 60:40, ambos en porcentaje en peso (g-C3N4/Nb2O5) El reactor fotoquímico empleado en este trabajo consiste en un vaso de vidrio rodeado por una corriente de agua para mantener la temperatura en 25 °C ± 1°C. Una lámpara 35W Xe de 6000 K con un flujo luminoso de 35000 lux fue utilizado para simular la radiación solar. La fotoactividad del g-C3N4, Nb2O5, Sb2O3 y los composites fueron evaluados en la degradación de la molécula orgánica acetaminofén en soluciones acuosas, con una concentración de 15 mg.L-1. La prueba fotocatalítica se realizó de la siguiente manera: se añadió 100 mg del fotocatalizador en 100 ml de la solución que contiene el compuesto orgánico, después se trasladó a un vaso de vidrio donde se sometió a ultrasonido durante 1 minuto para tener una mejor agitación y homogenización. Posteriormente, la solución fue transferida al reactor fotocatalítico. La solución permaneció 1 h en la oscuridad para asegurar el equilibrio adsorción-desorción del compuesto orgánico sobre la superficie del fotocatalizador. Después de este tiempo, la lámpara fue encendida. Durante la reacción, alícuotas de la solución fueron tomadas para monitorear la degradación del compuesto durante 4 h y lapsos de 30 minutos. Los polvos fueron separados de la solución por centrifugación y la solución filtrada fue evaluada en el espectrofotómetro UV-vis. Este procedimiento se siguió para g-C3N4, Nb2O5, Sb2O3 y los composites realizados entre ellos. Para complementar el trabajo, se optó por hacer películas de g-C3N4 por método de Screen-printing. Primeramente,consistía en crear pastas utilizando diferentes solventes para verificar cual tenia mejor adherencia al sustrato Luego de obtener todos los materiales estos fueron caracterizados mediante Difracción de rayos-X. Los patrones de difracción de rayos X de las muestras fueron recolectados en un rango de 2θ de 10-70° con una tasa de escaneo de 0.05°S-1. Los análisis de morfología y de tamaño de partícula de las muestras fueron investigadas por SEM. La energía de banda prohibida (Eg) se determinó por medio de UV-Vis a partir de los espectros de reflectancia difusa de las muestras de g-C3N4, Sb2O3, Nb2O5. El band gap se obtuvo utilizando la siguiente ecuación: Eg=1240/λg donde λg es la longitud de onda de la luz de excitación. La superficie de área BET de los fueron determinados a través de la técnica de fisisorción de N2 mediante el método BET utilizando un equipo BELSOR MINI II JAPAN.


CONCLUSIONES

Durante la estancia en el verano de investigación en el instituto de ingeniería civil de la universidad autónoma de nuevo león se adquirieron conocimientos teóricos acerca de las propiedades y características de los fotocatalizadores utilizados en esta investigación, así como conocimientos prácticos. Se lograron prepara diversos composites variando la relacione en función de los siguientes materiales g-C3N4/Sb2O3 y g-C3N4/Nb2O5. En donde los composites a partir de  g-C3N4/Sb2O3, ninguno tubo la capacidad para superar la degradación del g-C3N4 puro. Por otro lado, si utilizamos las mezclas entre g-C3N4 y Nb2O5, en este caso el composite g-C3N4 /Nb2O5 (90:10 %Wt) supero ligeramente a la fotoactividad del g-C3N4 puro, arrojando un valor de aproximadamente 80%. Además, se concluyó que los factores que afectan en la eficiencia de la fotocatálisis son: bajo Band gap, homogeneidad y morfología, tamaño de partícula en escala nanométrica, elevada área superficial, entre otros.
Córdova Cruz Viridiana Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Victor Hugo Cruz Escalona, Instituto Politécnico Nacional

PRUEBAS CUALITATIVAS PARA IDENTIFICAR EL POTENCIAL FARMACéUTICO DE DISTAPLIA STYLIFERA


PRUEBAS CUALITATIVAS PARA IDENTIFICAR EL POTENCIAL FARMACéUTICO DE DISTAPLIA STYLIFERA

Córdova Cruz Viridiana Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Victor Hugo Cruz Escalona, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los organismos marinos presentan un gran potencial como fuente de moléculas activas con aplicaciones terapéuticas en el campo de investigaciones farmacéuticas. En las costas de Baja California Sur, existe una gran biodiversidad y son pocos los estudios realizados que aborden la búsqueda de moléculas activas con potencial biotecnológico. El objetivo de este trabajo fue evaluar la actividad antibacteriana, hemolítica y antioxidante del tunicado Distaplia stylifera recolectada de La Laguna de La Paz B. C. S., México, con la finalidad de identificar su potencial bioactivo.



METODOLOGÍA

Para realizar las diferentes pruebas, se realizaron extracciones con diferentes disolventes del organismo de interés. Los extractos obtenidos por maceración se hicieron de dos formas, la primera fue una extracción secuencial en gradiente de polaridad utilizándose diclorometano>acetona>metanol. La segunda se hizo con dos diferentes disolventes: Acetona y Metanol. Además de usar uno de referencia, obtenido previamente con etanol, dando lugar a un total de 6 extractos.  La prueba de actividad hemolítica se llevó a cabo usando sensidiscos impregnados de cada uno de los extractos a una concentración de 2 mg*disco en Agar sangre por medio del método de difusión en Agar. El agar sangre es una combinación de un agar base con el agregado de 5-10 % de sangre ovina o sangre humana. En este caso, se utilizó para observar la capacidad que poseen los compuestos de cada uno de los extractos obtenidos para realizar ruptura de células sanguíneas y manifestar la presencia de compuestos del tipo de las saponinas. Las placas se dejaron incubar por 47 horas a 37ºC para posteriormente observar halos de lísis. Para determinar la actividad antibacteriana, se utilizó el método de difusión en Agar que permite determinar la sensibilidad bateriana frente a los compuestos que poseen cada uno de los extractos, usando sensidiscos en Agar Mueller Hinton (con y sin NaCl) contra 3 diferentes cepas: Staphylococcus aureus, Vibrio parahaemolyticus y Candida albicans. El tiempo de incubación fue de 24 horas a 30-35 ºC. Por último, para la identificación de actividad antioxidante se utilizó la técnica de DPPH (2,2-difenil-1-picrilhidracilo) por medio del método bioautográfico que es un proceso cromatográfico con el cual se logran separar compuestos. Para esto, se utilizaron 6 placas cromatográficas en capa fina, de las cuales, cada una se impregnó con los diferentes extractos, se colocaron dentro de cámaras de elución, cada una en una solución del 90:10 de diclorometano y metanol.  Antes de que el frente del disolvente llegue al otro extremo de la placa, ésta se saca de la cámara, se deja evaporar el disolvente, para finalmente revelar cada una con DPPH, seguidamente se colocan en un lugar oscuro y seco por un par de minutos para posteriormente observar los resultados.  


CONCLUSIONES

Los resultados obtenidos de las pruebas correspondientes, nos permiten observar que los extractos de Distaplia stylifera posee actividad antibacteriana y antifúngica, adicionalmente a la actividad antioxidante, lo que nos permite concluir que es un organismo con muy alto potencial para  la obtención de productos farmacéuticos. 
Coria Diaz Marco Antonio, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

ANÁLISIS DEL PROCESO DE MOLDEO MEDIANTE LA METODOLOGÍA DMAIC CON ENFOQUE EN MANUFACTURA ESBELTA.


ANÁLISIS DEL PROCESO DE MOLDEO MEDIANTE LA METODOLOGÍA DMAIC CON ENFOQUE EN MANUFACTURA ESBELTA.

Coria Diaz Marco Antonio, Instituto Tecnológico Superior de Apatzingán. Guzmán López Jennifer Vanessa, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el proceso de moldeo de la empresa Artifibras S. A. de C. V., se tiene la necesidad de conocer los elementos que disminuyen el grado de operatividad en las líneas de producción, por otra parte, se han presentado errores de calidad, reprocesos, flujo de información ineficiente, tiempos muertos y entregas tardías de producto terminado y en proceso.



METODOLOGÍA

Este proyecto se realiza con la finalidad de atacar los principales problemas que tiene el proceso de moldeo de la empresa ARTIFIBRAS S.A. DE C.V. mediante la implementación de la metodología DMAIC con la aplicación de una serie de herramientas pertenecientes a Lean Manufacturing. DMAIC: Es una metodología de calidad basada en herramientas estadísticas. Cada paso en la metodología se enfoca en obtener los mejores resultados posibles para minimizar la posibilidad de error. Está conformada por las siguientes fases o etapas: Definir, Medir, Analizar, Improve (Mejorar) y Controlar. Para la implementación de la metodología DMAIC se utilizó una herramienta específica de Lean Manufacturing en cada etapa o fase: Definir - Mapa de procesos (Análisis SIPOC) Medir - Diagrama de Pareto Analizar - AMEF Improve (Mejorar) - Kaizen Controlar - Estandarización de procesos


CONCLUSIONES

En esta estancia de verano logramos obtener conocimientos teóricos de índole industrial, como lo son las distintas herramientas pertenecientes a la filosofía Lean Manufacturing (Mapas de procesos, Benchmarking, diagrama de Pareto, filosofía Kaizen, 5 S´s, AMEF, pruebas de hipótesis, estandarización de procesos, entre otras…) Como ya se mencionó anteriormente 5 de estas herramientas fueron aplicadas de manera práctica dentro de la metodología DMAIC. A continuación se presenta a grandes rasgos lo que se encontró con cada una de las herramientas utilizadas en cada fase: En la primera fase con la ayuda del Análisis SIPOC, se logró definir el alcance y las metas del proyecto de mejora, además de permitirnos conocer a fondo el proceso de moldeo. En la segunda fase se realizó la caracterización de cada uno de los procesos productivos y se registró información importante a través de 2 formatos utilizados en la recolección de datos (Análisis del proceso de molde y Entrevista al personal), también se utilizó el diagrama de Pareto con la finalidad de medir y separar gráficamente los aspectos significativos de un problema. En la tercera fase se determinaron las potenciales causas raíz de los problemas detectados con la elaboración del AMEF de proceso. En la cuarta fase se utilizó la filosofía Kaizen, con ella se logró proyectar sugerencias o propuestas de mejora para solucionar las causas raíz de los distintos problemas que tiene la empresa. Para la quinta y última fase se identificó la documentación del sistema de calidad a ser modificado con las mejoras propuestas y que así pueda quedar estandarizado el método de trabajo. También se sugirieron ideas de rediseño, corrección o actualización de los instructivos que se usan para realizar las distintas operaciones del proceso de moldeo. Esperamos que las propuestas de mejora para la empresa tengan resultados satisfactorios en el futuro, ya que es un trabajo extenso que requiere de la aprobación de los directivos de la empresa para poder llevar a cabo las propuestas y con ello obtener resultados.
Corona Islas Erick Román, Instituto Tecnológico de Pachuca
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

PROPIEDADES MECáNICAS DE UN MATERIAL COMPUESTO PLA/CNC


PROPIEDADES MECáNICAS DE UN MATERIAL COMPUESTO PLA/CNC

Corona Islas Erick Román, Instituto Tecnológico de Pachuca. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

          En los últimos años los polímeros se han convertido en una necesidad en el día a día para cada uno de nosotros, con esto, la demanda de producción de polímeros derivados del petróleo a aumentando considerablemente gracias a la densa población que existe actualmente, que al término de su uso acaban en áreas naturales afectando a la vida silvestre de la región, esto repercute aún más porque son de difícil degradación (alrededor de 500 años o más).           Actualmente, los polímeros han ocasionado un impacto social y ambiental generando aspectos positivos, planteándonos cada uno de nosotros, ¿Qué tanta necesidad existe para seguir utilizando plástico en nuestras vidas?           De esta forma, una alternativa viable y amigable con el medio ambiente al uso de polímeros extraídos del petróleo es el PLA (ácido poliláctico), sin embargo, las propiedades mecánicas de este no se pueden comparar con otros polímeros de uso común, es por eso que se busca mejorar sus propiedades mecánicas sin afectar su biodegradabilidad.



METODOLOGÍA

          Se utilizó como reforzante CNC (celulosa nanocristalina) de bagazo de agave azul (Agave Tequilana Weber) en una matriz polimérica de PLA 3251D, realizando una mezcla mecánica manual a concentraciones de 0%, 0.5% y 1% (W/W).           Anterior a esto se realizó una capacitación a través de un curso en seguridad e higiene en el laboratorio, así mismo también, en el manejo y manipulación de maquinaria y reactivos en el laboratorio. Posterior a esto, se procedió a moler la materia prima (PLA) en un molino Retsch ZM 200 a 12,000 rpm para después proceder al secado del mismo, así como de la CNC en una estufa de laboratorio a 50 °C por un mínimo de 24 horas antes de pasar al siguiente paso.           Transcurrido el tiempo de secado, las placas se formaron por termocompresión a 2500 psi y 180 °C durante media hora en una termo prensa hidráulica, con un enfriamiento a convección natural durante 15 minutos. Posteriormente se cortaron probetas de tipo IV (ASTM D638) con ayuda de una cortadora laser. Finalmente, las pruebas a tracción se realizaron en una máquina universal de ensayos mecánicos INSTRON 3345, para ello primero se tuvo que medir las dimensiones de cada probeta (anchura, espesor) con un vernier digital. Los datos arrojados por el equipo fueron analizados en el software Origin 8.


CONCLUSIONES

          Se logró adquirir conocimientos prácticos en el área de procesamiento de polímeros, así como en la seguridad y manipulación de maquinaria principalmente, dentro de un laboratorio industrial, alcanzando un conocimiento teórico de las propiedades mecánicas de polímeros y aplicado a los materiales compuestos de PLA/CNC que se procesó.           Obteniendo un resultado negativo entre la mezcla de PLA y CNC, ya que dichas propiedades mecánicas del PLA disminuyeron al ser mezclado con el reforzante; como ejemplo, el módulo de Young disminuyó 1.41% al mezclar 0.5% de CNC y 23.55% al mezclar 1% de CNC; la energía a rotura disminuyó 72.73% con 0.5% y 81.81% con 1% de CNC; por su parte, el esfuerzo tracciónal máximo de carga disminuyó 51.86% con 0.5% y 75.79% con 1% de CNC.           De acuerdo a lo señalado y los resultados demostrados, la celulosa nanocristalina de bagazo de agave azul tiende a bajar las propiedades mecánicas en la obtención de un biopolímero a base de PLA, por lo que no resulta apto en el uso comercial dentro de la industria polimérica, no obstante, no se descarta volver a repetir el proceso modificando algunos parámetros en la etapa de formación de placas esperando resultados favorables.
Corona Madrigal José Francisco, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan

LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA


LÁMINAS DE YESO CON FIBRAS NATURALES COMO SUSTITUTO DE TABLAROCA

Aguilar Pacheco Perla Lizbeth, Instituto Tecnológico Superior de Uruapan. Arroyo Campos Indhira Sayani, Instituto Tecnológico Superior de Uruapan. Corona Madrigal José Francisco, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. José Eduardo Elizondo Barrientos, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La Tablaroca consiste en una placa de yeso laminado entre dos capas de cartón, el sistema de ensamblado de una tablaroca (muro) consiste en canales de aluminio sirven como base o marcos del sistema; posteriormente la placa de yeso es atornillada en una de las caras del muro sobre las bases y postes metálicos, una vez teniendo una cara del muro se coloca el aislante de fibra de vidrio (colchoneta), finalmente se coloca la otra cara del muro. Este sistema presenta múltiples ventajas, algunas de ellas son: aislante térmico; aislante acústico; ligero, entre otras. Es un sistema con gran demanda en la construcción como muros divisorios. Tal como lo indica la Secretaria de Economía de la República Mexicana, en nuestro país se extraen anualmente 3.6 toneladas de yeso, de las cuales 3.2 toneladas son utilizadas en el ámbito de la construcción, de las cuales se producen aglomerantes y paneles de yeso. Por tanto, con esta investigación se busca sustituir la fibra de vidrio (colchoneta) por fibras naturales (fibra de hoja de pino) integrado en las láminas de yeso, ya que si la fibra de vidrio se encuentra en perfecto estado no representa riesgos para la salud; pero cuando su integridad se ve perturbada por la humedad o algún agente externo que deteriore su estructura, las fibras de vidrio se fraccionan en pequeñas partículas y este desprendimiento provoca una contaminación al ambiente, es decir se mantienen en suspensión por un periodo prolongado causando irritación en los ojos, molestias de irritación del tracto respiratorio superior (nariz, boca y garganta) entre otras, a diferencia de las fibras naturales (fibra de hoja de pino) puesto que este material es biodegradable y así mismo evitar posibles daños de salud, pero sin dejar de lado las ventajas de un muro de tablaroca.



METODOLOGÍA

Se realizaron 9 muestras en moldes hechos en bases de madera de 30.5 cm x 30.5 cm con un espesor de ½, se utiliza como desmoldante aceite para motor para que la extracción de las muestras sea más sencilla y evitar que estás sufran algún daño y además para que los moldes puedan ser reutilizados. Se requiere cortar las fibras de hoja de pino (huinomu)  a 2 de largo. Las mezclas se dosificaron con distintos porcentajes de fibras al  2%, 3% y 5% en yeso con un porcentaje de agua al 75%;  . Una vez hecha la mezcla de los materiales se vierte en el molde se le da un acabado lo más posible liso y se lleva a un lugar seco donde se dejará fraguar, posteriormente se curarán estas muestras. Las muestras cumplirán el tiempo necesario después de 26 días esto con el fin de alcanzar su máxima resistencia.   Ya terminadas las muestras, se corta una parte de una Tablaroca con las mismas dimensiones de estás y son llevadas al laboratorio para realizar las pruebas térmicas, después de esta prueba de deben cortar las muestras y el fragmento de Tablaroca en círculos de distintos diámetros para realizar la prueba de sonoridad.


CONCLUSIONES

Se puede concluir que las muestras hechas durante la estancia superaron las expectativas esperadas; pues nuestras muestras superaron el porcentaje óptimo de conductividad térmica de 0.13 variando de 0.15 a 0.18, sin embargo estas resultaron ser más pesadas, por tanto se mejoró la mezcla agregando un material más; baba de nopal esto con el fin de generar burbujas o huecos de aire en las láminas, lamentablemente los resultados no se pueden dar a conocer ya que estas últimas muestras están en proceso de curado.
Corona Verdugo Roberto, Universidad Autónoma de Baja California
Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México

SUSTENTABILIDAD Y ADAPTACION DE LA ARQUITECTURA ANTE EL CAMBIO CLIMATICO, PROSPECTIVA PARA MEXICO.


SUSTENTABILIDAD Y ADAPTACION DE LA ARQUITECTURA ANTE EL CAMBIO CLIMATICO, PROSPECTIVA PARA MEXICO.

Corona Verdugo Roberto, Universidad Autónoma de Baja California. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

A través de los años se han presentado grandes problemáticas climáticas generadas principalmente por la contaminación que el humano ha propiciado al planeta, una de las principales y más notables en estos últimos años es el cambio climático causado por las emisiones de gases de efecto invernadero (GEI), el cual se ha encargado de modificar las distintas regiones de una manera drástica, lo cual se considera debe de ser un motivo de estudio prospectivo. Por lo anterior, el objetivo principal y fundamental de esta investigación es conocer los niveles de confort higrotérmico y las estrategias de diseño genéricas a aplicar en la arquitectura para futuros escenarios (2050 y 2100), teniendo en cuenta la repercusión del cambio climático. Teniendo el caso de estudio centrado en la ciudad de Mexicali, Baja California con el clima cálido-seco, abarcando el 28.3% del territorio nacional. Con el fin de cumplir este objetivo se ha desarrollado una metodología que recolecta datos climatológicos actuales (1981-2010) de la Ciudad de Mexicali baja California, como la temperatura promedio, máxima y mínima mensuales, y temperatura media, también los datos climatológicos de precipitación, para posteriormente pasar a la obtención de escenarios climáticos tomando los archivos climáticos disponibles Energy Plus Weather (EPW), provenientes del Climate.OneBuilding. Las predicciones se han realizado considerando la idoneidad del modelo 3 HadCM3, que contempla la combinación de las pautas A2a, A2b y A2c. Mediante el programa CCWorldWeatherGen, basado en los estudios de Belcher, Hacker y Powell (2005)



METODOLOGÍA

El objetivo principal y fundamental de esta investigación es conocer los niveles de confort higrotérmico y las estrategias de diseño genéricas a aplicar en la arquitectura para futuros escenarios (2050 y 2080), teniendo en cuenta la repercusión del cambio climático. Teniendo el caso de estudio centrado en el clima de Mexicali, Baja California con el clima cálido-seco, abarcando el 28.3% del territorio nacional. Con el fin de cumplir este objetivo se ha desarrollado la siguiente metodología:   Recolección de los datos climatológicos actuales (1981-2010) de la Ciudad de Mexicali baja California, como la temperatura promedio, máxima y mínima mensuales, y temperatura media, también los datos climatológicos de precipitación. Estos datos se recolectaron de la información climatológica por estado que brinda el gobierno del Mexico. (https://smn.cna.gob.mx/es/informacion-climatologica-por-estado?estado=bc)  Obtención de escenarios climáticos tomando los archivos climáticos disponibles Energy Plus Weather (EPW), para la ciudad de Mexicali Baja California, provenientes del Climate.OneBuilding. Las predicciones se han realizado considerando la idoneidad del modelo 3 HadCM3, que contempla la combinación de las pautas A2a, A2b y A2c. Mediante el programa CCWorldWeatherGen, basado en los estudios de Belcher, Hacker y Powell (2005), para posteriormente ser comparados con los escenarios arrojados a través de Meteonorm, un software que consta con más de 8,000 estaciones meteorológicas, cinco satélites geoestacionarios y una climatología de aerosol calibrada globalmente el cual tiene algoritmos para simular años extremos, por ejemplo, para la evaluación de límites de diseño, simular el cambio climático según los escenarios del IPCC. Esto, para generar escenarios prospectivos más exactos. HadCM3 es un modelo de circulación general acoplado atmósfera-océano (Nivel del mar) desarrollado en el Hadley Center en el Reino Unido. Fue uno de los principales modelos utilizados en el Tercer Informe de Evaluación del IPCC en 2001. Las simulaciones que genera este modelo usan un calendario de 360 ​​días, donde cada mes es de 30 días. Un modelo de circulación general (GCM) es un tipo de modelo climático. Emplea un modelo matemático de la circulación general de una atmósfera planetaria u océano. Utiliza las ecuaciones de Navier-Stokes en una esfera giratoria con términos termodinámicos para varias fuentes de energía (radiación, calor latente). Estas ecuaciones son la base de los programas de computadora utilizados para simular los escenarios prospectivos de la atmósfera o los océanos de la Tierra.   Se analizaron los datos climáticos con un modelo de gráficas y tablas que reportan los diferentes datos comparando el clima actual con los escenarios prospectivos basado en datos mensuales. Para conocer la evaluación de la temperatura horaria se dispuso con dos datos mensuales: la máxima y la mínima media. Es posible determinar aproximadamente esta evolución horaria a partir de los dos datos mensuales mencionados anteriormente, con la ayuda del nomograma propuesto por M Evans en 1980. Se realiza un estudio del bioclima para obtener los diagramas de isorrequerimientos de los tres casos o periodos de tiempo y se identifican los efectos en las condiciones de confort, comparando los diagramas. Se analiza también los requerimientos del control solar a través de graficas solares equidistantes divididas en dos semestres para la obtención del aumento solar prospectivo. Definir y recomendar estrategias pasivas adaptables esenciales para la arquitectura futura respecto a los resultados de los escenarios prospectivos en base al cambio climático de los años 2050 y 2100.     


CONCLUSIONES

Resultados del analizis del clima calidos - seco actual y prospectivo (años 2050 y 2100) de la ciudad de Mexicali Baja California. Estrategias pasivas de adapatacion y sustentabilidad en base a los resultados del analiziz del clima anteriormente especificado, actual y prospectivos. 
Coronado Barrios Felipe Aarón Guadalupe, Universidad de Guadalajara
Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora

CHABAZITA SONORENSE EN LA REMOCIÓN DE NEGRO DE ERIOCROMO T EN AGUA


CHABAZITA SONORENSE EN LA REMOCIÓN DE NEGRO DE ERIOCROMO T EN AGUA

Coronado Barrios Felipe Aarón Guadalupe, Universidad de Guadalajara. Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Una de las  industrias manufactureras que influyen altamente en el PIB local, es la textil. De este tipo específico de industrias se genera uno de los peores y más grandes contaminantes del estado, los tintes orgánicos.Los tintes orgánicos son ampliamente utilizados en varios campos e inducen seriamente la contaminación del agua.  La mayoría de los tintes industriales son tóxicos, carcinógenos y teratógenos.  Además, son muy estables a la luz, la temperatura y el ataque microbiano, lo que los hace compuestos recalcitrantes. El mercado universal utiliza aproximadamente el 70% de los tintes industriales que están compuestos por tintes azoicos que tienen uno o más enlaces azo.(-N=N-). Uno de los colorantes más utilizados en este tipo de industrias es el NEGRO DE ERIOCROMO-T que se utiliza para teñir multifibras de seda, lana y nailon después del tratamiento previo con sales de cromo. El EBT puro también se usa como un indicador en las valoraciones complexométricas para la determinación de iones Ca 2, Mg 2+ y Zn 2+ y para la tinción biológica. Este tinte es peligroso como tal y sus productos de degradación como la naftaquinona son aún más cancerígenos.  Debido a la situación medioambiental que este tipo de colorantes presenta, científicos sonorenses han optado por buscar una solución satisfactoria para su tratamiento. Anteriormente se realizarón tratamientos específicos con otro tipo de colorantes de la familia AZO, como lo fue el azul de metilo o al igual con metales pesado inmersos en el agua. Un tratamiento óptimo para dicha familia de colorantes, es con la zeolita sonorense especialmente el  tipo, chabasita.  



METODOLOGÍA

Recolección de materia prima, extraída del municipio de Divisaderos -Sonora Trituración de materia prima hasta 100 mallas de tamaño. Posterior lavado. (ZN) Preparación de la solución de colorante a 10 ppm. Tratamiento de la zeolita natural con un solución KOH y acetato de zinc..Posterior tratamiento térmico. (ZT) Se hace reaccionar  ZN  y ZT con la solución de colorante. Tomando alícuotas cada 30 minutos a lo largo de 3 horas. Después de la remoción se realiza el secado de zeolita. Caracterización de los materiales obtenidos, mediante las técnicas de Infrarrojo por transformada de Fourier, UV visible y microscopio electrónico de barrido.


CONCLUSIONES

La zeolita es una opción viable para el tratamiento de este tipo de contaminantes  ya que al ser un material natural dentro de la zona geográfica que concierne al estado de Sonora se puede utilizar para esta problemática ambiental. Es necesario el conocimiento total de todas y cada una de las variables que puede tener una muestra a tratar, se espera que en un futuro la chabazita forme parte de un sistema de tratamiento de aguas completo, utilizando al 100% sus propiedades, ya que la ZT llega a alcanzar hasta un 90% en la remoción de este tipo de colorante.
Coronado Cortés Karen Guadalupe, Universidad Politécnica de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

DISEÑO DE UN AEROGENERADOR DIDÁCTICO PARA MICROGENERACIÓN


DISEÑO DE UN AEROGENERADOR DIDÁCTICO PARA MICROGENERACIÓN

Coronado Cortés Karen Guadalupe, Universidad Politécnica de Sinaloa. Osuna Valenzuela Valeria, Universidad Politécnica de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La importancia del desarrollo tecnológico en cuanto a las energías renovables es innegable. Cada vez los requerimientos de energía eléctrica van en aumento y las formas tradicionales de obtención de energía se convierten al paso del tiempo en recursos insustentables. Cada vez son más los países que apuestan hacia la visión de una generación de energía más sostenible, y esto es posible gracias al desarrollo de conocimientos y programas que promueven la importancia de un desarrollo tecnológico cada día más avanzado. La mayor problemática en las universidades es que no cuentan con el equipo necesario para aplicar los conocimientos teóricos, es por ello que el presente proyecto tiene como objetivo principal la implementación de un perfil aerodinámico en el diseño de una turbina de un micro-aerogenerador didáctico, con el cual alumnos del Programa Académico de Ingeniería en Energía de la Universidad Politécnica de Sinaloa puedan comprender y analizar el funcionamiento de los microgeneradores, tomando en cuenta la importancia tanto del perfil aerodinámico como del diseño mecánico, para tener una generación de energía óptima de acuerdo a las características del recurso eólico con el que se cuenta en cada región, solidificando así los conocimientos que se tienen acerca de este tipo de generación eléctrica.



METODOLOGÍA

Primeramente, se realiza una revisión bibliográfica de los múltiples perfiles aerodinámicos que existen y de acuerdo a los coeficientes de sustentación y arrastre se elige el perfil de la National Advisory Commitee for Aeronautics NACA 4412, para el diseño del microaerogenerador, debido a que las velocidades de arranque requeridas para este perfil es de velocidades de viento bajas, lo que significa que se puede aprovechar la baja velocidad de viento característica de la región en el arranque de la turbina eólica. Se toman como referencia los datos de la estación meteorológica de la UNAM, misma que se encuentra instalada a 20 m de altura frente al mar. A partir de esta altura se extrapola la velocidad del viento a una altura deseada en base de la ley potencial o ecuación de escalamiento de Hellman, con el propósito de captar la energía cinética del viento con el mayor aprovechamiento. Se modelan los distintos componentes del prototipo con los datos del perfil aerodinámico correspondiente en Solidworks. El ángulo de ataque se considera debido a que su importancia relevante en relación con la velocidad relativa del viento y la cuerda de la superficie de sustentación de la pala. Del mismo modo, el ángulo de inclinación se obtiene entre la cuerda y la velocidad del viento que origina el giro del rotor. Posteriormente, se imprimen los modelos en una impresora 3D, de tal manera que se pueda representar el prototipo a escala y así, hacer pruebas en el túnel de viento para conocer la velocidad desarrollada por la aerodinámica de la turbina, lo que permitirá validar la necesidad de implementar un sistema de transmisión acoplado a la misma y al generador.  


CONCLUSIONES

El alcance del presente proyecto es desarrollar un prototipo basado en las condiciones de recurso eólico de Mazatlán, Sinaloa, donde el perfil aerodinámico implementado presenta un mayor coeficiente de sustentación en comparación a otros perfiles, lo que permite a la turbina funcionar con velocidades de viento bajas. Este prototipo impreso en 3D, permite al alumnado de comprobar de forma experimental los fundamentos teóricos de este tipo de sistemas de generación de energía eléctrica. Durante este verano científico se lograron comprender algunos de los conocimientos teóricos adquiridos al ponerlos en práctica con el prototipo. Por lo tanto, una vez que esté terminado el prototipo se harán pruebas con el túnel de viento, para que los alumnos puedan tener una noción más amplia del tema y de la misma manera, apliquen sus conocimientos de generación eólica.
Corral Valdez Jesus Giovanni, Universidad de Sonora
Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma del Carmen

DISEñO, DESARROLLO E INTEGRACIóN DE UN BUSCADOR CON REPORTES EN UN SISTEMA WEB.


DISEñO, DESARROLLO E INTEGRACIóN DE UN BUSCADOR CON REPORTES EN UN SISTEMA WEB.

Corral Valdez Jesus Giovanni, Universidad de Sonora. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma del Carmen



PLANTEAMIENTO DEL PROBLEMA

Las universidades dentro de su personal cuentan con docentes e investigadores, que además de dar clases también se encargan de realizar investigaciones científicas y tecnológicas. Por eso mismo, cualquier universidad debería de tener una plataforma donde pueda todo investigador pueda registrar estos proyectos y el encargado de ello pueda administrar y gestionar. Por lo dicho anteriormente, la Universidad Autónoma del Carmen (UNACAR) pondrá en uso una aplicación web donde se pueda registrar proyectos y un administrador pueda hacer una búsqueda con diversos filtros para encontrar una lista de proyectos que cumplan con criterios de búsqueda específicos como: nombre de profesor, facultad donde se realiza el proyecto, Nivel TRL, etc.  El propósito del verano de investigación fue el de ayudar en el desarrollo de este sistema, un proyecto que será de obvia utilidad y es seguro que se utilizara en un futuro próximo. La parte del desarrollo en el que se hará énfasis es en el diseño e integración de un motor de búsqueda, el cual en primera instancia puede sonar sencillo pero cuenta con varios problemas iniciales. 



METODOLOGÍA

La metodología utilizada en este proyecto fue una propia de la ingeniería de software. Se empezó con la creación de diagramas de casos y la narrativa de estas. Estos diagramas de casos muestran hipotéticas acciones realizadas por el usuario que está utilizando la aplicación y las reacciones que tiene el sistema ante ellas, sirviendo como una manera de dar a ofrecer ejemplos sobre lo que podría realizar la aplicación al usuario final. Estos diagramas se le propusieron a la persona que será el administrador de la página, en los que el escogió los que le parecieron útiles y además solicitó otras funcionalidades. Después de la plática con el usuario, se deben de escoger las cosas que se creen posible diseñar e implementar en el tiempo que se tiene (en este caso, unas semanas). Analizando lo solicitado por el usuario se escogió iniciar el diseño de un buscador para los proyectos y profesores registrados en el sistema, pudiendo imprimir las listas mostradas por los criterios de búsqueda. Teniendo en mente que es lo que se va a desarrollar el siguiente paso es obtener las herramientas y conocimientos necesarios que hagan posible y faciliten el desarrollo e implementación del buscador. Los programas que se ocuparon descargar fueron: MySQL, Visual Studio Code y Anaconda Prompt. Con estos tres programas junto con los lenguajes de programación será posible manejar las bases de datos, archivos html y códigos Javascript, usando Python Flask para unir todo. Se creó una base de datos con tablas de usuarios y proyectos, metiéndole registros para hacer más rápido la prueba de la aplicación. Utilizando una herramienta de Javascript llamado "Datatables", la cual muestra dichos registros por medio de una llamada "Ajax" la cual llama a la base de datos y recopila los registros para mandarlo a la tabla de una forma rápida y sin tener que refrescar la página. Teniendo resuelto esto, lo que siguió fue investigar muchas maneras de cómo se podría desarrollar el buscador, el cual, a base de muchos intentos de prueba y error se pudo realizar satisfactoriamente, cada columna tenia asociada su cuadro de búsqueda en el que el usuario pudiera escoger los criterios de búsqueda que le parecieran correctos. Lo único que quedaba pendiente fue investigar cómo era posible exportar las listas filtradas a archivos de diversos formatos como PDF o Csv y se empezó su desarrollo. Después de varias semanas de diseño y desarrollo, se implementó todo lo que se había escogido al principio del proyecto, terminando correctamente el verano de investigación.


CONCLUSIONES

Durante esta estancia de verano, se logró adquirir conocimientos prácticos en el desarrollo de software, y también una sólida base teórica sobre los lenguajes de programación utilizados que en un principio eran desconocidos. Se termina la estancia con una grata satisfacción por que la aplicación que se ayudó a desarrollar será usada por mucho tiempo por una universidad importante como lo es la Universidad Autónoma del Carmen, que a mi parecer es la verdadera finalidad, desarrollar un proyecto que sea de utilidad.
Corrales José Alberto, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES


SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES

Corrales José Alberto, Universidad Politécnica del Mar y la Sierra. Milan Soto Elizeth, Universidad Politécnica del Mar y la Sierra. Santos Alcántara Karen, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En los cultivos agrícolas existe en gran variedad en cuanto a la producción de hortalizas en sus diferentes variedades, por lo que el requerimiento de empleados es mayor, dentro de la producción es requerido registrar la cantidad de cubetas que se cortan por empleado, en base a esto se puede registrar una cantidad mayor a la que se produce por día, ya que los registros realizados se hacen de manera manual lo que implica también que la seguridad sea vulnerable además de esto se desea implementar un lector de venas dactilares aumentando así la seguridad de los datos, se implementó este tipo de lector, ya que usar un lector de huella digital puede resultar un tanto complicado puesto que en los trabajadores del campo la huella puede estar dañada por el trabajo que se realiza, con el paso del tiempo las huellas se  van deteriorando y esto resulta ineficiente al registrar a los empleados cuando estos tengan que ser asignados a una cuadrilla de trabajo.



METODOLOGÍA

En el conteo de la producción de la empresa Sol y Arenas y Anthony se utilizó un sistema diseñado en el lenguaje de programación Java con el fin de realizar este proceso de conteo de una manera más gráfica que permita a el encargado manejar la formación de cuadrillas de trabajo dentro del cultivo, así mismo el sistema estará enlazado a una base de datos en MySQL en donde toda la información de los trabajadores estará almacenada dentro de ella para que de esta manera se pueda manejar de forma más rápida y eficiente evitando inconsistencias con la información. Todo este sistema estará apoyado por un lector de venas dactilares en donde los trabajadores deberán de registrar su asistencia al instante de formar las cuadrillas para que posteriormente se realice el conteo de producción que se haya recolectado durante un día, ya que esta información será requerida por el departamento de nóminas y que este pueda otorgar los salarios correspondientes a lo trabajado. Para la elaboración del sistema se requirió realizar una metodología exploratoria como descriptiva, se realiza de tipo exploratoria debido a que no existe un antecedente a el proyecto en cuestión, sino que se realizan las pertinentes investigaciones de campo con las personas que se encuentran a cargo con esto se pretende observar los fenómenos en cuanto a la formación de las cuadrillas para obtener resultado de acuerdo con lo que se haya observado y en base a esto se desarrolle el sistema con la información que será requerida. Además la metodología se realizó en base a prototipos basada en un diseño experimental del sistema que servirá para que los usuarios finales lo evalúen, el cliente podrá interactuar con el prototipo del sistema así puede darse una idea de los requerimientos que necesita. Mientras que la descriptiva se pretende formular una descripción de los factores a utilizar de acuerdo en la manera que se estén trabajando actualmente, la finalidad es buscar como especificar las propiedades que son relevantes para medir y evaluar los aspectos que conforman el proyecto, teniendo en cuenta la información que se obtuvo. El sistema pretende determinar el control de asistencia de los trabajadores en los días laborales para la formación de las cuadrillas para que la información generada pueda ser obtenida por el departamento de nóminas y que estos puedan determinar la producción que haya sido recolectada por cada trabajador. Además, con este sistema también se quiere aumentar la seguridad de la información manejada dentro de los cultivos y que solo el personal que esté a cargo de la empresa pueda hacer el uso de la información sin que terceros tengan el acceso a esta. Este sistema estará siendo desarrollado por la Universidad Politécnica Del Mar y La Sierra   la cual se implementara en los cultivos con los que cuenta la empresa Sol y Arenas y Anthony en los kilómetros 85 y 101 dentro del Estado de Sinaloa en el municipio de Elota, en ambos cultivos el sistema que está siendo diseñado tendrá la misma función, el sistema realizara el conteo de cubetas que ha sido recolectado por trabajador y por cuadrillas. El lector de venas dactilares a utilizar será de la marca Hitachi modelo H-1 contando con las siguientes características: Imposible falsificación: la lectura del patrón interno de las venas del dedo hace que sea prácticamente imposible de falsificar Precisión: lectura rápida y precisa. Rapidez: tiempo total de verificación 2 segundos Tamaño: reducido tamaño 59 x 82 x 74 mm. Diseño moderno: ideal para sobremesa Por estas características se eligió esta nueva tecnología para la seguridad de la información, ya que es imposible que alguien pueda duplicar el patrón de venas dactilares.


CONCLUSIONES

Durante la estancia de verano en la Universidad Politécnica del Mar y la Sierra se investigó lo referente al proyecto que se está desarrollando adquiriendo los conocimientos teóricos sobre el conteo de la producción en grandes cultivos utilizando nuevas tecnologías para posteriormente implementarlo dentro de los campos, debido a que el proyecto requiere de más elementos este aún se encuentra en un 80% de avance en cuanto a la programación siguiendo con la etapa de desarrollo, se han cumplido las primeras etapas del ciclo de vida las cuales son la planificación y análisis, faltando la etapas de implementación y pruebas, por ello no se pueden mostrar resultados exactos de lo que se pretende obtener.
Corrales Mendoza Luis Eduardo, Universidad Autónoma de Baja California
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE TéCNICAS DE DRL PARA ENTRENAMIENTO DE AGENTES VIRTUALES


EXPLORACIóN DE TéCNICAS DE DRL PARA ENTRENAMIENTO DE AGENTES VIRTUALES

Corrales Mendoza Luis Eduardo, Universidad Autónoma de Baja California. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial es actualmente uno de los temas de más tendencia en el mundo debido a su gran aporte esencial que ha hecho nuestras vidas más fáciles. Sin embargo, existen muchas personas que le temen a este avance debido a que no entienden cómo funciona. Por otro lado, existe gente que está interesada en investigar a fondo sobre este tema o al menos, conocer cómo funcionan. Este trabajo busca crear un manual explicado paso a paso dirigido para todas aquellas personas interesadas en saber cómo funciona el Deep Reinforcement Learning, uno de los tipos de aprendizaje automático basado en la experiencia que adquiere una máquina con castigos o recompensas.  



METODOLOGÍA

Para introducirnos en el Deep Reinforcement Learning primero tuvimos que familiarizarnos con el entorno de programación más ampliamente implementado por todos los profesionales, el cual es Python. Para esto recurrimos a ver un curso de lecturas proporcionado por el MIT, donde también realizamos varios ejercicios de prueba para reforzar las lecturas. Una vez dominado este lenguaje, empezamos a adentrarnos a uno de los tipos de aprendizaje del Machine Learning, el cual es el aprendizaje supervisado. Lo llamamos supervisado puesto que nosotros éramos quienes asignábamos los parámetros necesarios al algoritmo (datasets, .train, .fit) para que a través de redes neuronales aprendiera a reconocer dígitos y después nosotros corroborábamos si el resultado estaba bien o mal. Sin embargo, la meta de nosotros no era que la máquina aprendiera sin necesidad de nuestra supervisión, si no que ella aprendiera por si sola con base a su experiencia y recompensas que adquiere a lo largo de su comportamiento. Para implementar el DRL recurrimos a un curso de la universidad de Berkeley, dicho curso contaba tanto con conferencias y tareas, lo cual fue donde más nos enfocamos. Para realizar estas tareas tuvimos que instalar varias librerías y plataformas para correr nuestros modelos. En la primer tarea nuestro desafío era comparar el rendimiento de un agente que se encontraba en un determinado ambiente con diferentes tipos de aprendizaje por imitación. Dichos tipos de aprendizaje son definidos como políticas las cuales son las estrategias que tomaba el agente para saber cómo actuar en un estado específico. Estas políticas fueron: Behavioral Cloning, DAgger y Expert policy. Al obtener los resultados nos percatamos que el mejor rendimiento fue en la política de DAgger, el cual obtenía recompensas y aprendizaje más rápido respecto a los demás. Luego de esto avanzamos más en el DRL realizando otra tarea donde configuramos el gradiente de políticas para entornos tanto continuos como discretos y experimentamos con trucos de reducción de la varianza, incluyendo la implementación de redes neuronales y de recompensas para el futuro tanto positivas como negativas. La ejecución de esta tarea tuvo más duración que la otra debido a todas las iteraciones que asignamos al modelo para que tuviera resultados más precisos. Así mismo, tuvimos que hacer varias modificaciones en los códigos dado que estaban configurados para funcionar en otra plataforma. Al final de todo este proceso, realizamos un manual en inglés puesto que es el idioma más demandado en el mundo, donde explicamos todo el proceso desde los simples detalles para que los usuarios no tuvieran duda alguna al momento de realizarlo.  


CONCLUSIONES

Los resultados de los modelos que se obtuvieron desde los MNIST datasets hasta los de Deep Reinforcement Learning fueron acertados con las agregaciones que hicimos. En las gráficas pudimos observar como un agente cambia sus acciones a lo largo del tiempo en un diferente estado y cómo su aprendizaje se va incrementando y reforzando con las recompensas positivas y negativas que le asignamos al agente. Pudimos notar el gran cambio en el aprendizaje de un agente al asignarle diferentes políticas, lo cual consideré desde mi punto de vista uno de los factores más importantes al momento de querer implementar un aprendizaje profundo. Por otra parte, puedo decir que el aprendizaje automático sin duda puede facilitarnos la vida para ayudar a resolver nuestros problemas, lo único que queda en nuestra responsabilidad es hacer las preguntas adecuadas para que los resultados sean satisfactorios.
Correa Cruz Cristell Esperanza, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Daniel Parcero Martínez, Instituto Tecnológico Superior de Los Ríos

ESTUDIO TéCNICO.


ESTUDIO TéCNICO.

Correa Cruz Cristell Esperanza, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Daniel Parcero Martínez, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Cada vez mas las industrias deben satisfacer las necesidades cambiantes de los consumidores, pero a medida que van aumentando en complejidad las demandas, así también la competitividad entre las empresas, por ellos los procesos que se realizan entre las empresas de la región de los ríos deben ser actualizados conforme los sistemas de calidad y productividad, haciendo uso de formatos y sistemas informáticos que les permitirán tener un aumento en la calidad y productividad en las empresas. En la realización del proyecto se indago sobre las condiciones de la producción y transformación de la bixa orellana en la región de los ríos con el fin de optimizar los procesos.



METODOLOGÍA

Para recabar la información necesaria para conocer la condición de la producción de la Bixa Orellana, se aplicaron algunas herramientas de recolección de datos cualitativos como cuantitativos que fueron de gran utilidad. Se elaboraron encuestas y entrevistas personales a los propietarios y encargados de la producción de achiote, con la finalidad de conocer cómo trabajan intrínsicamente. La investigación de campo realizada con la finalidad de obtención de información y evidencias que los desperdicios que se generen de cualquier índole. Una vez identificados los problemas se selecciono la herramienta de mesa redonda, diagrama de Ishikawa y 5 porqués, con la finalidad de analizar las causas raíz que originan los problemas y así plantear alternativas de solución de mejora continua en el control y manejo de las empresas y sus procesos de producción.


CONCLUSIONES

Mediante la presente investigación se ha logrado recabar  información acercas de los procesos de transformación del achiote en la región de los ríos, así como el desempeño de sus actividades, con observación y análisis en la hora de producción, detectando el uso de técnicas tradicionales (conocimiento empírico), llevando así un control mas rudimentario y esto afecta relativamente la productividad de las empresas, por lo que es necesario realizar un proceso de mejora continua, con formatos y sistemas de medición que permitan el incremento de la productividad y la calidad.
Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Cortés Bárcenas Yareli, Universidad Autónoma de Guerrero
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

ALGORITMOS COEVOLUTIVOS CON SUBPOBLACIONES FIJAS Y MEJOR GLOBAL


ALGORITMOS COEVOLUTIVOS CON SUBPOBLACIONES FIJAS Y MEJOR GLOBAL

Cortés Bárcenas Yareli, Universidad Autónoma de Guerrero. García Magallón Luis, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los algoritmos evolutivos son métodos de optimización y búsqueda de soluciones inspirados en la evolución y la supervivencia del más apto. El algoritmo de Evolución Diferencial (DE por sus siglas en inglés) es uno de los algoritmos evolutivos más conocidos y ha demostrado ser eficiente ya que ha sido probado en varias competencias académicas y en problemas del mundo real. Se han creado diversas estrategias de mutación diferencial. En este trabajo de investigación se utilizaron las siguientes: - Mutación rand/1 (algoritmo DE original) - Mutación rand/2 - Mutación best /1 - Mutación best/2 Dichas estrategias de mutación son algunas de las más reportadas en la literatura y han demostrado ser eficientes. El presente trabajo pretende desarrollar un algoritmo coevolutivo a partir del algoritmo DE y las variantes expuestas aquí, con el fin comparar la eficiencia de este contra la de cada una de sus variantes individuales.



METODOLOGÍA

Se utilizó el algoritmo de Evolución Diferencial, así como las tres variantes del mismo para crear un nuevo algoritmo cuya principal característica es coevolucionar los mismos en un mismo proceso iterativo. Se crearon dos versiones de este programa: la primera comparte el mejor global con todos los algoritmos y en la segunda cada subpoblación determina su propio mejor individuo para las operaciones que requieren de este. Se realizaron pruebas de estas dos versiones, al igual que con cada una de las versiones del algoritmo DE con la finalidad de determinar cuál es más eficiente. Cada versión se probó treinta y cinco veces, cada prueba con quinientas iteraciones; de cada corrida se almacenó el mejor global final, su posición, su fitness y la curva de convergencia. Una vez obtenidos los resultados de las pruebas se evaluaron cada uno con las siguientes métricas: - Media - Mediana - Desviación estándar Finalmente se realizó la prueba de wilcoxon para comparar los dos algoritmos realizados contra las versiones originales del DE. Los nuevos resultados se agruparon en una tabla, ordenados por función y versión de algoritmo utilizada.


CONCLUSIONES

Los resultados obtenidos muestran que ambos algoritmos mantienen un desempeño medio en comparación con los tomados de la literatura. Un punto que se observo es que ofrece su rendimiento medio a pesar de los cambios en el factor de escalamiento que dependiendo de su valor, beneficia a algunas variaciones o las perjudica. Se desea obtener un mejor desempeño de los algoritmos, por lo que se seguirá trabajando en ellos.
Cortes Cano Jose Maria, Instituto Politécnico Nacional
Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas

COMPORTAMIENTO DE LA VISCOSIDAD Y DEL CRUDO PESADO A TRAVÉS DE UN MEDIO SÓLIDO CON EL USO DE BIOREDUCTORES DE VISCOSIDAD.


COMPORTAMIENTO DE LA VISCOSIDAD Y DEL CRUDO PESADO A TRAVÉS DE UN MEDIO SÓLIDO CON EL USO DE BIOREDUCTORES DE VISCOSIDAD.

Cortes Cano Jose Maria, Instituto Politécnico Nacional. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

El petróleo, es un recurso importante en México para su economía. Extraer el crudo extrapesado requiere de mayor energía debido principalmente a su alta viscosidad, requiriendo mejorar esta viscosidad o las interacciones que presenta con el yacimiento en donde se encuentra contenido. La modificación de la viscosidad por medio de surfactantes y bioreductores, así como el cambio de interacción entre los fluidos y el yacimiento, ha sido una opción útil para mejorar la producción, pero poco aplicada en crudos pesados o extrapesados en nuestro país. En este trabajo se realiza la evaluación de un surfactante ecológico y una formulación a base de biodiesel para conocer el efecto en las propiedades de los líquidos representativos de la zona productora localizada en el Noreste mostrando además los cambios de permeabilidad en un medio arenoso.  El petróleo, es un recurso importante en México para su economía. Extraer el crudo extrapesado requiere de mayor energía debido principalmente a su alta viscosidad, requiriendo mejorar esta viscosidad o las interacciones que presenta con el yacimiento en donde se encuentra contenido. La modificación de la viscosidad por medio de surfactantes y bioreductores, así como el cambio de interacción entre los fluidos y el yacimiento, ha sido una opción útil para mejorar la producción, pero poco aplicada en crudos pesados o extrapesados en nuestro país. En este trabajo se realiza la evaluación de un surfactante ecológico y una formulación a base de biodiesel para conocer el efecto en las propiedades de los líquidos representativos de la zona productora localizada en el Noreste mostrando además los cambios de permeabilidad en un medio arenoso.  



METODOLOGÍA

Se obtuvo la mojabilidad y ángulo de contacto de las muestras de crudo de petróleo, y combinaciones entre salmuera y crudo con un surfactante y por separado una formulación a base de biodiesel en superficie rocosa (de carbonato de calcio) y otra arenosa consolidada con arcilla. Se evaluaron los medios sólidos representativos de yacimiento en prueba triaxial según la norma ATSM D2850.   Se obtuvo la reología de los fluidos y sus combinaciones, hinchamiento lineal del medio sólido y permeabilidad de las mezclas de biodiesel + agua salada al 3.5% + crudo de petróleo, Surfactante al 0.3% + agua salada + crudo de petróleo y del crudo de petróleo en arena.


CONCLUSIONES

La mezcla del surfactante tiene menor adherencia al medio arenoso y al medio carbonatado, posiblemente al formar una interfase entre el sólido y el líquido, por otra parte es la mezcla con la que menor temperatura necesaria puede alcanzar una viscosidad mínima constante, mientras que la mezcla con biodiesel se diluye en el crudo, ayudando a su mejor flujo y disminución de viscosidad, pero se adhiere al medio sólido, esto mismo se ve reflejado en el hinchamiento del material, debido a que es la que más absorción de la mezcla genera y por lo tanto una mayor expansión del material. Para el caso del medio carbonatado, son útiles ambos productos al tener mejoras en la permeabilidad y ángulo de contacto, al dosificar por separado los productos evaluados.
Cortes Cortes Jose Eduardo, Universidad de Guadalajara
Asesor: Dr. Lorena Leticia Garza Tovar, Universidad Autónoma de Nuevo León

SíNTESIS Y CARACTERIZACIóN DEL V2O5 CON MORFOLOGíA DE MICROCRISTALES ROMBOéDRICOS Y SI APLICACIóN EN BATERíAS DE LI-ION


SíNTESIS Y CARACTERIZACIóN DEL V2O5 CON MORFOLOGíA DE MICROCRISTALES ROMBOéDRICOS Y SI APLICACIóN EN BATERíAS DE LI-ION

Cortes Cortes Jose Eduardo, Universidad de Guadalajara. Asesor: Dr. Lorena Leticia Garza Tovar, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Los métodos tradicionales de almacenamiento de energía en la actual situación con la tecnología no llegan a satisfacer la demanda del usuario final, por el motivo de que mientras más avanza la tecnología estas mismas en la mayoría de los casos requieren de un consumo extra de energía, misma que no puede ser cubierta por las baterías actuales o si llega a cubrirla es de una forma insuficiente. La situación mundial actual es que todos los dispositivos electrónicos de nueva generación es que son en su mayoría portátiles, razón por la cual requieren de un medio que a través del almacenamiento les provea la energía necesario para su funcionamiento óptimo, la autonomía de los dispositivos suele ser poca y usualmente menor a un día de uso, este es el principal motivo de que se continúe de manera ardua con la investigación en materiales que poco a poco logren otorgarles mayor autonomía, algo que se traduce en mayor comodidad para los usuarios de los mismos. El problema más grande alrededor de los medios de almacenamiento de energía es que si se desea una buena autonomía el sistema encargado de almacenar energía es el de mayor tamaño hoy en día algo que solo significa que a mayor autonomía mayor tamaño, y eso mediante nuevos materiales se espera cambiar y lograr que en los sistemas actuales puedan no sólo ser más pequeños sino también tener mayor capacidad de almacenamiento.



METODOLOGÍA

Para la síntesis se utilizó metavanadato de amonio, NH4VO3 (marca Fermont, pureza del 99.1%), se pesaron 3 mmoles del reactivo, posteriormente se depositaron en una vaso de precipitados de 100 mL al cual además se le adicionaron 30 mL de agua destilada y se dejó en agitación magnética durante 4 horas a temperatura ambiente, con lo que se obtuvo una solución blanca con tonos amarillos característica provocada por la suspensión de reactivo que no se disolvió. La solución obtenida se depositó en un reactor recubierto por teflon el cual se sella y se pone en un horno a 150ºC durante 24 horas para obtener una reacción hidrotermal, a su vez se ponen 40 mL de alcohol etílico, C2H5OH (marca solución pura, pureza del 96%) a enfriar en el frigorífico a 4-6ºC, pasadas las 24 horas se dejó enfriar el reactor dentro de la estufa para evitar un choque térmico en la solución. Una vez que el reactor se encontraba en una temperatura manejable se vació su contenido en un vaso de precipitados de 250 mL e inmediatamente se le agregaron los 40 mL de alcohol etílico previamente enfriado para precipitar cristales de metavanadato de amonio los cuales ya tenían la morfología del producto final, el vaso de precipitados se guardó en el frigorífico por 1 hora para así asegurar la obtención de la mayor cantidad de precipitado, por medio de decantación se retiró todo el líquido posible y al precipitado se le realizaron 3 lavados con alcohol etílico, para finalizar el precipitado semi-seco se llevó a una mufla donde se calcinó a 400ºC durante 4 horas. El producto obtenido es analizado mediante espectroscopia ramman y difracción de rayos x (XRD) y se comprobó su morfología en un microscopio electrónico de barrido. Una vez analizado el material se procedió con su preparación para el montaje un una batería de Li-ion de prueba, se comenzó por preparar una mezcla de 80% material, 10% carbón activado y 10% polifluoruro de vinilideno (PVDF), tomando como base 40 mg y agregando unas gotas de alcohol etílico se obtiene una pasta, con esta misma se realizó una película delgada, esta película se dejó secar para eliminar el alcohol etílico, una vez seca se cortan placas circulares de 5 mm de diámetro, este material fue puesto sobre una malla circular de acero con 15 mm de diámetro previamente cortada y con ayuda de una prensa hidráulica el material se fijó a la malla, con esto realizado la malla con el material se montaron en la batería de prueba y se realizaron pruebas de voltamperometría cíclica y de ciclado carga-descarga para comprobar las características de la batería.


CONCLUSIONES

La estancia académica propició la obtención de diversos conocimientos teóricos referentes a electroquímica y química inorgánica, y a su vez conocimientos prácticos como técnicas de síntesis de compuestos inorgánicos complejos, uso de equipos de análisis de materiales, montaje de baterías, etc.  Se comprobó que el producto obtenido era el esperado y a su vez con la morfología esperada, y su rendimiento en la batería de Li-ion demostró ser estable y tener una gran capacidad de reversibilidad, favorable al momento de predecir la vida útil de una batería.
Cortes Cruz Astrid Guadalupe, Instituto Tecnológico de Pachuca
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

ADSORCIÓN DE ACETAMINOFÉN EN SOLUCIÓN ACUOSA EMPLEANDO CARBONIZADO DE HUESO.


ADSORCIÓN DE ACETAMINOFÉN EN SOLUCIÓN ACUOSA EMPLEANDO CARBONIZADO DE HUESO.

Cortes Cruz Astrid Guadalupe, Instituto Tecnológico de Pachuca. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Durante los últimos años, el crecimiento demográfico ha generado una expansión en el consumo de fármacos. Específicamente, el acetaminofén es ampliamente usado debido a sus propiedades antipiréticas y analgésicas. De acuerdo con Bernal et al. (2017), en el 2008 se vendieron 24.6 billones de dosis de este medicamento. Actualmente, estos productos representan una problemática ambiental y de salud pública, ya que han sido encontrados en aguas superficiales, subterráneas e incluso en el agua potable en bajas concentraciones. La contaminación del agua por fármacos proviene principalmente de la fabricación y disposición inadecuada de los desechos de estos productos. También puede provenir de las excreciones, ya que una vez administrado el fármaco, puede ser excretado a través de la orina o la bilis sin sufrir ninguna transformación y llegar a fuentes de agua. Bajo este contexto, existen diversas técnicas para la remoción de productos farmacéuticos en el agua, como son la precipitación química, intercambio iónico, separación por membrana, degradación biológica, oxidación química, extracción con disolventes y adsorción. Específicamente, la adsorción de fármacos empleando carbón activado ha demostrado ser una técnica prometedora para la eliminación de contaminantes en medios acuosos, ya que destaca por su alto grado de eficiencia, fácil operación y viabilidad económica. Así mismo, los materiales carbonosos son los adsorbentes mayormente utilizados ya que su versatilidad, alta área superficial, porosidad y propiedades químicas los hacen una opción atractiva para la remoción de estos contaminantes. Estos materiales pueden sintetizarse a partir de residuos agroindustriales, lo que reduce el costo de obtención de dichos adsorbentes. Con lo anterior, en el presente trabajo se reporta el uso del carbón de hueso de res como adsorbente para la remoción de acetaminofén en solución acuosa.



METODOLOGÍA

Para los experimentos de adsorción se utilizaron materiales carbonizados a partir del fémur de res, los cuales fueron previamente sintetizados a temperaturas de 500 - 800 °C, durante un tiempo de pirolisis de 2 - 5 h bajo una atmósfera de N2. La capacidad de adsorción de dichos adsorbentes se evaluó en la remoción de acetaminofén bajo las siguientes condiciones: relación masa/volumen del carbonizado de hueso y la solución de acetaminofén de 0.002 g/ mL, concentración inicial de 250 mg/L de acetaminofén, en agitación constante a 30 °C y 120 rpm durante 24 h. Todos los experimentos se realizaron por triplicado y el error porcentual entre réplicas fue menor al 10 %. Posteriormente, mediante cromatografía de líquidos de alta resolución (HPLC) se cuantificó la concentración de acetaminofén y se calculó su capacidad de adsorción mediante la siguiente ecuación: q= ((Ci-Ce)*V) / m donde, Ci y Ce son la concentración inicial y final del acetaminofén en mg/L, V es el volumen de la solución en L y m es la cantidad en g del adsorbente evaluado.


CONCLUSIONES

Los resultados de la evaluación del proceso de adsorción de acetaminofén utilizando carbonizados provenientes de hueso de res mostraron que aquellos que cuentan con menor temperatura y tiempo de pirólisis son los que presentaron una capacidad de adsorción menor. Por otra parte, los adsorbentes preparados a 800 °C presentaron una capacidad de adsorción en el rango de 8.75 - 15.46 mg/g. Específicamente, el adsorbente que mostró mayor capacidad de adsorción corresponde al sintetizado a 800 °C durante un tiempo de 5 h, obteniendo una capacidad de 15.46 mg/g, lo que indica que, a mayor temperatura de síntesis, mayor es la capacidad de remoción de acetaminofén. Por lo anterior se puede concluir que el uso de hueso de res como precursor de materiales carbonizados puede ser considerado una opción viable para la síntesis de adsorbentes y su evaluación en la remoción de acetaminofén.  
Cortes Gallardo Vicente, Instituto Tecnológico de Acapulco
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO BáSICO PARA EL DISEñO DE UNA RED HíDRICA EN LA COMUNIDAD DEL COLEGIO, MUNICIPIO DE TARíMBARO, MICHOACAN


ESTUDIO BáSICO PARA EL DISEñO DE UNA RED HíDRICA EN LA COMUNIDAD DEL COLEGIO, MUNICIPIO DE TARíMBARO, MICHOACAN

Cortes Gallardo Vicente, Instituto Tecnológico de Acapulco. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las redes de distribución hídrica que abastecen de agua las comunidades y sembríos, muchas veces no son lo suficientemente eficientes y económicas, debido al mal planteamiento de diseño. En la comunidad del colegio, municipio de Tarímbaro, Michoacán, se cuenta con una red de distribución para las parcelas de cultivo ineficiente y anticuada, gran parte de su distribución es conformada por canales, algunos con revestimiento en cemento y otros sin revestimiento alguno, muchos de estos canales se encuentran colapsados, lo cual provoca una gran pérdida de agua a la hora de pasar a través de ellos, utilizando al mismo tiempo mayor consumo eléctrico en el equipo de bombeo debido a que es mayor el tiempo que se requiere para hacer llegar el agua desde el pozo a las parcelas.



METODOLOGÍA

Para realizar el diseño se utilizaron 2 estaciones para topografía, y un medidor de flujo ultrasónico, brindados por la Universidad Michoacana de San Nicolás de Hidalgo. Una vez obtenidos los datos de topografía de la zona, y afor de los pozos de agua, se procedió a analizar los datos, como altimetría del lugar, gasto entregado por los pozos y su velocidad de flujo. Para tener en cuenta el gasto que tendrían todas las parcelas se realizaron cálculos de uso consuntivo de las plantas que se suelen sembrar en el lugar en varios periodos del año, para establecer cultivos en las parcelas y calcular un aproximado del gasto requerido, para dicho cálculo se recurrió a extraer datos de la estación climatológica ubicada en la zona El colegio clave 16512, así como también se necesitaron  datos de área proporcionados por la topografía realizada. Una vez calculado el gasto requerido, se procedió a realizar el diseño de la red hídrica a través del programa Civil CAD, en el cual se realizó la distribución de la tubería, así como también se determinaron los diámetros requeridos y tipo de material de esta, lo siguiente fue verificar el funcionamiento correcto de la red, para verificar el funcionamiento correcto de las bombas, o ver si estas debían cambiarse, para dicha verificación se hizo uso del programa EPANET 2.0 en el cual se comprobaron datos de elevación de nodos, uso eficiente de las bombas y las presiones que se tendrían en la tubería.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos en las redes de distribución hídricas, así como también en los  sistemas de riego, utilizando programas como Civil CAD y EPANET 2.0, también se logró adquirir conocimientos en cuanto a Topografía, y como hacer uso de  esta última para la construcción de obras hidráulicas. Sin embargo al ser un trabajo demasiado extenso aún hace falta la realización del proyecto físicamente y no se pueden mostrar datos obtenidos. Se espera que con el diseño realizado se obtenga una mayor eficiencia en la distribución de agua, evitando perdidas, así como también de consumo eléctrico, lo cual beneficiara a la comunidad económicamente debido al ahorro de este y pudiendo aumentar la producción de sus cultivos.
Cortes Leyva Carla, Universidad Politécnica de Texcoco
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

MONITOREO DE LA DISTRIBUCIóN DE TEMPERATURA EN UNA HABITACIóN A ESCALA.


MONITOREO DE LA DISTRIBUCIóN DE TEMPERATURA EN UNA HABITACIóN A ESCALA.

Cortes Leyva Carla, Universidad Politécnica de Texcoco. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Se busca el monitoreo y la regulación de temperatura para muchas aplicaciones , tales como climatización de espacios , deshidratación de alimentos y seguridad alimentaria, los rangos de temperatura específicos deben ser mantenidos. Mediante un sistema experimental enfocado a la medición de calor que puede entregar una fuente de energía limpia. Se utilizo un monitoreo de temperatura para calcular la eficiencia de un sistema. El propósito de los sistemas de monitoreo en línea es conocer en tiempo real las condiciones de operación y la temperatura con la cual se está trabajando en la habitación (espacio).



METODOLOGÍA

La habitación a prueba con la que se trabajo fue hecha con madera que tenía un grosor de 19mm. Las dimensiones de la habitación de prueba fueron de 1.22x1.22x1.22 m. la caja fue reforzada con un aislamiento térmico laminado (poliestireno expandido), que cuenta con un grosor de dos pulgadas de tal manera que la pérdida del calor no fuese notorio y pudiésemos obtener datos más precisos. La temperatura que se mantuvo fue brindada a la habitación por un calentador solar. Este monitoreo se llevo a cabo utilizando materiales de bajo costo tales como: sensores DS108B20, arduino uno, raspberry, y la aplicación raspberry view (viewer). Raspberry viewer nos permitio monitorear el sistema de manera remota, almacenando datos y asi poder contar con informacion precisa sobre la temperatura. Se logro obtener uniformidad en la distribucion de temperatura dentro de la habitacion gracias al pocisionamiento especifico de orificios en la habitacion .


CONCLUSIONES

Durante la estancia en el programa delfín  se logro adquirir conocimiento sobre energías renovables, radiación solar, programación y diversos temas. Se logro la correcta creación de un dispositivo mediante el cual se podía calcular, monitorear y controlar la temperatura, este monitoreo permite detectar eventuales anomalías y así evitar situaciones de riesgo. Nos permite conocer una forma económica y practica de monitorear temperaturas y contribuye a la integración de la tecnología en la industria.
Cortes Martinez Amairani Yamileth, Instituto Politécnico Nacional
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO


DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO

Cortes Martinez Amairani Yamileth, Instituto Politécnico Nacional. España García Isela Tsugey, Universidad de Guadalajara. Miranda Landeros Josue, Instituto Politécnico Nacional. Parra Valdez Manuel, Universidad de Guadalajara. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad crónica que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce (OMS, 2016). En México y en el mundo, la diabetes es una de las enfermedades cuya tasa de mortalidad es de las más altas. De acuerdo con la Organización Mundial de la Salud (OMS), más del 80% de las muertes registradas, mayormente en países de ingreso mediano y bajo, son causadas por esta enfermedad, y asegura que estas cifras podrían duplicarse en los próximos 10 años, siendo para el año 2030 la séptima causa de mortalidad en el mundo. Entre algunas de las causas procedentes de esta enfermedad se encuentran: infarto al miocardio, accidentes cerebrovasculares, amputación de miembros inferiores, neuropatías, pérdida de agudeza visual e insuficiencia renal. Por lo anterior, en este verano de investigación científica se desarrolló un prototipo para dar pulsos de energía al pie, y otro para mano, que permite aumentar o disminuir la temperatura en el miembro y así, utilizando una cámara infrarroja poder visualizar la circulación sanguínea y su respuesta ante un choque térmico. Este prototipo está diseñado para pacientes diabéticos, ya que, de este modo, se podrán realizar pruebas constantemente para observar la circulación sanguínea y así tomar acciones que ayuden a prevenir o disminuir algunos de los padecimientos causados por la diabetes mencionados anteriormente.



METODOLOGÍA

Se construyó un prototipo para pie que consiste en un soporte hecho de aluminio y madera de tal manera que amolde a la forma del pie. Se colocó una placa de aluminio anodizado que abarca la región de las puntas de los dedos del pie a la región del metatarso, bajo esta placa de aluminio anodizado se colocaron cuatro celdas peltier TEC1-12706 a 12V y 3A conectadas en un arreglo en serie de dos celdas peltier que se encuentran en paralelo con el arreglo serie de otras dos celdas peltier. Las celdas peltier se calientan de un lado y enfrían del otro según sea el sentido de la corriente que circule a través de ellas. La temperatura de la cara inferior es regulada mediante dos disipadores de calor de cobre y dos ventiladores PAPST MULTIFAN 3314 S a 24V conectados en un arreglo en paralelo. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con un puente H IBT-2 con un voltaje de entrada de 6V-27V y una corriente máxima de 43A, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa de aluminio. El circuito se alimentó con una fuente de poder SORENSEN  XPF 60-20D con dos salidas a 60V-20A máximo. El prototipo para la mano se construyó de aluminio y madera. Se colocó una placa de aluminio anodizado amoldado para los dedos de la mano que abarcan las falanges media y distal. Bajo la placa de aluminio se colocó una celda peltier TEC1-12706 a 12V-3A. La celda peltier se colocó sobre un disipador de calor de cobre y se utilizaron 2 ventiladores SUNON a 12V en paralelo para regular la temperatura. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con dos módulos relevadores alimentados a 5V, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa. El circuito se alimentó con una fuente de poder SORENSEN XPF 60-20D con dos salidas a 60V-20A máximo. La prueba se realizó bajo condiciones de temperatura ambiente (25°C) y para esta, el paciente colocó la extremidad correspondiente en el soporte, se comenzó a enfriar la placa hasta una temperatura de 10 °C y se mantuvo a esa temperatura durante 30 segundos, posteriormente se calentó la placa hasta 40 °C para nuevamente mantener la temperatura durante 30 segundos. Durante este periodo de enfriamiento y calentamiento se utilizó una cámara infrarroja marca Xenics modelo Gobi 640ge controlada por software Xeneth versión 2.5, adquiriendo secuencias de imágenes en escala de grises de 8 bits cada segundo por diez o vente minutos, para observar la respuesta del cuerpo ante un choque térmico. Las imágenes se procesaron con un programa realizado en Matlab que consiste en analizar a cada uno de los píxeles que componen la imagen y obtener la transformada de Fourier que hace referencia a la variación que éstos tienen en un intervalo de tiempo.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre la termografía y habilidades en el uso de una cámara infrarroja para la recolección de imágenes que permitieron observar la respuesta del organismo ante un choque térmico y con esto, conocer cualitativamente el deterioro vascular en pacientes diabéticos.
Cortes Martinez Jesus Miguel, Universidad Politécnica de Texcoco
Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara

IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.


IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.

Chipol Seba Bryan Antonio, Universidad Autónoma del Estado de México. Cortes Martinez Jesus Miguel, Universidad Politécnica de Texcoco. Reyes Espinosa Aldo Francisco, Universidad Politécnica de Texcoco. Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La adquisición de un punto de venta para la mayoría de las Pymes suele ser costoso por los altos precios que los proveedores ofrecen, pues no solo implica un sistema, también se necesita una estructura completa para el buen funcionamiento y administración del sistema. De acuerdo con el estudio realizado por Zoho Corp, empresa india desarrolladora de software, estima que el 6% de las Pymes en México utilizan las Tecnologías de la Información TIC para mejorar el rendimiento de  la empresas (Villafranco, 2017). Las tecnologías de la información son las que le permiten a las Pymes aumentar su productividad y por ende ser más competitivas (Vaca, 2017). Según la OCDE, la productividad en las empresas es de 6.3 veces mayor a las microempresas, un 2.9 mayor a las pequeñas y un 1.7 superior a las medianas empresas. Tal productividad se debe a la economía de escala con la que cuentan, experiencia en el mercado y uno de los factores importantes son las Tecnologías de la Información (Villafranco, 2017).   Como la mayoría de las Pymes no tienen conocimiento de esta nueva tecnología aplicada en el uso de Raspberry Pi, se tendrán que analizar métodos para introducir estos servicios al mercado de una forma confiable otorgando iguales y mayores beneficios a los puntos de venta que actualmente existen en México. De acuerdo con el INEGI, la mayoría de las empresas son consideradas Pymes. Por lo tanto, esto brinda un alto rango en el mercado para introducir esta nueva modalidad de servicio para la administración de la compra-venta de dichas empresas (INEGI, 2017). A nivel nacional, en el sector de alimentos y bebidas, el 97% de las unidades económicas son micro y pequeñas empresas con un número de empleados por establecimiento menor o igual a diez (CANIRAC, 2016).   A partir de estos fundamentos se plantea el desarrollar un punto de venta que sea económico y eficaz para una microempresa del área de alimentos y bebidas, ya que el establecimiento Coffee Hanna tiene la problemática de controlar las ventas sin tener que adquirir un sistema de punto de venta costoso y que este sea mayor a las necesidades básicas de esta pyme.



METODOLOGÍA

Como primer punto se tiene que instalar el S.O. en el Raspberry. Dentro de este punto tenemos dos opciones proporcionadas por la página oficial de Raspberry Pi por un lado tenemos el S.O. Noobs y por otro a Rasbian a lo que seguiremos los pasos proporcionados por la página.  Los pasos proporcionados por la página guían hasta la instalación del S.O. en la Raspberry Pi a lo cual se procederá a hacer la carga de los servicios necesarios. Dentro del presente link se puede acceder a la mencionada pagina oficial de Raspberry: https://projects.raspberrypi.org/en/projects/raspberry-pi-getting-started/2 Una vez iniciada la Raspberry es necesario obtener las últimas actualizaciones del sistema operativo dentro de la terminal con los siguientes comandos:  Recordando que es importante conectar la Raspberry a una red con acceso a internet. sudo apt-get update            sudo apt-get upgrade          Se debe seguir con la carga y configuración de los servicios necesarios para el punto de acceso (Access Point). Que posteriormente cumplirá el propósito de alojar al sistema punto de venta. Se procede con la instalación y configuración de Apache: sudo apt-get install apache2 Para verificar si se llevó a cabo la instalación puedes introducir el siguiente comando. sudo nano /var/www/html/index.html Para cumplir la función de gestionar las bases de datos se usará Mariadb. El siguiente comando va a instalar este servicio. sudo apt-get install mariadb-server Ahora toca instalar el servicio de PHP. En este punto se recomienda primero revisar cual es la versión más reciente de PHP con el siguiente comando. sudo apt-cache search php7-* Dependiendo de la salida del anterior comando se elige la versión más reciente por ejemplo de la versión más reciente es 7.3 se aplicará el siguiente comando: sudo apt-get install php7.3 Lo único que cambiará será la parte de la versión. Al terminar con la instalación se debe configurar PHP para que trabaje con MySQL. Lo cual va permitir que PHP trabaje con bases de datos. sudo apt-get install php7.3-mysql La configuración de PHPMyadmin es necesaria ya que es de utilidad para controlar las bases de datos de manera gráfica. Esta configuración se logra gracias al siguiente comando. sudo apt-get install phpMyAdmin Ahora es necesario agregar la configuración de PHPMyadmin en Apache.conf por lo que es necesario agregar el siguiente comando: Sudo nano /etc/apache2/apache.conf Este comando abrirá un archivo dentro del cual se debe ir al final para ingresar la siguiente línea, esto con la finalidad de que el servidor web sea capaz de conocer PHPMyadmin como un sitio. Include /etc/phpmyadmin/apache.conf Los siguientes pasos son para crear su Access Point desde la Raspberry, dando facilidad de poder visualizar el punto de Venta desde un Smartphone dando la facilidad de una manipulación del Mini punto de Venta. Abriendo la posibilidad de crear algunas otras herramientas para la optimización de dicho Sistema.


CONCLUSIONES

La mayoría de las pequeñas empresas han empezado a implementar un software que les simplifique el trabajo. Actual el impacto de las computadoras de tamaño reducido (SBC) llamadas Raspberry, los cuales incluyen el sistema operativo Raspbian, existen otras opciones como Arduino en las cuales es necesario programarlos para realizar ciertas actividades. Las empresas interesadas en esta nueva tecnología que ofrece el uso de un Software y Hardware para un fin en específico, en este caso para implementar un mini punto de venta y dentro de este tener una base de datos con los productos o servicios que ofrece la pequeña empresa, lo cual es una opción viable para reducir los costos, tener un control de los productos y también a destinar menos dinero a estos servicios ya que ahorran en  costos de compra e instalación de servidores y acceso a internet, con esta implementación se cuenta con un punto de acceso que proporciona una red WiFi configurada con el proveedor de servicios de internet (ISP) y de igual forma ingresar de forma local para instalar, configurar y administrar el punto de venta mediante el uso de un Smartphone.
Cortes Orozco Héctor Alejandro, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

CINETICA DE REDUCCION CON NANOPARTICULAS DE ORO


CINETICA DE REDUCCION CON NANOPARTICULAS DE ORO

Cortes Orozco Héctor Alejandro, Universidad de Guadalajara. Torres Gonzalez Diego, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas han demostrado ser multifuncionales debido a que pueden usarse a dar imagen y terapéuticas. Se ha prestado mucha atención al control de la forma y el tamaño de las nanoestructuras metálicas ya que las propiedades magnéticas, catalíticas, eléctricas y ópticas son influenciadas por ellas. Se han desarrollado métodos para explicar la cineteca de oxido reducción de la N-isopropilacrilamida y acrilamida elaborando una síntesis con nanopartículas de oro. Obteniendo varias replicas de hidrogeles que son estructuras macromoleculares tridimensionales, de características hidrofílicas obtenidas a partir de polímeros sintéticos o naturales. Los hidrogeles absorben grandes cantidades de agua debido a los grupos polares que contienen en su estructura que permitan utilizarse con las nanopartículas de oro en diferentes equipos como Raman y Uv-Visible, el cual es demostrar al tiempo de oxido reducción de los compuestos anteriormente mencionados, y buscar una aplicación como biomateriales.



METODOLOGÍA

Para poder explicar la cineteca de oxido reducción de la N-isopropilacrilamida y acrilamida se elaboraron reacciones de ellas con nanopartículas de oro. Agregando el monómero (N-isopropilacrilamida o acrilamida) con agua bidestilada, utilizando parámetros de variación de temperaturas, variación de tiempo, agitación, etc. en baño maría, así como se añadió iniciador (KPS), N2 para generar una atmosfera inerte y acelerador (Tetrametiletilendiamina), utilizando la sonicación para permitir generar la reacción de oxido reducción, a una misma temperatura y tiempo. Se caracterizaron con el programa de Raman para obtener la información y estructura de los compuestos, obteniendo la longitud de onda de cada una de las aminas secundarias. Al igual que UV-Visible para obtener datos sobre los tamaños de nanoparticulas


CONCLUSIONES

Usando las reacciones de cada uno de los compuestos se logro poder explicar la cinética de oxido reducción, la longitud de onda respecto a la absorbancia obtenida de cada uno de ellos registrando longitudes en el UV-visible entre 500 a 630 nm con una tonalidad de longitud de onda naranja.. Además de aprender muchas cosas nuevas que permiten reforzar lo aprendido como diferentes técnicas de preparación de las soluciones, utilización de distintos equipos, y entender el diseño de las reacciones con las nanopartículas de oro al obtener estos resultados.  
Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Cortes Verduzco Allan Fabian, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Ana Arizmendi Morquecho, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO Y CARACTERIZACIóN DE RECUBRIMIENTOS ANTI-RAYADO PARA SU USO EN COMPONENTES EXTERNOS AUTOMOTRICES


DESARROLLO Y CARACTERIZACIóN DE RECUBRIMIENTOS ANTI-RAYADO PARA SU USO EN COMPONENTES EXTERNOS AUTOMOTRICES

Cortes Verduzco Allan Fabian, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Ana Arizmendi Morquecho, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el gasto realizado en el mantenimiento de superficies metálicas de vehículos de sector público y privado ha generado una oportunidad de aplicación de nuevos materiales. Los recubrimientos son una buena opción ya que ofrecen diversas propiedades, resisten a la radiación UV, a las condiciones climáticas, al rayado y que tenga propiedades hidrofóbicas, con el fin de alargar el tiempo de vida de los sistemas de pintura de los componentes externos automotrices. Esta solución representa una reducción en el gasto en mantenimiento e incluso mejorar las condiciones de viaje al interior de los vehículos. Existen nuevas soluciones en el mercado llamadas Nano Solutions que cuentan con una amplia gama de recubrimientos nanotecnológicos para la protección automotriz, los cuales se han sintetizado usando tecnología de ingeniería molecular para crear un revestimiento de matriz polimérica. Los nuevos recubrimientos automotrices formulados con materiales nanoestructurados penetran en los poros más pequeños de la pintura del vehículo, protegiendo del desgaste, rayado, suciedad, marcas de agua, y en algunos casos hasta de ataques químicos. Los nano-recubrimientos suelen estar compuestos principalmente por dióxido de Silicio (SiO2), normalmente se presentan en estado líquido y son transparentes. En la mayoría de los casos, los solventes empleados son agua o etanol, y es en éstos que las nanopartículas se mantienen en dispersión. En este contexto, la aplicación ideal debe ser realizada por aspersión del líquido sobre la superficie, lo que produce mejores resultados. Por las novedosas y favorables propiedades que ofrece el SiO2, este nanomaterial ocupa un lugar preferencial para el desarrollo de nuevos productos que contribuyan a mejorar el bienestar social con sostenibilidad y bajo impacto ambiental, sin embargo, por si solo actualmente ha llegado a un límite en las propiedades protectoras que puede otorgar. Uno de los materiales prometedores para fortalecer los nano-recubrimientos es el óxido de zirconio (ZrO2) debido a que presenta propiedades mejoradas en cuanto a: baja conductividad térmica, transparencia en el rango visible, alto índice de refracción, resistencia al rayado, resistencia mecánica, propiedades de lubricación, aumento de la resistencia al ataque químico, aumento de la resistencia a la oxidación y al envejecimiento, lo que da como resultado un material con mejores propiedades de protección a los rayos UV, a condiciones climáticas, al rayado, a la corrosión y a la oxidación. El objetivo inicial del proyecto es desarrollar un recubrimiento transparente de fácil aplicación y que este compuesto de una matriz polimérica que será reforzada con nanopartículas de un sistema cerámico a base de dióxido de silicio (SiO2) y de óxido de zirconio (ZrO2), ya que esté sistema presenta buenas propiedades catalíticas, conductoras, refractarias, mecánicas y de resistencia a la corrosión.



METODOLOGÍA

Mediante la revisión del estado del arte se seleccionó el proceso de síntesis por sol-gel para la obtención de dióxido de silicio (SiO2) y óxido de zirconio (ZrO2), mediante el cual se establecieron las relaciones molares para la síntesis primeramente de ambos óxidos de forma individual para ver si las relaciones eran las correctas para llevar acabo la hidrólisis y condensación. Después de que ambas se sintetizaran correctamente, se variaron las formas de síntesis para poder agregar un alcóxido en el otro, dependiendo cual es el de mayor porcentaje en peso en el sistema cerámico SiO2-ZrO2, obteniendo 6 muestras en total. Posteriormente, variando porcentajes de ambos materiales se establecieron los parámetros de temperatura, goteo, agitación y relaciones molares. A continuación, al gel se les dio un tiempo de reposo y envejecimiento y posteriormente se secaron a 80°C por 24 horas, se maceraron y finalmente se sometieron a tratamiento térmico a 1500°C por 12 horas para llegar a la fase deseada que es la que tiene las mejores propiedades mecánicas para la aplicación buscada. Las muestras se caracterizaron por las técnicas de SEM, XRD, EDS, TGA, DLS Y FT-IR para corroborar que el material obtenido presenta las características físicas, químicas y estructurales adecuadas, además de que el porcentaje, la distribución y la unión de ambos materiales es el correcto.


CONCLUSIONES

-Se logró desarrollar un método experimental para la síntesis por sol-gel del sistema cerámico SiO2-ZrO2 variando porcentajes en peso de ambos materiales. -La relación de mezclado del sistema SiO2-ZrO2 otorgará una buena unión química entre los mismos alcóxidos y una buena dispersión en la matriz polimérica. -Se optimizará la relación de mezclado para obtener la mayor cantidad del material en la fase ZrSiO4 + Cristobalita sin perder las características físicas del recubrimiento (transparencia). -La morfología y el control del tamaño de partícula menor a 100 nm, ayudará a obtener una dispersión homogénea en el nanocompuesto, así como una mejora sustancial en las propiedades de interés.
Cota Duran Leslie Guadalupe, Instituto Tecnológico de Los Mochis
Asesor: Dr. Jorge Raúl Pérez Gallardo, Centro de Investigación en Matemáticas (CONACYT)

DISEñO, ANáLISIS Y OPTIMIZACIóN DE LA CADENA DE SUMINISTRO DEL GARBANZO EN MéXICO.


DISEñO, ANáLISIS Y OPTIMIZACIóN DE LA CADENA DE SUMINISTRO DEL GARBANZO EN MéXICO.

Cota Duran Leslie Guadalupe, Instituto Tecnológico de Los Mochis. Asesor: Dr. Jorge Raúl Pérez Gallardo, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El panorama agropecuario mexicano empezó a decaer desde que el presidente Carlos Salinas de Gortari disolvió la Compañía Nacional de Subsistencias Populares (CONASUPO) al realizar una síntesis entre la tradición histórica mexicana y las nuevas ideas económicas  a  lo que él llamó como liberalismo social; disolvió grandes empresas de intervención en la economía, y precisamente, CONASUPO estaba vinculada con las operaciones de sostén de precios en el campo (Amparo, 2012). Su declive dejo muy vulnerable el sector agropecuario y desde entonces ha venido agraviando la situación hasta la actualidad. De acuerdo con lo anterior; al disolverse la CONASUPO los agricultores perdieron su escudo de defensa ante cualquier organismo o individuo que quisiera beneficiarse a costa de su trabajo. Uno de sus objetivos principales era regular los mercados de subsistencia popular, a través de una adecuada y eficiente relación entre los productores y los consumidores, mediante la modernización de las operaciones comerciales y la eliminación de los intermediarios para que los productos del campo se les fuesen retribuidos adecuadamente por su trabajo. Dadas estas condiciones se propone buscar mercados alternativos en los cuales los precios de venta sean mejores a los que se dispone en el interior de la Republica, o bien, la eliminación de los intermediarios para la venta directa con el comerciante o consumidor, con la finalidad de equilibrar la relación costo-beneficio de la producción obtenida.



METODOLOGÍA

Con la finalidad de proporcionar una vía de solución se realizó una investigación de índole documentas, cuantitativa-experimental; en donde se calculó el costo de la cadena de suministro de un producto en particular en función de minimizar el costo a raíz de tomar la ruta más adecuada para la distribución de la capacidad productiva hacia una demanda dada. El producto elegido fue la del garbanzo puesto que cuenta con una buena aceptación en el mercado mundial. El software utilizado en la experimentación fue GAMS. El metodo de optimización utilizado para resolver el problema formulado en el modelo fue a partir de métodos clásicos. Se utilizó el método  de programación lineal entera mixta puesto que algunas de las variables utilizadas son enteras o binarias y el resto continuas. Para la investigación se necesitó la oferta y la demanda del garbanzo para crear la cadena y para ello se considero como universo, todo aquel distrito que produjo por lo menos una tonelada de garbanzo en el Estado de México registradas en el portal de INFOSIAP, a través del informe del Avance Nacional de Cultivo de Garbanzo en el periodo de 2016 y como demanda se tomo en cuenta la totalidad de toneladas que transitaron desde México hasta el exterior por vía marítima; estas cifras fueron obtenidas del Anuario Estadístico del Transporte Marítimo del 2016 de todo aquel reporte en donde se expuso específicamente el cargamento como Garbanzo, Semillas de garbanzo o Sacos de garbanzo. En total fueron 40 países a los que se le exporto garbanzo en el 2016, con una demanda total de 60,421 toneladas. De estos 40 países fue posible costear el trayecto del nivel 3-4 de 28 países desde cuatro puertos de México (puerto de La Paz, puerto de Manzanillo, puerto de Lázaro Cárdenas y el puerto de Veracruz). El volumen de producción se dividió por regiones productivas. En total, en 10 estados de la República Mexicana se produjo garbanzo en por lo menos uno de los ciclos agrícolas del 2016. De estos 10 estados, fueron 161 municipios de los cuales se obtuvo semejante producción. Se consideró a los distritos a los que corresponden los municipios para la aglomeración de la producción. Estos 161 municipios corresponden a 26 distritos pertenecientes a 10 estados de la república. Considerando estos factores, se realizaron 3 casos los cuales diferían en el número de productores y oferta, y la cantidad de destinos y la demanda. Para calcular el costo total de la cadena, se costeó por niveles; el primer nivel era el punto de origen o el distrito productor, el segundo era el estado al que el distrito pertenecía, el tercero era un puerto del interior de la república y el último nivel era el destino final o el consumidor. Fueron tres los tipos de transporte utilizados a lo largo de la cadena; terrestre, ferroviario y marítimo; del nivel 1 al 2 el grano era trasladado vía terrestre con la posibilidad de ir en 3 tipos de contenedores, del nivel 2 al 3 el transporte era ferroviario, el cual contaba con 5 tipos de contenedores y por último del nivel 3 al 4 se transportaba vía marítima, con la posibilidad de transportar la carga en 3 tipos de contenedores. El costo del flete era establecido en función de él número de contenedores a utilizar y la distancia recorrida. El costeo fue realizado en el portal de Mercado de carga en línea (https://www.searates.com) en donde se obtuvo la constante del costo para cada tipo de contenedor para cada nivel de la cadena. El primer caso contaba con 4 distritos, 2 estados, 4 puertos y 2 destinos; el segundo caso contaba con 4 distritos, dos estados, 4 puertos y 4 destinos, y el último caso disponía de 8 distritos 4 estados, 4 puertos y 4 destinos.


CONCLUSIONES

Los resultados de cada caso muestran la ruta óptima en la que el costo es menor en función al número de contenedores utilizados, el tipo de contenedor y el destino. En cada caso, existe una variación en el costo en función al número de variables dispuestas en el modelo, en el cual, no existen restricciones en el número de contenedores a utilizar. A partir del modelo formulado se espera realizar el ruteo completo de todos los elementos recopilados durante la investigación, el cual tendría como resultado una cadena con 26 distritos, 10 estados, 4 puertos y 28 destinos. Además de ello, se espera cambiar ciertos factores a lo largo de la cadena, como restricciones en el número de contenedores enviados desde un punto a otro y  se considere a optimizar el tiempo total de la cadena en lugar que el costo.
Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa
Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán

CIENCIA DE DATOS APLICADA A REDES SOCIALES


CIENCIA DE DATOS APLICADA A REDES SOCIALES

Castellanos Ramos Melisa, Universidad Veracruzana. Cruz Calvillo Brandon Alain, Instituto Tecnológico de Reynosa. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán



PLANTEAMIENTO DEL PROBLEMA

Es importante conocer las principales ubicaciones de los migrantes mexicanos en Estados Unidos. Una de las aplicaciones de esta información puede ser en el sector comercial. Los comerciantes de productos mexicanos pueden ubicar los posibles clientes en Estados Unidos y así generar estrategias de marketing para estos lugares. Esta información también es útil para el sector público ya que es de interés del gobierno y los ciudadanos conocer en donde se concentran los paisanos en E.U.A. Esta investigación se enfoca principalmente en ubicar las concentraciones de Oaxaqueños en Estados Unidos. Para este fin, se propone la aplicación de Ciencias de Datos. 



METODOLOGÍA

Se siguieron las siguientes etapas de un proyecto de Ciencias de Datos para llegar a la información requerida. Obtención de datos Limpieza de datos Exploración de los datos Visualización de datos Primeramente, realizamos la solicitud de autorización de Twitter para poder utilizar su API y así realizar la extracción de datos. Generamos una lista de términos con palabras únicamente utilizadas en el estado de Oaxaca. Después se desarrolló un script en Python, la cual se encarga de descargar tweets de forma automática según las palabras seleccionadas. Al mismo tiempo se generó la base de datos utilizando MongoDB para almacenar la información. Toda la información descargada se guardó en la base de datos. El script se ejecutó durante 2 semanas para recolectar una gran cantidad de tweets y así proceder con el análisis de datos. La siguiente etapa fue de limpieza de datos. Se tuvo que analizar los datos que se habían descargados. Había varios con ubicaciones no reales o no coherentes. Estas se tuvieron que eliminar para obtener solo los tweets relevantes para la investigación. Posteriormente realizamos queries a la base de datos para obtener datos de ubicación únicas. El siguiente paso fue la etapa de visualización. Se utilizaron dos APIs de Google Maps para visualizar los puntos en un mapa. Se escogió esta API porque es fácil de utilizar y con unas líneas de código se muestran los resultados rápidamente y sin mucha programación. Primero se tuvo que realizar el proceso de geocoding que es el proceso de obtener las coordenadas de un lugar usando la dirección de la ubicación. Se hizo esto por cada uno de las ubicaciones de los tweets descargados. Después de que se obtuvieran las coordenadas se procedió a mapear los puntos. Finalmente se generó un mapa en donde se presentan mediante puntos las ubicaciones de los Oaxaqueños en Estados Unidos.


CONCLUSIONES

En el mapa que se generó se puede visualizar que las mayores concentraciones de Oaxaqueños en Estados Unidos se encuentran en Los Ángeles, California, Dallas , Texas y New York City, New York. Mediante esta investigación se aprendió a utilizar los diferentes APIs de Twitter y Google, así como también a utilizar la base de datos MongoDB. Logramos seguir las etapas de un proyecto de Ciencia de Datos y finalmente presentar los resultados obtenidos en un mapa.
Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla

ANÁLISIS DEL MODELO TRANSITORIO PARA LA GESTIÓN TÉRMICA DEL SISTEMA DE ESCAPE DE UN MOTOR DE COMBUSTIÓN INTERNA


ANÁLISIS DEL MODELO TRANSITORIO PARA LA GESTIÓN TÉRMICA DEL SISTEMA DE ESCAPE DE UN MOTOR DE COMBUSTIÓN INTERNA

Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La simulación transitoria de las transferencias de calor para el sistema de escape del vehículo se ha convertido en una parte importante del proceso de desarrollo de la industria automotriz. Aproximadamente un tercio de la energía del combustible se extrae del motor en forma de entalpía y energía química con el flujo de escape. La alta temperatura afectará al sistema de escape y al entorno que lo rodea. Cuando los sistemas electrónicos están colocados demasiado cerca de fuentes de calor de alta temperatura, como el colector de escape, puede producirse un sobrecalentamiento de estos sistemas causando fallas en la dinámica vehicular. Además, el aire enfriado por el radiador puede captar rápidamente el calor una vez más a medida que pasa sobre los componentes generadores de calor cercanos. Se presenta el análisis de un modelo transitorio completo para la gestión térmica del sistema de escape de un motor de combustión interna. Se busca que el gradiente de temperatura del escape hacia el entorno se vea reducido basándose en el diseño del sistema de escape.



METODOLOGÍA

El trabajo propuesto consiste en hacer una modificación en el sistema de escape de automóviles, usando el diseño del modelo de transferencia de calor transitorio en sistemas de escape de automóviles. Por lo que se estudia el sistema de transferencia de calor usando los mecanismos de transferencia de calor en sus derivadas Qcond, Qconv y Qrad, se estudia el modelo del sistema de escape ideal, se identifican los parámetros para disminuir la emisión térmica a los alrededores, se simula el comportamiento térmico y se finaliza con una interpretación adecuada con los datos experimentales para corroborar una mejora en el modelo original.


CONCLUSIONES

En este trabajo se presentó el análisis de un modelo transitorio completo para la gestión térmica del sistema de escape de un motor de combustión interna. El objetivo de este análisis es que el gradiente de temperatura del sistema de escape hacia el entorno se vea reducido, esto basándose en los parámetros de diseño y el modelo de transferencia de calor, así como los materiales usados para su construcción. En particular, se identificaron dichos parámetros y, aunque se consideró la configuración estándar del sistema de escape propuesto en la literatura, se realizaron simulaciones numéricas con los parámetros de diseño encontrando el comportamiento del gradiente de temperatura con respecto a los mismos. Mediante la optimización de los parámetros de diseño en el sistema de escape podemos modificar la emisión térmica del escape hacia el entorno, considerando los aspectos fundamentales de la transferencia de calor, así como modelo de tubería y material de dicha tubería.
Cruz Garcia Jose Guillermo, Instituto Politécnico Nacional
Asesor: Dr. Carlos Toledo Toledo, Universidad Autónoma del Estado de México

MANUAL DE OPERACIONES DE CONTROLADORES LóGICOS PROGRAMABLES PARA APLICACIONES DE AUTOMATIZACIóN EN MóDULOS DIDáCTICOS.


MANUAL DE OPERACIONES DE CONTROLADORES LóGICOS PROGRAMABLES PARA APLICACIONES DE AUTOMATIZACIóN EN MóDULOS DIDáCTICOS.

Cruz Garcia Jose Guillermo, Instituto Politécnico Nacional. Sol Gomez Judith Guadalupe, Instituto Tecnológico de Tapachula. Asesor: Dr. Carlos Toledo Toledo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Cómo facilitar el aprendizaje significativo a estudiantes de la Universidad Autónoma del Estado de México para que sean capaces de manipular un PLC y poder resolver problemas de la vida real, permitiéndoles aplicar sus competencias desarrolladas.



METODOLOGÍA

Observacion y cuestionamiento para identificar la problematica Análisis para seleccionar la accion que solventará el problema Organizacion de las distintas partes del equipo para la realizacion de la solución. Conjuncion de conociminetos técnicos y pedagógicos para mejoras del trabajo Afinacion de Manuales con pruebas de calidad Presentacion del trabajo final   


CONCLUSIONES

Los manuales se probaron en varias fases con diferentes alumnos que se ofrecieron con el objetivo de perfeccionarlos, corrigiendo detalles y agreganto informacion. Con las mejoras aplicadas a los manual se pudo concluir exitosamente el trabajo, finalizando con dos manuales de operaciones a disposicion de los Doctores para copmlementar sus objetivos pedagógicos. Anadiendo a los resultados finales, a lo largo de la estancia de investigacion se logró adquirir muchos conocimientos, desde programacion en codigo G, uso de maquinaria para metales, manejo de impresoras en 3D y CNC, así como el uso de diferentes softwares para aplicaciones de modelos físicos del área de la electrica.
Cruz González Stephanie Saraí, Universidad Tecnológica de Nayarit
Asesor: Dr. Gema Karina Ibarra Torua, Universidad de Sonora

PROCESADO DE SEñALES DE RUIDO SíSMICO AMBIENTAL CON LA TéCNICA DE NAKAMURA PARA LA GENERACIóN DE UN MAPA DE PERIODOS DOMINANTES EN LA CIUDAD DE HERMOSILLO, MéXICO.


PROCESADO DE SEñALES DE RUIDO SíSMICO AMBIENTAL CON LA TéCNICA DE NAKAMURA PARA LA GENERACIóN DE UN MAPA DE PERIODOS DOMINANTES EN LA CIUDAD DE HERMOSILLO, MéXICO.

Cruz González Stephanie Saraí, Universidad Tecnológica de Nayarit. Polanco Mayorquin Ulises Guillermo, Universidad Tecnológica de Nayarit. Asesor: Dr. Gema Karina Ibarra Torua, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Cuando el valor del periodo dominante del suelo es igual al periodo con el que vibra la estructura, estas pueden sufrir daños catastróficos al momento de sismo, uno de los reglamentos más utilizados para este cálculo, es el Manual de Obras Civiles de la CFE, en el cual se toma un valor de periodo dominante calculado con base a datos teóricos, los cuales, en ciudades como Hermosillo, pueden tener bastante incertidumbre por los pocos estudios geofísicos que existen en la región. En esta investigación se medirá ruido sísmico ambiental (microtremores) en sitios con distintos contactos geológicos, para realizar un primer mapa de periodos dominantes para la ciudad. Se utilizará un acelerómetro el cual mide las tres componentes del suelo que son Norte-Sur, Este-Oeste y Vertical, aplicando la técnica de Cocientes Espectrales. Esta investigación se encamina en el procesado de datos que se obtuvieron a partir de los registros de microtremores, los cuales se pueden representar mediante la convolución de las funciones que lo generan: fuente, trayectoria, sitio y el instrumento de registro. El efecto de sitio se aísla a partir del análisis de datos empíricos obtenidos sobre la superficie del terreno, se puede sustentar por medio de la eliminación de los efectos de la fuente, la trayectoria y el aislamiento de efectos producidos por la litología somera en el sitio de registro y se estimará el periodo dominante (PD) del movimiento del suelo, en algunos sitios de Hermosillo, cabe mencionar que un PD es de suma importancia en la aplicación directa en el diseño de estructuras sismo-resistentes y este se obtiene con base a la técnica Nakamura que relaciona las componentes horizontal y vertical del movimiento del suelo.  OBJETIVOS -Obtener un mapa con valores de periodos dominantes en distintas geologías de suelo en la ciudad de Hermosillo, aplicando la Técnica de Nakamura a mediciones de ruido sísmico ambiental (microtremores) capturadas mediante el uso de un acelerómetro (sismómetro). -Obtener un espectro de Fourier, promedio de los tres canales de cada sitio, para generar los cocientes horizontales entre vertical de cada punto de medición a fin de recabar las gráficas de periodos dominantes del suelo de cada punto.



METODOLOGÍA

Inicialmente se mide el ruido sísmico ambiental con el sismómetro ETNA de Kinemetrics, en donde se obtiene un archivo con extensión EVT convertido por el programa QuickTalk, el cual es un archivo en cuentas digitales. Seguidamente se utiliza el programa DEER5, para transformar el archivo en unidades graficables de los tres canales: Norte-Sur, Este-Oeste y Vertical. Se trabaja con el paquete de procesado de acelerogramas en donde como primer paso se deben seleccionar ventanas de ruido sísmico de 40 segundos, en las partes de la señal donde se muestre el ruido lo más estacionario posible, esto es con la finalidad de eliminar picos falsos de fuentes de antenas, o alguna otra señal que no corresponda al suelo. Después se generan espectros de Fourier de cada una de las ventanas seleccionadas del ruido de cada punto de medición del suelo, de los tres canales con el programa ESPECTRO. Se hace un promediado de los espectros de Fourier con el programa PROESP por medio del emulador DOSBox de todas las ventanas en cada sitio, separados en los tres canales, es decir se tienen 3 espectros de Fourier, dos de las componentes horizontales y uno del vertical. Se aplica la técnica de Nakamura con el programa COCIEN la cual se basa en realizar el cociente de cada canal horizontal, entre la vertical. (NS/V y EO/V). Posteriormente, se procede a graficar los archivos obtenidos de los cocientes con el programa Excel; teniendo en el eje de las ordenadas la amplitud, y en el eje de las abscisas los segundos. Aquel valor con una amplitud mayor, es considerado el "Periodo Dominante" representado en segundos. Una vez recabados los periodos dominantes, se procede a ubicarlos geográficamente en el mapa "Geológico - Minero" de la Ciudad de Hermosillo, Sonora, obtenido del Servicio Geológico Mexicano (SGM). Finalmente se procede a realizar un análisis comparativo de la relación existente entre el valor de periodo dominante de la ubicación donde se obtuvo el parámetro y la geología del suelo del mismo.


CONCLUSIONES

El periodo dominante depende directamente del tipo de geología sobre la que se encuentre posicionado, así como de otros factores externos como lo pueden ser los cauces de ríos. Aquellas zonas en las que el suelo era de tipo Aluvión (suelo blando) presentaron un periodo dominante más alto a comparación de aquellas zonas en las que el suelo era de tipo Granito (suelo rocoso), que presentaron un periodo dominante más bajo.
Cruz Gonzalez Zurisadai Hassel, Universidad Autónoma de Baja California
Asesor: Dr. Maria del Refugio Lara Banda, Universidad Autónoma de Nuevo León

ESTUDIO ELECTROQUíMICO DE ACEROS INOXIDABLES 15-5 PH Y 17-4 PH, PASIVADOS EN ÁCIDO CíTRICO PARA APLICACIONES EN LA INDUSTRIA AEROESPACIAL


ESTUDIO ELECTROQUíMICO DE ACEROS INOXIDABLES 15-5 PH Y 17-4 PH, PASIVADOS EN ÁCIDO CíTRICO PARA APLICACIONES EN LA INDUSTRIA AEROESPACIAL

Cruz Gonzalez Zurisadai Hassel, Universidad Autónoma de Baja California. Asesor: Dr. Maria del Refugio Lara Banda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La corrosión es un fenómeno que afecta a la industria aeroespacial en aspectos económicos, ya que el costo de reparar o sustituir componentes que presentan corrosión es bastante costoso, así como en seguridad y legalidad, debido a que una falla provocada por corrosión puede significar incluso el coste de vidas y consigo problemas legales para la industria. Es por esto por lo que al momento de diseñar componentes aeroespaciales se debe tener en consideración los materiales que posean buenas propiedades mecánicas pero que también tengan una alta resistencia a la corrosión. Aquí es donde aparecen los aceros inoxidables, aceros que tienen una alta resistencia a la tensión, buena tenacidad y sobre todo gran resistencia a la corrosión, y si se les aplica un tratamiento térmico como el endurecimiento por precipitación sus propiedades mejoran aún más, haciéndolos el tipo de acero de principal aplicación en la industria. Los aceros inoxidables poseen la cualidad natural de pasivarse. La pasivación sucede cuando el cromo presente en el acero inoxidable entra en contacto con el oxígeno en el aire. Esta reacción química forma una capa pasiva de óxido de cromo, la cual protege la superficie de acero inoxidable. Sin embargo, cuando se maquinan o trabaja con ellos pueden verse contaminados con hierro libre que puede dañar esta capa de pasividad y provocar corrosión. Para esto se emplea la técnica de pasivación, el cual es un proceso de limpieza química para mejorar la resistencia a la corrosión del acero inoxidable: a) Elimina la contaminación de la superficie anódica, por ejemplo, Partículas de hierro libre. b) Induce la formación de una capa de óxido pasivo. Con esta técnica garantizamos que el componente estará totalmente protegido del ambiente, evitando o retardando el proceso de corrosión, alargando el tiempo de vida del componente. Los agentes pasivantes mas comunes son el acido nítrico y el ácido cítrico, sin embargo, el acido nítrico es muy agresivo tanto con el personal que trabaja con el así como con el medio ambiente, por esto se esta buscando generalizar el uso del acido cítrico ya que es mas seguro y amigable con el medio ambiente. El objetivo de este proyecto fue evaluar mediante curvas de polarización potenciostáticas, la presencia y efectividad de la capa pasiva en los aceros inoxidables endurecidos por precipitación utilizando NaCl al 3.5% y H2SO4 al 1% como electrolitos y de esta forma garantizar su resistencia a la corrosión.



METODOLOGÍA

Se evaluaron un total de 20 muestras de acero inoxidable endurecible por precipitación, 10 muestras 15-5 PH y otras 10 de 17-4 PH (Precipitation Hardening, PH). Se obtuvo la composición química del material para determinar en qué porcentajes están cada uno de los elementos presentes en el. Esto se realizó utilizando un dispositivo de fluorescencia de rayos X. Todas las muestras fueron preparadas inicialmente mediante desbaste con lijas carburo de silicio de granulometrías desde 80 hasta 600. Las muestras ya desbastadas se lavaron en un proceso de 3 pasos: lavado con detergente, enjuagado con agua destilada y lavado con alcohol y acetona (1:1). Posteriormente secado con aire. (ASTM A380-17 Standard Practice for Cleaning, Descaling and Passivation of Stainless-Steel Parts, Equipment, and Systems. ASTM Standard (2017) USA.) Posteriormente al desbastado y a la limpieza se continuo con la pasivación de las piezas. Esto se realizó con una solución de ácido cítrico al 15% durante un tiempo de 30min a una temperatura controlada de 25˚C.( ASTM A967-09 Standard Specification for Chemical Passivation Treatments for Stainless Steel Parts, ASTM Standard, USA (1999).) Se realizaron pruebas electroquímicas, para celda electroquímica se utilizaron 3 electrodos: referencia (calomel saturado(ECS)),auxiliar (platino) y de trabajo (muestra del material). Los medios en los cuales se llevaron a cabo las pruebas fueron cloruro de sodio al 3.5% (NaCl) y ácido sulfúrico al 1% (). Se establecieron 5 potenciales a partir de curvas potencio dinámicas, abarcando regiones de pasivación, transpasivacion y segunda pasivación. (ASTM-G5-13E2. (2013). Standard Reference Test Method for Making Potentiostatic and Potentiodynamic Anodic Polarization Measurements. ASTM International, West Conshohocken, PA, USA) Mediante estas pruebas se obtuvieron curvas de polarización potenciostáticas. Estas curvas nos mostrarían la presencia de la capa pasiva en la región de acuerdo con el potencial, si la corriente tenía tendencia a cero la capa de pasiva estaba presente y era efectiva.


CONCLUSIONES

De acuerdo con lo observado en las gráficas potenciostáticas se concluyó lo siguiente: El comportamiento de la corrosión del acero inoxidable 15-5PH y 17-4PH indican presencia de pasivación en su rama anódica indistintamente del electrolito Se comprobó por medio de curvas potenciostáticas la existencia de la capa pasiva en los intervalos de potencial indicados por las CPP. Las curvas potenciostáticas obtenidas muestran un flujo de corriente de magnitudes muy bajas en aquellos potenciales de la zona pasiva. El cloruro de sodio en potenciales en la zona de transpasivacion, provoca picaduras en ambos tipos de acero, ya que en esta zona la capa pasiva se ha roto y aumenta la corriente de corrosión. En cambio, con ácido sulfúrico tiende a ocurrir una segunda pasivación en el caso del acero inoxidable 15-5 PH. Con ácido sulfúrico en los potenciales evaluados, no se presentaron picaduras. El ácido cítrico puede ser utilizado como agente pasivador en sustitución del ácido nítrico.
Cruz Hernández Danna Kristell, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya

BIOPELíCULAS A BASE DE QUITOSANO Y EXTRACTOS NATURALES, EMBEBIDAS EN COLáGENO, PARA APLICACIONES COSMéTICAS.


BIOPELíCULAS A BASE DE QUITOSANO Y EXTRACTOS NATURALES, EMBEBIDAS EN COLáGENO, PARA APLICACIONES COSMéTICAS.

Cruz Hernández Danna Kristell, Instituto Tecnológico de Tuxtla Gutiérrez. Rascón Meza Ana Sofia, Universidad de Sonora. Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya



PLANTEAMIENTO DEL PROBLEMA

Nuestra piel es el órgano más grande que tenemos y el cual nos sirve como barrera ante todos los microorganismos bacterianos. Esta misma refleja nuestra saud. El envejecimiento es un fenómeno de causa natural por una gran variedad de factores como lo son el tiempo, el medio ambiente en el que vivimos, lo que consumimos, entre otros. Existen estudios donde se muestra que hay una diversidad enorme en tipos de piel y cada una reacciona diferente antes distintas situaciones.  La habilidad que se obtiene de formar biopelícuas a partir de quitosano han sido útiles para diferentes aplicaciones entre ellas están las áreas de cosméticos y dermatológicos que son en las cuales nos enfocaremos. En la actualidad un producto de caracter natural nos da un cierto nivel de confianza mucho más alto para poder utilizarlo en nuestra piel.



METODOLOGÍA

Extracción de Aloe Saponaria. Se extrajo gel de Aloe Saponaria, la hoja del aloe vera (25 cm) fue lavada con agua destilada para remover la suciedad de la superficie. La piel fue separada de la parénquima y los cortes fueron lavados extensivamente para remover exudados de la superficie. La masa de AL fue estabilizada a 65° C y posteriormente se mantuvo en refrigeración a 4° C antes de su utilización.  Extracción de Pepino. Se rebanó 143 g. del fruto, posteriormente se licuó en 40 ml de agua destilada, se filtró y estabilizó a 65° C para después enfriarlo a 4° C durante un día. Se agrega 1ml ácido ascórbico para la conservación del mismo. Preparación de soluciones. Posteriormente se preparó una solución de ácido acético al 1% y de Quitosano al 1%. El Quitosán se disolvió en la solución de Ácido Acético. Después se vertió grenetina al 7% (3.5 g) en una solución de 50 ml de agua destilada. Se calentó el agua previamente y se disolvió, se agitó hasta hacer una mezcla homogénea. Obtención de colágeno. Para la obtención del colágeno, se 150 g. de escamas frescas de pescado carpa común. Las escamas se lavaron extensivamente con agua destilada y se depositaron en 400 ml de agua destilada para su consecuente hervor a no más de 50°C, para no desnaturalizar la proteína. Siguiente a eso se licuaron las escamas, se colaron y filtraron. La sustancia final se puso a reposar a temperatura ambiente y consecuentemente enfrió a 18°C. Preparación de biopelículas. En la preparación de las biopelículas a base de Quitosano (CTS)-Aloe(AL)/Pepino se requirió 10 ml de CTS, 10 ml de GR, 3 ml de GL, 1.5 ml de extracto de Aloe/Pepino, 0.5 ml de Ácido Hialurónico y 1 ml de Ácido Ascórbico. Se mezclaron cuidadosamente tratando de no crear burbujas. Mezclados uniformemente se vertieron en cajas Petri para posteriormente colocarlos al horno a 37°C por un día completo. Las biopelículas totalmente secas y con aspecto elástico, se embebieron en 10 ml de Colágeno. Se caracterizaron las biopelículas por el método de Difracción de Rayos X, Permeabilidad de vapor de agua, FTIR y pruebas de resistencia a la tensión.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en biopolímeros y diversas técnicas instrumentales. Las biopelículas obtenidas durante este transcurso de tiempo están propuestas con un fin de otorgar calidad a las intervenciones cosméticas y dermatológicas. Se observó que al realizar la prueba de difracción de rayos x arrojó como resultado un material no ordenado, es decir, amorfo, sin picos definidos; y al añadirle Aloe Saponaria y Pepino no hubo alteraciones en las lecturas. Posteriormente en las pruebas FTIR pudimos identificar los diferentes grupos funcionales comparando con la biopelícula de Quitosano, y pudimos concluir que los extractos utilizados no alteran la estructura química del compuesto base. Por último en la prueba de tensión se compararon ambas biopelículas que contenían los extractos Aloe Saponaria y Pepino, comprobando que la biopelícula de AL fue más resistente que la de Pepino. Las biopelículas obtenidas fueron flexibles, manejables, con buena apariencia y aroma.
Cruz López Jorge, Instituto Tecnológico de Tláhuac
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

CONSTRUCCIóN Y DISEñO DE UN ROBOT.


CONSTRUCCIóN Y DISEñO DE UN ROBOT.

Cruz López Jorge, Instituto Tecnológico de Tláhuac. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El tipo de robot que normalmente se venden, en muchas ocasiones no satisfacen las necesidades de los usuarios para hacer pruebas o trabajos en específicos y en muchas ocasiones estos salen más caros o difíciles de usar. La mayor problemática es que se presentan retrasos en los proyectos en los que se está trabajando



METODOLOGÍA

Se utilizó el software de SolidWorks para el diseño de todas las partes del robot, siendo de gran utilidad un vernier para tener las medidas exactas de los elementos a comprar, así como de los componentes ya adquiridos. Primeramente, se diseñó una caja para un hexápodo el cual va a contener una Rasberry y su correspondiente batería. Posteriormente se procedió a diseñar la carcasa de un robot que contendría de 2 a 3 ultrasónicos. Para asegurar su estabilidad se diseñó de tal manera que su centro de masa estuviera ubicado en el centro del robot, para evitar en lo posible que se moviera de manera irregular, al momento de estar en funcionamiento. Las ranuras donde van a estar posicionados los sensores ultrasónicos, se diseñaron de tal manera que se le sacara el máximo provecho al área de trabajo de los mismos. Al final de la creación de todos los elementos se les asigno el material de Acrílico para simular la masa total del robot, dando como resultado un peso aproximado de 450 gramos. También se ha ya seleccionado el tipo de batería que va a llevar el carro. En este último punto se tomó en cuenta el consumo de los motores que es de 900 mA más los 3 ampares de la Rasberry que son las piezas que más consumen de la batería.


CONCLUSIONES

Durante esta estancia, se tomaron en cuenta conceptos teóricos de diseño de mecanismos. Así como la adquisición de nuevas habilidades al entrar en contacto con un simulador de robots llamado V-rep.
Cruz Lopez Rene, Universidad Autónoma de Guerrero
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

INGENIERíA CONCEPTUAL E IMPLEMENTACIóN DE UN SISTEMA HIBRIDO EóLICO FOTOVOLTAICO CON MEMORIAS DE CáLCULO Y PLANOS ISOMéTRICOS


INGENIERíA CONCEPTUAL E IMPLEMENTACIóN DE UN SISTEMA HIBRIDO EóLICO FOTOVOLTAICO CON MEMORIAS DE CáLCULO Y PLANOS ISOMéTRICOS

Cruz Lopez Rene, Universidad Autónoma de Guerrero. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La actual demanda energética es una de las peores amenazas que enfrenta el planeta, ya que para la generación de energía eléctrica se quema combustible fósil, que es la mayor fuente de gases de efecto invernadero que provocan el cambio climático. Es necesario un abandono de estos combustibles, los investigadores científicos revelan que solo quedan ocho años para revertir el efecto del calentamiento global. El sol es la energía más poderoso que se puede aprovechar, su energía puede abastecer a 6500 planetas tierra. En México hay 25 plantas termoeléctricas cada una genera diariamente 5,479kg de dióxido de carbono, 2,000,000 de toneladas al año. Para que puedan funcionar se necesitan medio millón de barriles de petróleo diario al año son 182,500,000 de barriles de petróleo por lo que se tiene que apostar a las energías renovables, ya que el petróleo se agotara en unos años. La energía eólica es la más limpia para generar electricidad no se necesita quemar ni un litro de combustible es 100% renovable, si se aprovechara esto evitaría que en un solo día se dejen de quemar 17200 barriles de petróleo y que cada año se deje de generar 400,000,000 de toneladas de dióxido de carbono. En México hay 25 parque eólicos y se sumaron 6 con una inversión de 15,000,000,000 de dólares en los próximo 5 años.   México es el séptimo país en causar daño al medio ambiente pero se diferencia de otros países, por su posición demográfica que recibe una gran cantidad de energía solar y tiene una gran extensión territorial de desierto al norte del país que puede ser utilizada para la instalación de paneles solares a gran escala. México consume 182,000,000,000 kWh al año, en lo cual podría invertir para abastecerse instalando paneles solares utilizando un territorio del tamaño del estado de Coahuila para no utilizar ningún tipo de energía fósil, esta energía se pagaría por si misma de 5 a 10 años, después sería energía gratis para los mexicanos. El istmo de Tehuantepec, Oaxaca es el corredor eólico más extenso de américa latina, Oaxaca es una de las regiones con mayor rezago tecnológico. Este proyecto buscara diseñar y crear un prototipo para aprovechar los recursos renovables en México y reducir la contaminación y generar empleos para las regiones.



METODOLOGÍA

Se utilizo solidword (diseño asistido por computadora) para diseñar las piezas del sistema, los componentes fueron dos paneles solares 125W cada uno, un controlador de carga, un inversor. Autocad se diseño el generador eolico desde piezas asta el componente final(soporte, engranes, caja de revolucion, paletas para el movimiento, etc.). Diseñado el generador se imprimio en corte laser las piezas como engranes y paletas para fabricarlos de fibra de vidrio, y el soporte de fierro cortandose alas medidas diseñas y soldaron. Para obtener los datos se desarrollaron  dos automatas con arduino sofware y hadware,el primer automata para que midiera el voltaje y la corriente que generaba el panel toda esa informacion la guarda en una memoria microSD en tiempo real para poder obtener los resultados, el circuito se simulo en livewire para ver su funionamiento. El segundo automata para sguimiento solar con las ecuaciones solares(angulo solar, angulo cenital, angulo azimut, angulo de elevacion solar). se utilizo dos moteres nema 23, con sus contrladores, y modulo RTC para calcular los angulos. El diagrama electronico se diseño en fritzing como el diseño de union de piezas.


CONCLUSIONES

Los resultados esperados a obtener son unas gráficas donde nos mostrara el voltaje y corriente obtenidos por el autómata para comparar los resultados de los paneles y generador eólico. para tomar conclusiones de que componente es mejor y si nos conviene unirlo en un solo sistema y ver como se comporta en diferentes ambiente en la noche o cuando la velocidad de viento se menor a 6 m/s. Esperando para mayor  con  el autómata de seguimiento solar.
Cruz Marquez Diana Jovana, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.


APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.

Cruz Marquez Diana Jovana, Instituto Tecnológico Superior de Huauchinango. Maldonado Amador Anneth Guadalupe, Instituto Tecnológico Superior de Huauchinango. Montoya Romero Mónica María, Instituto Tecnológico de Los Mochis. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de nuevos materiales de tipo ambiental involucra la utilización de biopolímeros o la combinación de ellos, con el fin de reducir el impacto generado por los polímeros tradicionales, aunque si bien es cierto que estos materiales no pretenden desplazar a los existentes, si se pueden minimizar el uso de estos, colocándolos como una alternativa sustentable para diversas aplicaciones. La investigación de esta problemática se realizó por el interés de reducir el uso de plástico de origen fósil, el cual tiene un proceso de degradación de aproximadamente 1000 años y que aun así no se degrada de manera completa, se sabe que en la época actual, se han fabricado aproximadamente 8.3 mil millones de toneladas de plástico desde el origen de su producción que data del año 1950, lo que equivale al peso de unos mil millones de elefantes, así mismo se estima que alrededor de 10 millones de toneladas de plástico acaban en el océano cada año, de acuerdo con esta problemática el proyecto de investigación a desarrollar tiene como objetivo analizar el tiempo de secado en bioplástico a base de residuos orgánicos, utilizando el diseño de experimentos con un solo factor, con la finalidad de estandarizar su proceso de obtención.



METODOLOGÍA

De acuerdo con la investigación documental realizada, se determinó la ejecución del proyecto de investigación en cinco etapas: planteamiento del problema, planeación del experimento, ejecución de las corridas experimentales, verificación o análisis de resultados e interpretación de los resultados. Planteamiento del problema En primera instancia, se identificaron cuáles son las variables existentes, es decir las  variables de salida (tiempo de secado), las variables de operación (temperatura, método de secado) y las principales entradas (tipos de residuos orgánicos, cantidad). Al establecer las variables o factores que intervienen en el experimento, se pueden unificar los factores que deben investigarse, es decir definir las formas de corroborar cada prueba experimental. Para el análisis de tiempo de secado del bioplástico se utilizó como unidad de medida el minuto, que es el parámetro que nos interesa.  Se tiene que tomar en cuenta los factores que podrían afectar al experimento y que no se pueden controlar. Ejecución de corridas experimentales Se llevaron a cabo un total ocho corridas experimentales en las que se comparó el tiempo de secado, así como las características finales después de ese tiempo. Para llevar a cabo estas corridas se utilizó para cada una las medidas estándar (iguales para cada una) para la obtención de bioplástico, obtenidas previamente al experimento: glicerina, vinagre, almidón (fécula de maíz), agua. El factor de interés en el experimento corresponde a los desechos orgánicos con características propias que podrían permitir la plastificación, por ejemplo el aporte de almidón en su estructura, la cantidad de agua presente, la cantidad de pectina e incluso la resistencia a la degradación, para ello se seleccionaron ocho tipos de residuos orgánicos: sandía, tuna, pepino, naranja, melón, nopal y  mango; de los cuales se tomaron seis muestras para cada uno, teniendo 48 observaciones. Cada corrida fue expuesta a 70º C durante 180 minutos en promedio, con ayuda de un horno eléctrico, consideramos para cada observación 11±1 gramos. Se utilizaron moldes de aluminio de 2.5 gramos en promedio, y para facilitar el desprendimiento del molde se utilizó papel encerado comercial. Los instrumentos de medición que se emplearon para estudiar las observaciones fueron: bascula digital, termómetro de infrarrojo y cronometro, para medir masa, temperatura y tiempo, respectivamente. Se registraron los tiempos de secado para cada observación, así como también las características finales de cada una, por ejemplo apariencia, fracturas en la consistencia, reducción de tamaño, cambio color, desprendimiento del molde y flexibilidad. Verificación o análisis de resultados Al ejecutar las ocho corridas experimentales de acuerdo con el  diseño de experimentos de un solo factor a través del software Minitab 17, se obtuvo  el análisis de la varianza (ANOVA), rechazando la hipótesis nula con un valor P de 0,000 con un  nivel de confianza de 95%, que indica que todos los tratamientos influyen de manera significativa sobre el tiempo de secado para la obtención del bioplástico. Con respecto a las gráficas de la prueba anterior y las pruebas de rangos múltiples se observa una similitud en los resultados en las que las cascaras de mango y de plátano tuvieron un tiempo de secado similar, 180 minutos. Interpretación de los resultados En relación con el análisis anterior, aun cuando todas las corridas experimentales mostraron influencia significativa sobre la variable de respuesta, no todas las corridas experimentales propician la formación del bioplástico, los tratamientos a destacar son los residuos a base de mango, plátano  y penca de nopal, estos mostraron características similares a las del plástico, por otra parte las corridas más desfavorecidas fueron los tratamientos de pepino, sandía, melón, tuna y naranja.  


CONCLUSIONES

Durante la estancia de investigación se lograron adquirir diversos conocimientos relacionados a la estadística inferencial. La planeación y ejecución de corridas experimentales ayudó en el fortalecimiento de las habilidades académicas propias de los  estudiantes de ingeniería industrial, por su parte, él trabajó en equipo, sin lugar a dudas fue una pieza clave para lograr los objetivos planteados, ya que cada integrante mostró distintas aptitudes relevantes para el proyecto. En efecto, esta estancia vigorizó el espíritu de investigación. Con la experimentación sabemos que la cascara de mango es la idónea para la producción de bioplástico. Cabe señalar que con este resultado podemos continuar con más experimentos en los que se pruebe la flexibilidad de este residuo para combinarse con otros, que de alguna forma poseen características similares en composición molecular.
Cruz Ochoa Alondra, Instituto Tecnológico de Morelia
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

BIOSíNTESIS DE NANOPARTíCULAS DE PLANTA A PARTIR DEL EXTRACTO HIDROALCOHóLICO DE LAS HOJAS DE BRYOPHYLLUM DELAGOENSE


BIOSíNTESIS DE NANOPARTíCULAS DE PLANTA A PARTIR DEL EXTRACTO HIDROALCOHóLICO DE LAS HOJAS DE BRYOPHYLLUM DELAGOENSE

Cruz Ochoa Alondra, Instituto Tecnológico de Morelia. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas metálicas, particularmente el oro, son consideradas en aplicaciones de gran alcance como lo son en sistemas de detección electrónicos y ópticos (biosensores), terapéuticos, de diagnóstico e inclusive de energía fotovoltaica. La preparación de nanopartículas metálicas en solución se basa comúnmente en la reducción química de iones metálicos e involucra invariablemente solventes orgánicos y ligandos (que pueden llegar a ser químicos sumamente nocivos una vez que son dispuestos en el ambiente). Ante ello, existe la creciente necesidad por desarrollar procesos de menor impacto ambiental para la síntesis de nanopartículas; siendo los métodos biológicos una alternativa sustentable a los actuales métodos químicos y físicos de síntesis. La síntesis verde es un método rápido que utiliza extractos biológicos obtenidos a partir de plantas, hierbas o inclusive microorganismos que han demostrado gran potencial en la biosíntesis de nanopartículas. El uso de los extractos de plantas en la síntesis de nanopartículas ha incrementado dado la simpleza y escalabilidad del proceso, así como su nula toxicidad al ambiente.



METODOLOGÍA

La síntesis verde de las nanopartículas de oro (NPs Au) se realizó con el extracto obtenido de la planta Bryophyllum delagoense (Bryd), para el cual se pesaron 10 gr de la planta, posteriormente se cortaron y se agregaron a una solución de Agua:Etanol 85:15 v/v en un sistema de extracción Soxhlet previamente instalado. El sistema fue llevado ebullición durante 1 hora para la obtención del extracto. El extracto se llevó a filtración y posteriormente, se preparó una solución de AuCl3 2.5 mM (precursor), a reaccionar con el extracto a 30°C, donde éste último actúa como agente reductor de la sal de oro. Para la reacción, el precursor fue añadido gota por gota al extracto durante un periodo de tiempo en agitación magnética para concretar la síntesis. Finalizada la reacción, se detuvo la agitación y la solución se dejó en reposo hasta 24 horas. El color rosa palo del extracto pasó a morado intenso una vez que la reacción se llevó a cabo, siendo un gran indicador visual de la reducción de los iones de oro. Diferentes caracterizaciones de la síntesis de NPs Au variando la relación AuCl3:Extracto, iniciando con la relación 1:1 v/v, 1:2 v/v y finalmente 2:1 v/v. El análisis se realizó por espectroscopia ultravioleta visible UV-Vis a una longitud de onda de entre 700-300 nm. De las tres soluciones propuesta se eligió la relación 2:1 v/v (AuCl3:Extracto) para estudios posteriores. En el análisis cinético se utilizó la misma técnica (espectroscopia ultravioleta visible UV-Vis) con un factor de dilución de 20 utilizando la mejor muestra (2:1 v/v). Una vez que la última gota de la sal de oro se adicionó al extracto, la muestra fue monitoreada a diferentes periodos de tiempo hasta no presentar cambio alguno en el espectro. Para identificar los componentes presentes en el extracto, se realizó la caracterización estructural de los compuestos obtenidos de éste, por secado a 30°C durante 24 horas para analizar la muestra por espectroscopia FT-IR y lograr identificar los grupos funcionales del extracto. Para la caracterización de las propiedades físicas y químicas de las NPs Au, la solución líquida obtenida de la reacción de óxido-reducción con el extracto se colocó en cajas Petri de vidrio para llevarlas a secado a 30°C durante 48 horas. Posterior al tiempo de secado, se realizó el raspado de cajas para la obtención de las NPs Au en polvo y llevar a análisis de espectroscopia FT-IR y difracción de rayos X. En el caso de la microscopía electrónica de barrido (SEM), las NPs Au se utilizaron a partir de la solución líquida, la cual fue llevada a sonicación durante 8 minutos y posteriormente se llevó a centrifugación a 5000 rpm durante 10 minutos. Una vez centrifugada la muestra, se retiró el sobrenadante para después lavar con agua destilada y repetir el ciclo. Lo anterior, con la finalidad de remover la materia orgánica de la muestra seleccionada y ser llevada a análisis (SEM). Finalmente se pretende evaluar las nanopartículas de oro en un sistema electroquímico para la detección de glucosa como posible aplicación a nivel biosensor.


CONCLUSIONES

En la estancia se lograron obtener las nanopartículas de oro (NPs Au) por síntesis verde a partir del extracto de la planta Bryophyllum delagoense (Bryd), gracias a la reducción biológica de las nanopartículas de oro con el extracto llevada a cabo por los químicos presentes en este mismo. De las diferentes síntesis realizadas, la relación 2:1 v/v presentó la mejor caracterización en espectroscopia ultravioleta visible UV-Vis y la cual, después de 6 horas de estudio cinético, ya no presentó cambio alguno en el espectro obtenido durante los periodos de monitoreo presentados. Dado el análisis de espectroscopia ultravioleta visible UV-Vis y espectroscopia FT-IR se llegó a conocer un poco más sobre las NPs Au sintetizadas. Gracias al análisis por microscopía electrónica de barrido (SEM) se confirmó la presencia de las NPs Au en la muestra seleccionada y de momento se esperan los resultados de la microscopía con la materia orgánica removida para una mejor visualización de las nanopartículas, así como el análisis de detección de glucosa. El proceso de síntesis de las NPs Au utilizando el extracto de la planta Bryophyllum delagoense (Bryd) presentó diferentes ventajas tanto económicas como ambientales, así como tiempos de reacción cortos y sencillos en el proceso de síntesis y, de manera general, en del campo de la nanotecnología aplicada. Estudios de este tipo proporciona un mayor interés en la síntesis verde, características de la planta y su posible potencial en diferentes campos de investigación.
Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.


MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.

Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango. Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango. Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca. Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca. Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de las tareas mas importantes en robotica es la deteccion de obstaculos, esta tarea ha sido estudiada por decadas, uno de los principales problemas en la misma es considerar la incertidumbre en los sensores, este problema se incrementa considerando los ambientes estructurados en los cuales debe navegar los robots de servicio. Entre las diversas opciones tecnologicas una de las mejores son los sensores ultrasonicos, que, aunque son complicados de modelar, su respuesta es rapida y segura para ser implementados en ambientes no controlados. Sin embargo, en el caso de la medicion con cierto tamaño y orientacion no sean visto por el sensor, o que en general aparezcan mas lejos de lo que realmente estan, para esto se necesita implementar un algoritmo para la cracion de mapas de ocupacion para la deteccion de obstaculos aplicado en un robot movil de servicio. Será diseñado en LabVIEW y mediante un análisis estadístico se construirá un modelo probabilista del sensor para mejor la detección, además de utilizar un modelo logarítmico para crear y fusionar los mapas temporales en un mapa global único.



METODOLOGÍA

Considerando un ambiente estructurado, en el cual navega el robot, es necesario considerar primero un modelo estatico del sensor que permita parametrizar el funcionamiento del sensor bajo incertidumbre. Considerando los parametros estadisticos y mediante una validacion estadistica es posible estimar el funcionamiento del sensor considerando que el valor no siempre es confiable. Extendiendo este analisis a un proceso dinamico, es posible considerar los efectos del movimiento del robot en la deteccion y como esta afecta en la incertidumbre, esto nos permite refinar la deteccion y tener una mejor respuesta en la contruccion del maoa y por lo tanto en la deteccion y despazamiento del robot en el ambiente. El modelo del robot considera diversos aspectos, como, por ejemplo: el espacio donde el robot se desenvolvera y el entorno del cual recibira informacion para establecer las instrucciones de programacion correctas. Fijar el valor de la velocidad a la cual el robot seguira una pared y asi determinara si el programa cumple con las restricciones establecidas.  


CONCLUSIONES

Es un proyecto muy viable que forja los conocimientos de practicantes de robótica, como de estudiantes de ingeniería en electrónica, mecatrónica, sistemas computacionales y en el área de control, por tanto se debe cumplir con ciertos conocimientos de las diversas ramas mencionadas para llevar a cabo éste proyecto. La finalidad de la práctica ha sido poner a prueba los conocimientos adquiridos a lo largo de los pequeños proyectos anteriormente realizados, ya que se necesita saber el manejo del sensor ultrasónico y del control y ajuste de la velocidad de los motores, para elaborar un programa que establece instrucciones al robot para seguir una pared.
Cruz Rojas Antonia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

SíNTESIS Y CARACTERIZACIóN DE ENREJADOS MOLECULARES, EN ESPECíFICO NITROPRUSIATOS DE COBRE PARA CAPTURAR CO2.


SíNTESIS Y CARACTERIZACIóN DE ENREJADOS MOLECULARES, EN ESPECíFICO NITROPRUSIATOS DE COBRE PARA CAPTURAR CO2.

Cruz Rojas Antonia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

El CO2 es uno de los gases presentes en la atmósfera de manera natural y sobre todo es uno de los más contaminantes que se produce sin control mediante las actividades humanas, por eso, tratar de eliminarlo es importante para tratar de frenar el cambio climático. Esto puede lograrse a través de la síntesis y aplicación de estructuras de enrejados metalorgánicos (MOFs). Capturar el CO2. Sin embargo, para lograr capturar este tipo de gases, es importante considerar el tamaño de partícula de los materiales, por lo que para este trabajo se propuso el uso de surfactantes para llegar al tamaño de partícula ideal, que maximice el área superficial del material. Los materiales metal-orgánicos estructurados como los cianometalatos de cobre, en específico, los nitropusiatos de cobre, son materiales que pueden usarse para almacenar CO2, y actuar como catalizadores en reacciones químicas posteriormente, por su estructura, que consta de la unión de un centro metálico, en este caso el cobre con ligandos orgánicos.



METODOLOGÍA

La síntesis de los materiales porosos, consiste en la adición del complejo [Fe(CN)5NO], mediante goteo al cobre [Cu(NO3)2] que se encontraba en agitación de 200 rpm. A partir de su completa adición, se dejó en agitación por 1hr. Se preparó por separado el complejo y el metal (cobre), cada uno a un volumen de 50 mL, de acuerdo a la reacción y su relación estequiométrica de 1:1, se pesó del nitroprusiato 0.315g y del metal 0.2g. Agregándolos a los 50 mL de agua desionizada con agitación de 200 rpm. Obteniendo como producto un polvo de color verde claro, el cual presentó precipitación casi inmediata. Posteriormente en una síntesis modificada de estos materiales mesoporosos, se emplearon distintos surfactantes como citrato de sodio y polietilenglicol (PEG), para observar el efecto de éstos en el tamaño de partícula. Se agregó 0.5g de cada uno a un volumen de 50 mL de agua desionizada con agitación de 200 rpm. Manteniendo esa agitación se agregó el metal y después de 20min se agregó el nitroprusiato mediante goteo y a partir de la completa adición de éste, se dejó en agitación por 1hr. En el caso del citrato, no presentó precipitación y con el PEG se obtuvo como como producto un polvo verde claro. Para el citrato de sodio, se repitió la síntesis, con un cambio de volumen a 25mL tanto para el surfactante como para el nitroprusiato y el metal. La masa a disolver de citrato de sodio, disminuyó a 0.1g. El proceso de adición fue el mismo, obteniendo como producto un polvo verde claro. Bajo estas condiciones, sí se observó precipitación del material. En resumen, se obtuvieron tres muestras de polvos verde claro: una sin surfactante, una con PEG y una con citrato a 0.1g. Posteriormente se sometieron a secado para después ser recuperadas en forma de polvo y llevarlas a analizar con IR y UV-Vis. 


CONCLUSIONES

Los análisis de IR y de Uv-Vis permitieron identificar la formación del compuesto Cu[Fe(CN)5NO]. Al ser analizadas cada una de las síntesis con cada uno de los métodos ya mencionados, se pudo apreciar que fueron realizadas de manera correcta, puesto que presentaban los grupos funcionales en la longitud de onda reportada previamente. En el caso del Cu[Fe(CN)5NO] preparado con PEG, se veía un material sin rastro del surfactante, lo que posiblemente pueda facilitar la aplicación de estos pentacianos como catalizadores en reacciones químicas. En el caso del Cu[Fe(CN)5NO] preparado con citrato, se observó la presencia de señales del citrato en los espectros de IR, por lo que se puede describir a este material como un compuesto, del cual se pueden esperar propiedades diferentes a las del Cu[Fe(CN)5NO] puro.
Cruzaley Tinoco Ana Lizbeth, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya

EVALUACIóN Y CARACTERIZACIóN DE RECUBRIMIENTOS A BASE DE QUITOSANO, PVA Y MUCíLAGO DE NOPAL PARA PRODUCTOS HORTOFRUTíCOLAS.


EVALUACIóN Y CARACTERIZACIóN DE RECUBRIMIENTOS A BASE DE QUITOSANO, PVA Y MUCíLAGO DE NOPAL PARA PRODUCTOS HORTOFRUTíCOLAS.

Cruzaley Tinoco Ana Lizbeth, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya



PLANTEAMIENTO DEL PROBLEMA

Los recubrimientos son matrices poliméricas o porosas elaboradas a base de compuestos orgánicos, en productos hortofrutícolas, tienen la función de proteger la calidad de estos productos, evitando el crecimiento de microorganismos, golpes y logrando un adecuado control de humedad. Estos recubrimientos se pueden elaborar con  lípidos, proteínas y carbohidratos. El quitosano es un carbohidrato con el que se puede realizar este tipo de recubrimientos para alimentos. El objetivo de este trabajo fue desarrollar bio-películas a base de quitosano, PVA y mucílago de nopal para recubrimiento de productos hortofrutícolas, para lo cual dichos materiales se caracterizaron mediante pruebas físicas, mecánicas y de barrera, para poder identificar si estos recubrimientos son aptos para la conservación de productos y de esta manera poder alargar su vida de anaquel, protegiéndolos de la humedad y del crecimiento de microorganismos. 



METODOLOGÍA

Para la formulación de las bio-películas se realizó la extracción del mucílago de nopal colocando 60 g de nopal (sin piel y sin espinas) en 200 mL de agua, se dejó en un Orbital Shaker a 250 rpm durante 24 horas a temperatura ambiente, después se filtró con una malla plástica y se guardó en refrigeración. También se preparó una solución de quitosano al 0.8% para lo que requirió una solución de ácido acético al 1% y quitosano de medio peso molecular marca sigma Aldrich. Se preparó de igual forma una solución de alcohol polivinílico (PVA) al 6%. Las soluciones elaboradas se vertieron en cajas plásticas de 10.5 x 12.5 cm y se dejaron a temperatura ambiente durante 72 horas para que se evaporara el solvente. Se realizaron dos formulaciones diferentes, la primera se formuló con el 96% quitosano y el 4 % de mucílago de nopal  y en la segunda se utilizó quitosano (60%), PVA (36%)  y mucilago de nopal (4%). Para la caracterización se realizaron pruebas de permeabilidad al vapor de agua, difracción de rayos X (DRX), pruebas de resistencia a la tensión, espectrofotometría de infrarrojo (FTIR) y pruebas en productos hortofrutícolas (Manzana y guayaba japonesa).


CONCLUSIONES

  Los resultados indicaron que la formulación que contiene PVA y mucílago de nopal mejora la elasticidad y la resistencia de las películas. En las pruebas de difracción de rayos X se observó la estructura semi-cristalina del quitosano también en las películas con CTS-PVA-MN se presentó una estructura cristalina y una parte amorfa mientras que en las películas que contenían CTS-MN  su estructura fue amorfa. En los resultados de infrarrojo se observó un pequeño corrimiento en las bandas y tanto el MN y PVA modificaron la estructura química del quitosano. Los materiales absorben humedad de la fruta y la permeabilidad del ambiente hacia la fruta es baja por lo tanto el material funciona como una barrera. En cuanto a las pruebas con las frutas, en el caso de las manzanas no se logró apreciar tan rápido el efecto sobre la conservación de las frutas, debido a que las manzanas tardan más tiempo en descomponerse, pero en las pruebas con las guayabas japonesas se pudo observar que estas se conservan por mucho más tiempo dentro del empaque, pues  a los 4 días las que se encontraban sin empaque se comenzaron a descomponer y les creció moho. De acuerdo a esto se pudo concluir que los empaques de CTS-PVA-MN pueden ser un buen prospecto para recubrimientos de frutas.
Cuenca Martinez Lizeth, Instituto Tecnológico de Iguala
Asesor: M.C. Ma. del Rosario González Santamaría, Instituto Tecnológico de Iguala

ANáLISIS DEL COHORTE GENERACIONAL 2015 DE LA CARRERA DE INGENIERíA EN GESTIóN EMPRESARIAL PARA EL DISEñO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.


ANáLISIS DEL COHORTE GENERACIONAL 2015 DE LA CARRERA DE INGENIERíA EN GESTIóN EMPRESARIAL PARA EL DISEñO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.

Cuenca Martinez Lizeth, Instituto Tecnológico de Iguala. Trujillo Teran Alexis, Instituto Tecnológico de Iguala. Asesor: M.C. Ma. del Rosario González Santamaría, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se lleva acabo para identificar las causas por la cuales los alumnos de la carrera de Ingeniería en Gestión Empresarial no culminan su carrera en esta institución, analizando a fondo los índices de reprobación, deserción, rezago y eficiencia terminal. Dicha investigación se realiza dentro del plantel, abarcando la generación 2015, esperando obtener los resultados necesarios para que estos sean analizados y se emitan las propuestas adecuadas para que de esta manera se evite la deserción de los alumnos. Para ello se aplicaron encuestas en las cuales los alumnos expresaron las causas que conllevan esta deserción, graficando los resultados obtenidos para analizar cuál es la causa principal que hace que esta situación se presente en el instituto tecnológico de iguala.  Después de obtener los resultados propuestos por los alumnos se plantearon estrategias que sirvan como base para atender las causas que provocan esta deserción y de esta manera lograr reducir o erradicar el problema, mediante las acciones que la misma institución lleva acabo respecto a lo propuesto en este proyecto.  Buscando que se incremente el índice de eficiencia terminal y por ende concluir su titulación.



METODOLOGÍA

Diseño y elaboración de la encuesta. •    Se formularon las preguntas para la encuesta, luego se elaboró el diseño de la misma en google. Aplicación de la encuesta: •    Estudiantes de la carrera de Ingeniería en Gestión Empresarial de 2° a 8° semestre dieron respuesta a la encuesta que se les aplicó en el Laboratorio de Programación, acompañados de un investigador docente y un estudiante asesorado.  Actualización de datos estadísticos por cohorte generacional. •    Se nos otorgó un usuario y contraseña por las autoridades correspondientes del Instituto para poder ingresar al portal del SII y obtener datos específicos de cada estudiante del cohorte generacional 2015. Una vez accesado se revisó la situación académica de los estudiantes por medio de su retícula y kardex. Se actualizó la información de la base de datos en una matriz concentradora. Análisis e interpretación de la información obtenida. •    Con la información recabada de las encuestas se graficó cada una de las preguntas para analizar a detalle los problemas a los que se enfrentan los estudiantes. Análisis comparativo de las estrategias implementadas por la institución. •    En equipo se hizo la comparación de las estrategias que ya aplica el Instituto y que no han funcionado en su totalidad. Análisis FODA. •    Se realizó en equipo un análisis FODA de las fortalezas que tiene el Instituto, las debilidades que se tienen, las oportunidades que se presentan y las amenazas que atentan a los estudiantes.  


CONCLUSIONES

El tema que se estudió es la deserción, rezago y eficiencia terminal  en la formación inicial de futuros ingenieros; a partir de reconocer el incremento en los últimos años del número de alumnos que viven esta situación en su recorrido escolar de formación académica, en la universidad observada. Particularmente, resultó llamativo identificar que casi la totalidad de una sección de una cohorte fue sufriendo desgranamiento en su matrícula inicial hasta casi desaparecer. A ello se agrega, el reconocimiento dentro de la Institución, de bajos niveles de rendimiento en evaluación, así como dificultades en la comprensión de textos, diversidad cultural y cognitiva en el alumnado, y ciertos aspectos de la organización escolar que consideramos inciden de algún modo en el problema que interesa abordar.  Para ello se tomó como referente a la cohorte 2014 de la carrera de Ing. En Gestión Empresarial del Instituto Tecnológico de Iguala, a partir de la construcción de una muestra, realizando encuestas y estudios de investigación en línea a profundidad.  Por otra parte, producir conocimientos referidos a las características que esta problemática adquiere una importancia relevante dada las pocas investigaciones sobre formación académica que hay en nuestro país. Sin dejar de lado, las connotaciones sociales, psicológicas y económicas que la deserción, rezago, eficiencia terminal y titulación tienen para los alumnos, el sistema educativo y la sociedad. Ello significaría un aporte importante para pensar estrategias de intervención asertivas y superadoras de problemas existentes a la vez que permitiría dar impulso a la tarea de producción de conocimientos a través de la investigación en un Instituto Tecnológico de México. Se propondrá un plan estratégico para la mejora educativa.  
Cuevas Martínez Jesús, Instituto Politécnico Nacional
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE LUMINARIAS LED CONTROLADAS POR BLUETOOTH


DISEñO E IMPLEMENTACIóN DE UN SISTEMA DE LUMINARIAS LED CONTROLADAS POR BLUETOOTH

Cuevas Martínez Jesús, Instituto Politécnico Nacional. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Los sistemas de iluminación artificial han ido evolucionando con el crecimiento tecnológico, de tal forma que la manera de alimentar estas fuentes de luz ha ido cambiando al paso del tiempo, usando como combustible aceites, petróleo, energía eléctrica, e incluso energías renovables como por ejemplo la energía solar. En los últimos años se han estado desarrollando sistemas para el control de iluminación inteligente, los cuales implementan una amplia variedad de sensores y módulos de comunicación. Es por eso por lo que en este trabajo se desarrollara un sistema de luminarias LED controladas por bluetooth.



METODOLOGÍA

Con la finalidad de lograr el objetivo de controlar luminarias LED mediante el uso de Bluetooth es importante tener bien definidas las distintas etapas que permiten el correcto funcionamiento del prototipo. Las etapas definidas para este sistema son: Comunicación bluetooth Recepción de instrucciones Procesamiento de información Etapa de potencia Encender luminaria Para llevar a cabo la comunicación bluetooth del sistema se utilizó un módulo HC-05, una PC con bluetooth y el lenguaje de programación Python en conjunto con la biblioteca gráfica PyQt5, con la cual se diseñó una interfaz de usuario que permite al usuario final seleccionar el color de la luminaria LED. Antes de enviar el código de color, la interfaz mostrara un indicador con la combinación de color RGB seleccionada. Desde la interfaz también es posible controlar el encendido y apagado del sistema. La interfaz grafica sigue la siguiente secuencia: Cuando se inicia la interfaz gráfica que permitirá comunicar la PC con el sistema de luminarias LED todos los botones se encuentran deshabilitados hasta que se realice la conexión bluetooth. Una vez que la conexión bluetooth se realiza aparece un mensaje en la parte inferior, indicando que no hubo ningún error al realizar la conexión; también se habilitan las opciones que permitirán cambiar el color de las luminarias LED. Las opciones disponibles son: Seleccionar color: Cuando se selecciona esta opción tenemos la posibilidad de modificar sliders RGB que se encuentran en la parte central izquierda permitiendo realizar la combinación de color que se requieran, así mismo se puede previsualizar el color en un indicador, antes de enviar el código de color al LED. Random: Esta opción hace que el LED cambie de color de forma automática cada segundo. Los colores que se muestran en las luminarias son completamente aleatorios. Apagar: Cuando se activa esta casilla se manda un código que apaga la luminaria LED. Sin embargo, cuando se deshabilita, el programa lee el ultimo registro que se realizó desde el programa en ejecución y el LED retoma su color antes de ser apagado.   Una placa de desarrollo Arduino UNO es la encargada de decodificar la información que llega por bluetooth, y permite que las luminarias LED puedan encender con el color indicado, y para lograrlo se requiere de una etapa de potencia Para la etapa de potencia se implementó un puente H L293 el cual permite acoplar señales TTL con señales de potencia. La corriente que consumen los LEDs utilizados es de aproximadamente 300mA, por lo cual se decidió hacer un arreglo en serie de 3 LED RGB, teniendo un consumo final de 900mA por banda de color.


CONCLUSIONES

Los resultados obtenidos durante la estancia de verano fueron satisfactorios, ya que se logró la comunicación bluetooth de la PC con la interfaz de usuario y el Arduino UNO, además se logró implementar un sensor para controles infrarrojo, el cual permite controlar el sistema con un control infrarrojo, este control se encuentra configurado con las características básicas como son el encendido y apagado de las luminarias, colores predefinidos, así como la variación de las bandas de color RGB. Uno de los problemas que se pudieron identificar en el sistema de iluminación es la temperatura generada, es por eso que se implemento un sistema de enfriamiento el cual consta de un sensor de temperatura LM35 y un ventilador.
Daniel Gonzalez Guadalupe Lizbeth, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

EVALUACIÓN DE LA PRODUCCIÓN DE PERÓXIDO DE HIDRÓGENO ELECTROQUÍMICAMENTE UTILIZANDO ELECTRODOS DE FIELTRO DE GRAFITO.


EVALUACIÓN DE LA PRODUCCIÓN DE PERÓXIDO DE HIDRÓGENO ELECTROQUÍMICAMENTE UTILIZANDO ELECTRODOS DE FIELTRO DE GRAFITO.

Daniel Gonzalez Guadalupe Lizbeth, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

  Tradicionalmente se han aplicado diversas tecnologías basadas en tratamientos físico-químicos para la eliminación del color de los efluentes textiles. Para mitigar esta problemática los procesos de oxidación avanzada (POAs) han sido los que mejores resultados han tenido. Dentro de los POAs destaca el proceso Fenton en el cual se producen radicales altamente reactivos del hidroxilo (OH·). Esto se hace en condiciones de ambiente ácido y con presión y temperatura de ambiente, usando peróxido de hidrógeno (H2O2) que esta catalizado con metales de transición, generalmente hierro.



METODOLOGÍA

En el sistema Fenton la concentración de peróxido de hidrógeno es un factor clave que influye significativamente en la degradación de los compuestos orgánicos.  La concentración de H2O2 está directamente relacionada con el número de radicales ·OH  generados, y por lo tanto para poder tener un buen rendimiento en la reacción se debe tener especial cuidado en estimar adecuadamente la dosis a adicionar de H2O2. Se evalúo la producción electroquímica de peróxido de hidrógeno y hierro, con el fin de propiciar la reacción Fenton, para esto se utilizó un reactor electroquímico de acrílico., como electrodos de sacrificio se utilizaron dos placas de hierro con dimensiones de 14.2 x 21 cm y dos piezas de fieltro de fibra de grafito con las mismas dimensiones. El caudal de tratamiento fue de 0.5 L/min. Los experimentos se realizaron variando el pH (3, 5, 7) y la corriente aplicada (1 - 9 A) y se ajustó la conductividad a 25 mS/cm. Se realizaron curvas de producción de peróxido de hidrógeno variando la corriente cada 10 minutos (con el fin de estabilizar el sistema entre cada medición) para así establecer a que pH y a que corriente la generación de peróxido de Hidrogeno (H2O2) es más eficiente y así lograr mejores resultados y alcanzar los objetivos establecidos. Para la determinación de las concentraciones iniciales y residuales de la producción de peróxido de hidrógeno, se uso un método colorimétrico, mediante la medida espectrometrica de la reacción de Ti(V) con el peróxido de hidrógeno en un medio ácido. Ti4+ + H2O2 + 2 H2O → H2TiO4  + 4H+ La medición se realiza en un matraz aforado a 10 ml con 0.5ml de una solución de Ti(SO4)2 la cuál se completa hasta la linea del aforo con la solución a medir. Después de la homogenización se forma un complejo color amarillo que es estable en la oscuridad. Para realizar la medición de la densidad óptica se lee en un espectrofotométro en un rango de 410 nm. Para determinar la concentración de peróxido y el coeficiente de extinción molar se realiza una curva de calibración, como sigue: Preparar muestras de H2O2 de concentraciones conocidas: 0.5 , 1 , 2 , 2.5 , 5 , 10 , 20 , 30 y 40 mg/L En un matraz aforado de 10 ml, agregar 0.5 ml de sulfato de titanio y llenar hasta la marca de aforo con la solución de peróxido de hidrógeno. Preparar un matraz con 0.5 mL de sulfato de titanio y llenar con agua destilada a fin de usarlo como blanco. Medir la absorbancia a la longitud de onda máxima de (λ=410 nm) para las diferentes concentraciones. Construir una curva de calibración Absorbancia vs Concentración. Las soluciones anteriores deben prepararse a partir de una solución de H2O2 de la cuál se conoce perfectamente la concentración. Para la preparación del sulfato de titanio (TiSO4) usado en la determinación del peróxido de hidrógeno , se realiza lo siguiente: Se tiene que pesar 1 g de TiO2 y disolver en 100 ml de H2SO4  concentrado. Dejar en digestión a 180°C durante 72h para la disolución total. Ya disuelto el TiO2  se tiene que dejar enfriar. Aforar la solución obtenida a 500 ml con agua destilada. Filtrar con una  fibra de vidrio.


CONCLUSIONES

Durante la estancia se alcanzaron conocimientos que me servirán para mi vida profesional, desarrollé nuevas habilidades que no había descubierto y aprendí sobre el proceso Fenton el cual es un tratamiento eficiente para el tratamiento de agua. Se logró la producción electroquímica del peróxido de hidrógeno bajo las condiciones estudiadas. Actualmente el proyecto sigue en operación y se espera que después de tener datos más amplios se logre optimizar el proceso.
Dávila Aguilar Fernando, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Roberto Stevens Porto Solano, Corporación Politécnico de la Costa Atlántica (Colombia)

DISEñO DE UN MODELO DE PREDICCIóN DE ENFERMEDADES A PARTIR DE BIOINDICADORES EN EL CUERPO HUMANO.


DISEñO DE UN MODELO DE PREDICCIóN DE ENFERMEDADES A PARTIR DE BIOINDICADORES EN EL CUERPO HUMANO.

Dávila Aguilar Fernando, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Roberto Stevens Porto Solano, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El cáncer es la principal causa de muerte en el mundo; en 2015, ocasionó 8,8 millones de defunciones. Casi una de cada seis defunciones en el mundo se debe a esta enfermedad. El cáncer de piel es por mucho el más común (pero no el más mortal) entre todos los tipos de cáncer. El principal factor ambiental para sufrir cáncer de piel es la Radiación Ultravioleta, bien sea que provenga de la exposición solar o de una fuente artificial como las cámaras de bronceo. Así, cualquier persona que recibe diariamente su influencia, sin protegerse, estará en riesgo de desarrollar la enfermedad. Existen diversas maneras de predecir Cáncer de Piel en los pacientes. Por lo general, el doctor obtendrá su historial médico y hará preguntas sobre cambios de tonalidad en la piel. También se pueden realizar variaciones de biopsias con muestras de la piel, así como estudios por imágenes como: Radiografía de Tórax, Tomografía Computarizada, Resonancia Magnética y Tomografía por emisión de positrones. Los estudios por imágenes no son necesarios para personas con melanoma en etapa muy temprana, el cual es muy poco probable que se haya propagado. ¿Utilizando métodos del Aprendizaje Profundo tales como la Visión por computadora se puede predecir el Cáncer en la piel en personas?



METODOLOGÍA

Anteriormente se realizó la revisión de algunos artículos académicos donde se utilizaban algoritmos para la clasificación de imágenes y predicción de lesiones en la piel. Las imágenes de lesiones dermatoscopias se adquirieron del conjunto de datos HAM10000 ("Human Against Machine with 10000 training images) a través de Scientific Data. El conjunto de datos de entrenamiento consiste en 10,015 imágenes (327 AKIEC, 514 BCC, 1,099 BKL, 115 DF, 1,113 MEL, 6,705 NV y 142 muestras VASC) con la etiqueta de enfermedad correspondiente y un conjunto de validación con 1,167 muestras. El conjunto de datos utilizado estaba desbalanceado, es decir, cada clase tenia una cantidad diferente de imágenes, por ejemplo, la case nv tenía más 6,000 imágenes y la clase df, solo 115, y esto resultaba en un mal entrenamiento, por ello se balanceo el data set, definiendo 115 imágenes en cada clase y así obtener un mejor entrenamiento. Así mismo, el conjunto de validación también se balanceo con 44 imagen en cada clase. Se realizaron diversos experimentos cambiando el valor de las variables para obtener diferentes resultados y acercarnos al más óptimo.     


CONCLUSIONES

Dividimos el conjunto de datos en un conjunto de entrenamiento y un conjunto de validación. La precisión de entrenamiento obtenida en los primeros experimentos con el conjunto de datos no balanceado fue del 66.95% con una pérdida de 33.05%. La precisión de entrenamiento obtenida con el conjunto de datos balanceado fue del 87.45% y una pérdida del 12.55%.
Dávila Almazán José Carlos, Instituto Politécnico Nacional
Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey

INTEGRATED PRODUCT, PROCESS AND MANUFACTURING SYSTEM DESIGN FOR CNC PUNCHING MACHINE


INTEGRATED PRODUCT, PROCESS AND MANUFACTURING SYSTEM DESIGN FOR CNC PUNCHING MACHINE

Dávila Almazán José Carlos, Instituto Politécnico Nacional. Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

In an era of increased global competition, trends suggest that competitive advantages in the new global economy will belong to enterprises capable of developing high customized products. In order to compete, companies require developing New Product Development Programs with a knowledgeable and skilled workforce, and flexible management structures that stimulate co-operative initiatives within and among companies. The incorporation of New Product Development (NPD) concepts will contribute to enterprise growth and their expected impact and benefits will create a more competitive industry as well as higher-value-added jobs.   This research paper proposes the methodological use of a Reference Model that allows students successful to apply an Integrated Product, Process and Facility Development Processes focusing on specific issues of the company like market opportunities, knowledge, technological constraints and declared goals. The Reference Model developed is presented in section two. In order to demonstrate the use of this Reference Model a case study for the development of a promotional article is described in section 3.  The conclusions of the experiences of using this Reference Model are drawn in section 4.



METODOLOGÍA

2.  Reference Model for Integrated Product Process and Facility Development In this section, the Reference Model is described to developed for Integrated Product Process and Facility Development. First the scope of the Reference Model is defined and after that a description of this Reference Model is given. 2.1 Scope of the Reference Model in the Product Life Cycle Integrated Product and Process Development (IPPD) is a management technique that simultaneously integrates all essential acquisition activities through the use of multidisciplinary teams to optimize the design, manufacturing, and supportability [1]. In order to develop the Reference Model for Integrated Product Process and Facility Development (IPPFD) it is necessary to define the scope of the Product Life Cycle for engineering activities in this research project.


CONCLUSIONES

  During this project I learnt not only about manufacture, but I really had an insight about how to create a product, starting with ideation, identifying user needs in order to reach a product that can satisfy them. During this ideation process I learnt about design, that we have to care about quality depending on our intended market, the gap we want to cover so that we can move on. In my particular case, on the line of sensing, smart and sustainable, I had to assemble the idea of the punching cnc machine, and reached the conclusion that a low cost small machine it’s the best solution to meet a practical approach so that students have a real experience that compliments professors instruction.
Davila Arias Exel, Instituto Politécnico Nacional
Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa

VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.


VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.

Davila Arias Exel, Instituto Politécnico Nacional. Sánchez Juárez Diego Ariel, Instituto Politécnico Nacional. Solis Carrillo Jesús Andrés, Universidad Politécnica de Sinaloa. Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las plagas de los cultivos son una de las principales causas de pérdidas de cosechas y por ende pérdidas económicas en la agricultura mundial. En México, 78.2% reporta pérdidas debidas a causas climáticas, plagas y enfermedades [1]. Entre los problemas principales de la producción del tomate las principales plagas y enfermedades se destacan araña roja, minador, mosca blanca, polilla del tomate y trips [4]. Existen invernaderos que cuentan con la ayuda de sensores de humedad, presión y temperatura para monitorear las plantaciones, sin embargo, no siempre se pueden realizar las instalaciones necesarias para colocar adecuadamente todos estos dispositivos, y darle el cuidado necesario al invernadero. Con el avance de los drones en la actualidad este proyecto surge para poder realizar un cuidado adecuado en las plantas con un solo dispositivo. Por lo que se propone el diseño de un vehículo aéreo no tripulado de tipo cuadricóptero con movimiento autónomo mediante el trazado de trayectoria en el área de interés, equipado con una cámara infrarroja y sensores para la detección y ubicación de plagas en los cultivos de tomate.     



METODOLOGÍA

Un drone o vehículo aéreo no tripulado, esencialmente es un robot volador que puede ser controlado remotamente o puede volar autónomamente a través de planos de vuelo controlados por software en sus sistemas embebidos trabajando en conjunto con sensores a bordo y GPS. En el presente proyecto se implementó el drone móvil o rotacional con una configuración llamada Cuadricoptero, sus características son las siguientes: Los motores en este tipo de multirrotor se encuentran separados 45° en dirección a uno de los brazos y orientados en la dirección de vuelo, es necesario que los cuatro motores sean dirigidos al mismo tiempo. Apropiada para el soporte de cámaras, ofrece un campo de visión mayor al no existir motores que interfieran en la visión. Facilita el equilibrio del dispositivo. Con base en lo analizado durante el verano delfín, se optó por añadirle los siguientes componentes al drone para su respectivo diseño: Para el control de vuelo se utilizó el controlador Airbot OMNIBUS F4 PRO con el firmware INAV, ya que cuenta con un procesador F4, lo que significa que trabaja a una frecuencia de 168MHz y cuenta de 3-5 UART’S, además de que el firmware permite vuelo autónomo.  Se sabe que la corriente pico que puede alcanzar es hasta de 18 A, por lo que se decidió emplear el ESC de 30 A, de esta manera se asegura que soportaran la demanda de corriente exigida por cada uno de los motores. Se eligió la batería de 3300 mAh, la cual ofrece mayor capacidad, al tener un menor rating tiene un menor precio, sin embargo, cumple con la demanda de corriente, además cumple con las dimensiones del chasis a diseñar.  Se eligió el PDB que permitiera la conexión de la batería LiPo y de al menos cuatro motores sin escobillas. Se verificó que esta soportara la tensión de la batería LiPo a emplear, en este caso del tipo 4S. Se decidió emplear el URUAV UR6 como Buzzer ya que contiene una batería interna permitiéndole que en cualquier extravió pueda generar sin ninguna dificultad su función. Se, seleccionaron los motores sin escobillas 2212 con las hélices 1047 que ofrecen un empuje de 885 g, los cuatro pares de motor hélice ofrecen un empuje de 3540 g, esto nos permite un radio de 3.52. Se pretende utilizar una cámara infrarroja FLIR C2 (ya que es un componente otorgado por el investigador) es una cámara térmica de bolsillo que cuenta con un campo de cisión de 45°, además de un detector de alta sensibilidad que captura las diferencias sutiles de temperatura y patrones térmicos. Permite almacenar hasta 4800 mediciones térmicas individuales que pueden analizarse y editar utilizando el software FLIR Tools. Se propone utilizar un sensor MEMs capaz de medir la presión barométrica, de modo que este sensor nos permita obtener la altura a la que el dron se encuentra volando. Se piensa implementar el GPS NEO 6M (nos permitirá conocer la altitud, latitud, así como la velocidad del drone).  También se utilizará el sensor SIM800l GSM/GPRS, sensor DHT11.    


CONCLUSIONES

Durante el verano Delfín, se pudo ampliar el conocimiento previo sobre el cuidado de la siembra, el manejo en base al control y diseño de un vehículo autónomo no tripulado.  El proyecto quedó en el diseño estructural del drone, con sus respectivos circuitos eléctrico y de control desarrollado. Se prevé que el siguiente equipo sucesor lleve este diseño a su creación y prueba para determinar si es un factor factible para la siembra del producto y del área determinada.    
Davila Velazquez Jose Eduardo, Universidad Autónoma de Tamaulipas
Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas

DISEÑO DE UNA APLICACIÓN MOVIL CON TECNOLOGIA BEACONS PARA DIFUSION DE INFORMACION EN EDIFICIOS.


DISEÑO DE UNA APLICACIÓN MOVIL CON TECNOLOGIA BEACONS PARA DIFUSION DE INFORMACION EN EDIFICIOS.

Davila Velazquez Jose Eduardo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Hoy en dia gracias a internet y a la redes sociales la difucion de informacion es mucho mas sencilla , pero en cuanto a informacion academica , aveces aun hay puntos ciegos en cuanto a la distribucion de dicha informacion. En este proyecto se busca una manera sencilla de difundir información relevante de todo tipo según el área o lugar especifico, utilizando las tecnologías bluetooth low energy(ble) también conocida como ble beacons , mediante el uso de estos dispositivos que utilizan la tecnología bluetooth  nos podemos mantener al día con información relevante siempre y cuando contemos con un dispositivo móvil que se encuentre conectado a la red y estemos en el rango de proximidad de estos dispositivos que emitiran una señal y nos mostraran la informacion en la pantalla del dispositivo gracias a la aplicacion que se desea diseñar.



METODOLOGÍA

el desarrollo de este proyecto se llevara a cabo en las instalaciones de la facultad de  ingenieria y ciencias de la universidad autonoma de tamaulipas , campus Victoria , asi como tambien en el cuarto piso del edificio de gestion de conocimiento. el desarrollo y diseño de los diagramas para el modelado del sistema de la aplicacion movil se hara en una laptop HP que cuenta con un procesador "INTEL Core i3" , y una memoria RAM de 6 GB. en la cual utilizaremos el programa NetBeans IDE 6.1  su vez utlizaremos un dispositivo movil huawei p30 lite con una memoria RAM de 4 GB Y 128 GB de almacenamiento interno.    


CONCLUSIONES

despues de modelar los diagramas que muestren el comportamiento del sistema mediante la interaccion del usuario con la aplicacion , el resultado que se desea obtener es una aplicacion para obtener informacion academica a travez de la tecnologia bluetooth que nos ofrecen los BLE BEACONS al ser detectados con nuestro dispositivo movil para poder darnos informacion segun el sitio o area donde se encuentre. De esta manera al desarrollar esta aplicación, nos damos una gran idea de lo importante que es desarrollar nuevas formas para encontrar información academica dentro del campus universitario.
de Anda Cuéllar Luis Andrés, Universidad de La Salle Bajío
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

DESARROLLO DE TUTOR INTELIGENTE PARA MEJORAR EL APRENDIZAJE EN PROGRAMACIóN EN ALUMNOS DE NUEVO INGRESO DE LA UAA


DESARROLLO DE TUTOR INTELIGENTE PARA MEJORAR EL APRENDIZAJE EN PROGRAMACIóN EN ALUMNOS DE NUEVO INGRESO DE LA UAA

de Anda Cuéllar Luis Andrés, Universidad de La Salle Bajío. Domínguez Reyes José Ángel, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas que merma la calidad educativa es la no atención personalizada de los alumnos por parte del maestro, en alguno de los casos derivada del número de estudiantes que conforman el grupo, la carga académica que tiene asignada el profesor (cuando esta es excesiva) o bien incluso puede ser por situaciones intrínsecas al docente. En suma, pocos profesores asumen como parte de su práctica docente, realizar un diagnóstico que permita determinar el estilo de aprendizaje del alumno, para adaptar así las estrategias de enseñanza que habrá de utilizar con el mismo. Aunado a lo anterior, existen también factores intrínsecos al alumno (la confianza profesor-estudiante, el temor de preguntar en clase, falta de tiempo para asistir a asesorías, o bien que el maestro al responder la pregunta no de solución a la duda). El modelo educativo actual aún tiene su mayor base en la memorización y menos en la práctica de contenidos, no obstante, los nuevos modelos se enfocan hacia una asesoría que suma al aprendizaje del alumno y el fortalecimiento de sus capacidades. Por otra parte, como bien lo enuncian algunos autores, es fundamental también comprender la correlación entre los Estilos de Enseñanza de los profesores, los Estilos de Aprendizaje de los alumnos y su influencia en el desempeño  académico de los alumnos, comprender y atender esta correlación permite o inhibe el proceso formativo. La mayoría de los estudiantes tiene un estilo de aprendizaje dominante, es decir una forma de apropiarse de la información y de generar el conocimiento individual.



METODOLOGÍA

En este trabajo se considera como caso de estudio a los estudiantes del curso propedéutico de la carrera de Ingeniería en Computación Inteligente de Universidad Autónoma de Aguascalientes, donde se desarrollaron dos chatbots, uno enfocado en la determinación del estilo de aprendizaje y nivel de conocimiento y el otro tuvo como función resolver las dudas de los alumnos en un sistema de gestión del aprendizaje (LMS, por sus siglas en inglés) mejorando la enseñanza de los alumnos. En relación con la elección de la plataforma para desarrollar el chatbot, se llevó a cabo un estudio exploratorio sobre las plataformas para crear chatbots, entre las cuales se evaluaron: Gupshup Dialogflow BotEngine Se decidió utilizar Dialogflow, ya que la plataforma incorpora algoritmos de aprendizaje automático lo cual permite al bot extender su aprendizaje y almacenarlo en la nube para futuras implementaciones, lo que significa que cada vez que se alimenta de diferentes símbolos fonéticos, significa que entenderá un mayor número de palabras. Para la elaboración del chatbot evaluador del nivel de conocimiento y estilo de aprendizaje, se desarrolló una interfaz gráfica de usuario (GUI) usando HTML5, CSS y JavaScript. Dicha interfaz gráfica presenta al alumno dos evaluaciones, una de ellas determina el nivel de conocimiento en programación, clasificándolo en básico, intermedio y avanzado. La otra evaluación diagnostica cuál es el estilo de aprendizaje del alumno. La entrevista que realiza el chatbot comienza con el examen que determina el nivel de conocimiento de programación del alumno. Para ello se desarrolló un instrumento de evaluación que clasifica a los alumnos en 3 niveles de conocimiento: básico, intermedio y avanzado. Para ello se estudiaron los temas que se ven en la carrera, se consideró que para los nuevos alumnos es importante tener conocimientos en C++, siendo este el curso básico, programación orientada a objetos el curso intermedio y diseño de páginas web como el curso avanzado. Dicho examen diagnóstico consiste en 6 preguntas de nivel avanzado con un valor de 5 puntos, 7 preguntas de nivel intermedio con un valor de 3 puntos y 8 preguntas de nivel básico con un valor de 1 punto, por lo que la puntuación máxima posible son 59 puntos. Para cada una de las preguntas existen 4 posibles respuestas listadas como respuesta A, B, C y D, de las cuales solamente una es correcta. El órden de las preguntas y las respuestas fue aleatorio para cada alumno, con el propósito de eliminar cualquier sesgo causado por el órden de las preguntas. Para contestar la evaluación, el alumno debe escribir la letra de la respuesta en el chatbot. Después de contestar cada pregunta, el sistema cambia automáticamente de pregunta mediante el uso de WebSockets. En caso de no conocer la respuesta o no estar seguro, se pide a los estudiantes que contesten no sé, con el propósito de evitar conseguir puntos que puedan influenciar su clasificación. Luego de que los alumnos contesten las 21 preguntas del examen técnico, el chatbot prosigue a realizar el examen de estilo de aprendizaje. A fin de diagnosticar el estilo de aprendizaje en los alumnos del grupo, se aplicó un test de 44 ítems, conocido como modelo de Felder y Silverman, que permite tener una indicación de las preferencias de aprendizaje de un individuo y una mejor indicación de la preferencia de perfil de un grupo de estudiantes. Una vez terminadas ambas evaluaciones, el chatbot notifica a los alumnos cual es el curso que deben tomar para maximizar su aprovechamiento y experiencia de aprendizaje, en base a los resultados obtenidos. En cuanto la elaboración del chatbot asesor, se utilizaron los intents de Dialogflow para que este pueda interpretar lo que el alumno quiera decirle al chatbot. Se configuraron las frases de entrenamiento como aquellas maneras en que el alumno puede preguntarle al chatbot sus dudas, colocando la mayor cantidad de frases o palabras en que este puede preguntarle al chatbot sus distintas dudas. Como respuesta a cada pregunta se estableció la información sobre lo que indagaron los alumnos.


CONCLUSIONES

Con el prototipo de Sistema Tutor Inteligente construido se espera que los alumnos de nuevo ingreso de la carrera de Ingeniería en Computación Inteligente tengan un mejor aprovechamiento del curso de programación y que su nivel de conocimiento sea mayor con respecto al grupo control. Además, con la determinación de su estilo de aprendizaje, se espera que en el futuro pueda utilizarse esta información para desarrollar estrategias de aprendizaje que permitan maximizar el aprendizaje de cada uno de los alumnos que participen en la prueba.
de Jesus Souza Francilene Augusta, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ali Margot Huerta Flores, Universidad Autónoma de Nuevo León

DESARROLLO DE PELíCULAS FOTOACTIVAS DE WO3 DOPADO CON TI Y ZN PARA LA GENERACIóN FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR


DESARROLLO DE PELíCULAS FOTOACTIVAS DE WO3 DOPADO CON TI Y ZN PARA LA GENERACIóN FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR

de Jesus Souza Francilene Augusta, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Ali Margot Huerta Flores, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el hombre se ha vuelto cada vez más dependiente de los recursos energéticos, es casi inimaginable que alguien pueda vivir sin refrigeración, transporte, iluminación, calefacción, entre otros aspectos. Como sociedad nos hemos vuelto cada vez más dependientes de esos recursos, hasta llegar a un punto de exceso, aunque el problema principal radica en que, para satisfacer nuestras necesidades esos recursos provienen de su mayoría de fuentes no renovables, por los conocidos combustibles fósiles como son el carbono, petróleo y gas natural. Analizando desde la perspectiva ambiental la combustión de combustibles fósiles constituye el principal causante de la emisión de gases de efecto invernadero (dióxido de carbono), responsables del efecto de calentamiento global que sufre nuestro planeta. (J. A. Botas, La economía del hidrógeno). Por ese motivo, la producción de energía que proviene de recursos renovables está adquiriendo cada vez más protagonismo, dentro de ese campo de Energía limpias y renovables, se encuentra el hidrógeno producido con Energía Solar mediante un proceso fotoelectroquímico. El trióxido de tungsteno monoclínico (WO3) fue reconocido como uno de los materiales "ideales" para división del agua por energía solar debido a su fotosensibilidad, buena propiedad de transporte de electrones, y fotoestabilidad contra corrosión ácida. Brevemente, el WO3 tiene una difusión de orificios moderada longitud (∼150 nm) en comparación con α-Fe2O3 (2-4 nm) y TiO2 (∼100 nm), lo que garantiza una separación efectiva de la carga. Además, la banda de valencia profunda máxima (VBM) de WO3 es favorecido para la producción de oxígeno.



METODOLOGÍA

Se prepararon 7 películas de diferentes composiciones, utilizando como material base el WO3. Este material se modificó a través de una estrategia de dopado, con cationes del tipo Ti y Zn. Además, se analizó el efecto de un dopado doble Ti-Zn. Para esto, se prepararon soluciones precursoras, utilizando los reactivos de ácido túngstico, butóxido de titanio y acetato de zinc, los cuales fueron dispersados en etanol absoluto. Esta solución se depositó sobre un vidrio conductor ITO de 1cm x 1cm a través de la técnica de spin coating. Las películas obtenidas fueron las siguientes: 1- WO3, 2- WO3 dopado Ti, 3- WO3 dopado Zn, 4- WO3 dopado TiZn, 5- WO3 dopado Ti/ C3N4, 6- WO3 dopado Zn / C3N4, 7- WO3 dopado TiZn / C3N4. Una vez listas las películas se llevaron a cabo estudios y análisis, dentro de los cuales se analizaron la estructura y morfología  mediante los equipos de Difracción de Rayos X (DRX) y Microscopia electrónica de barrido (SEM), así también se realizaron estudios de las propiedades ópticas por Espectroscopía de Ultravioleta Visible (UV-Vis) y las propiedades eléctricas se analizaron en un potenciostato-galvanostato, a través de los análisis de Espectroscopia de impedancia electroquímica (EIS) y Mott Schottky. La fotoactividad de las películas se evaluó mediante voltamperometría cíclica, analizado la respuesta de los materiales en la oscuridad y la luz y calculando la eficiencia de fotoconversión bajo luz visible en la reacción de oxidación del agua. Finalmente, como una segunda aplicación, se utilizaron las películas como fotocatalizadores soportados para la producción de hidrógeno en un reactor fotocatalítico.


CONCLUSIONES

Se concluyó que la película de WO3 dopado con Ti obtuvo una mejor foto respuesta comparada a la película del WO3 sin dopar y el resto de las películas dopadas. El material WO3-Ti mostró una eficiencia de fotoconversión 62% mayor a la del WO3 puro. Esto se adjudicó a diferentes factores, entre ellos, una mayor densidad de portadores de carga favorecida por el dopado con Ti, lo cual se corroboró mediante los análisis de Mott-Schottky. De acuerdo con estos resultados, se demostró que el dopado es una estrategia eficiente para mejorar la conductividad y foto respuesta del WO3.
de Jesus Vasquez Cristian, Instituto Politécnico Nacional
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

PROTOTIPO DE UN SI DE MONITOREO DE CANTIDAD Y CALIDAD DEL AGUA PLUVIAL


PROTOTIPO DE UN SI DE MONITOREO DE CANTIDAD Y CALIDAD DEL AGUA PLUVIAL

de Jesus Vasquez Cristian, Instituto Politécnico Nacional. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años, ha surgido un interés creciente en la observancia del clima, puesto que este es un factor que regula muchas de las actividades económicas, como lo es el transporte y la siembra. En la actualidad, existen sistemas de información automáticos que recopilan datos meteorológicos, como lo es la precipitación y la temperatura, sin embargo, estos sistemas han sido descuidados con el paso del tiempo, produciendo un deterioro en su estructura y una ineficiencia en la toma de datos; de igual forma, estos sistemas son demasiado costosos, por ende, son pocas las estaciones meteorológicas que se ubiquen en una determinada zona o país. Esto origina un gran problema, ya que la información que se llega a recabar solo pertenece a la zona donde se ha instalado una estación, olvidando a las regiones que no se encuentran en el rango de medición de dicha estación generando incertidumbre en el manejo de la información obtenida. La lluvia ácida es un peligro latente en el ambiente, dado que la acidez del agua afecta en gran medida diversos ecosistemas, como lo es lagos, matando peces que requieren cierta acidez en el agua (Madrid. J. et al., 2018); en los bosques, quemando raíces de árboles, e incluso en las obras civiles, dañando los materiales de las estructuras. Pocas son las estaciones que recopilan el potencial de hidrógeno del agua que se precipita, y de igual forma los datos obtenidos no son mostrados al público en general o son de difícil acceso, al igual que no se obtienen en tiempo real. Tener la información en tiempo real ayudaría a la población a tomar una decisión sobre reutilizar el agua de lluvia o tomar precauciones con su entorno. La falta de información meteorológica sobre la calidad del agua que se precipita es un gran problema para la sociedad y la comunidad científica, y la principal causa es la deficiencia en los sistemas de información encargados de recabar esta información, puesto que no hay estaciones meteorológicas que se encarguen de conseguirla rápidamente.



METODOLOGÍA

El enfoque metodológico empleado para este estudio es el Ciclo de Vida de Desarrollo de Sistemas (SDLC) (Kendall et al., 2011). Entre la serie de ventajas que proporciona aplicar esta metodología se encuentra; en primer lugar, permite documentar cada paso del desarrollo del sistema a emplear, creando una serie de pasos para su aplicación, en segundo lugar, el método permite hallar el tiempo y los recursos adecuados para su realización, y en tercer lugar favorece la administración de una forma segura o cómoda. Los pasos de la metodología del Ciclo de Vida de Desarrollo de Sistemas son los siguientes:  1) Identificación de los problemas, objetivos y oportunidades: Se caracterizó la zona de estudio, siendo la CDMX, se obtuvo información de las estaciones meteorológicas actualmente en servicio y sus funciones, las cuales pocas son las que monitorean el potencial de hidrógeno del agua pluvial automáticamente. Por tal motivo se propuso a diseñar un prototipo de estación meteorológica que use microcontroladores y sensores de bajo costo, los cuales recopilen esta información, la almacene en una base de datos, y la envíe a una plataforma web donde el usuario pueda obtener fácilmente tal información, todo de forma automática 2) Determinación de los requerimientos de información del factor humano: Con la información obtenida el usuario podrá tomar decisiones en el uso del agua que se precipita en la Ciudad de México, o estar alerta cuando su pH esté por debajo de la media. Esta información podrá obtenerla en tiempo real a través de una plataforma de fácil uso. Se estableció que el sistema a crear deberá ser 3) Análisis de las necesidades del sistema: Tras recabarla información para el diseño del sistema y analizar las necesidades de los requerimientos humanos, se procede a diseñar un prototipo que utilice sensores y microcontroladores de bajo costo. La información obtenida por los sensores se enviará a una base de datos a través de internet, está base de datos se encontrará guardada en una nube en internet. Al igual que se diseñará una interfaz de fácil acceso, donde el usuario podrá obtener los datos automáticamente. 4) Diseño del sistema recomendado: El prototipo estará compuesto por un sensor de pH DIY MORE PH-4502C, una placa Arduino Ethernet Shield, un sensor de lluvia YI-83 y contará con una batería solar para su alimentación. Este dispositivo se diseñará en la plataforma ARDUINO IDE, la información obtenida la enviará a través de Wi-Fi a una base de datos creada en Ubidots. 5) Desarrollo y documentación del software: La plataforma donde se almacenarán los datos que obtenga el prototipo los enviará a la nube creada en Ubidots, en donde el usuario podrá descargar la información histórica de los valores de pH. De igual forma se creó un sistema de alarma cuando los valores de pH son menores a los establecidos.


CONCLUSIONES

El prototipo creado si cumplió con los objetivos establecidos: tomó el valor de pH de una sustancia, guardó la información en la base de datos de Ubidots y la envió a una nube en internet por medio de cable a la plataforma antes mencionada. Se espera realizar pruebas con diferentes líquidos para calibrar el sensor que mida el pH, de igual forma se planea crear la arquitectura de la estación utilizando materiales de bajo costo que no afecten el proceso de toma de datos. Por el momento se plantea que el prototipo tome una vez al día el valor de pH y la cantidad de agua llovida. También se plantea automatizar la evacuación del agua llovida por medio de bombas.
de la Cruz López Carlos Alberto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora

DEDUCCIóN DE LA ECUACIóN DE ONDA ELáSTICA: MEDIOS HOMOGéNEO Y NO HOMOGéNEO.


DEDUCCIóN DE LA ECUACIóN DE ONDA ELáSTICA: MEDIOS HOMOGéNEO Y NO HOMOGéNEO.

de la Cruz López Carlos Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La modelación de ondas mecánicas a partir de las leyes de Newton y de la Teoría de Elasticidad ayudarán a la deducción de la ecuación de onda elástica, ya sea en medios homogéneo o no homogéneo, la cual será punto de partida para futuros trabajos de ondas acústicas y/o sónicas aplicadas a sistemas geofísicos, propios del área de interés. Se pretende la incorporación de los tensores de esfuerzos y deformaciones que permitirán la obtención de la ecuación diferencial, que al resolverla, dará respuestas factibles para la interpretación de la propagación de ondas.



METODOLOGÍA

Se considera un medio continuo, es decir, que el sólido se da como una distribución continúa de materia obteniéndose un campo de propiedades, las cuales se definen por funciones continuas en coordenadas espaciales y del tiempo. La deducción de la ecuación de momento se realiza mediante un balance de masa en el volumen de control infinitesimal, con base en la ley de la conservación de la masa y de la ley de la conservación de momento se deriva la ecuación de la cantidad de movimiento siendo esta primordial para la obtención de la EOE. Se parte de un volumen de control infinitesimal de un sólido en donde se consideran las fuerzas de volumen y de superficie que actúan sobre él; se muestra un volumen V = dx·dy·dz y una masa de ρ veces dx·dy·dz, en donde ρ es la densidad del material. Se resalta que los parámetros como la densidad y las constantes elásticas descritas están en función del desplazamiento. Analizando el volumen de control se determinan los flujos de cantidad de movimiento en sus seis caras, tres de entrada y tres de salida; todos estos pueden ser vistos análogamente al flujo másico neto; esto debería ser infinitesimal y proporcional al volumen elemental para que las fuerzas resulten en fuerzas de superficie y de cuerpo. En donde el primer tipo de fuerza da a los esfuerzos, no siendo estos sino sus gradientes los que causan una fuerza neta sobre la superficie total, es decir, que una fuerza en un a cara del volumen de control queda parcialmente equilibrada por la cara opuesta. Del mismo modo, pueden obtenerse las fuerzas de cuerpo en las direcciones x, y, z, que al sumarlas y multiplicarse por los vectores unitarios correspondientes (i, j, k), se obtiene una expresión vectorial para la fuerza neta de superficie. Con la ecuación anterior obtenida y empleando la segunda ley de Newton; además de saber que se cuenta con una masa  y que el sistema está en movimiento, se llega a una expresión dada. Esta ecuación expresa la cantidad de movimiento, pero requiere estar también términos de deformaciones: Ut tensio sic vis. Como la extensión, así la fuerza. Finalmente se obtiene la ecuación de movimiento de una onda elástica en medio no homogéneo. Esto es muy complicado entender en la Tierra debido a que esta no es homogénea, además que los parámetros de Lamé tienen gradientes. Si se hace una idealización de la Tierra donde las capas son homogéneas los parámetros permanecen constantes y esos términos se vuelven cero en la ecuación.


CONCLUSIONES

En esta parte del trabajo solo se consideró el desarrollo matemático y de esta forma interpretarla con conceptos físicos posteriormente para dar un entendimiento mejor al tema. Si bien, representó un conflicto en primer término debido a la acentuación concreta del marco teórico de la investigación, en últimas instancias se logró el cometido del mismo, con ello y con ayuda de la aplicación de conocimientos previos adquiridos se presenta en este trabajo de investigación la ecuación de onda elástica en medios homogéneo y no homogéneo, que contextualizado, da la implementación de esta en sistemas geofísicos como la Tierra que se puede definir como un modelo de capas homogéneas para simplificar el problema y así dar un entendimiento mejor de lo que ocurre en el planeta cuando se produce un fenómeno físico de este tipo. Al analizar la EOE, se pueden discernir dos tipos de ondas, una que se propaga a lo largo de la dirección de propagación y otra en forma ortogonal. En términos geofísicos, la primera es llamada onda P y la segunda onda S, esta terminología se usa debido a que la onda P llega primero y la onda S llega en segundo lugar. Se puede ver que las dos velocidades son para valores positivos de  y  además, se puede observar que la onda P viaja más rápido que la onda S debido a que su numerador es mayor; además, la  EOE puede ser de gran ayuda para poder entender e interpretar el comportamiento de las ondas sísmicas, darle una posible solución y de esta forma aplicarla en la vida real y cotidiana para prever futuras utilidades de importancia verdadera.  
de la Cruz Mendez Oscar, Instituto Politécnico Nacional
Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México

CIENCIAS COMPUTACIONALES.


CIENCIAS COMPUTACIONALES.

Alvizo Pérez Néstor Primitivo, Consejo Quintanarroense de Ciencia y Tecnología. Aranda Cen Jeancarlo Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Chan Dzib Oscar Adrian, Consejo Quintanarroense de Ciencia y Tecnología. de la Cruz Mendez Oscar, Instituto Politécnico Nacional. Asesor: Dr. Marco Antonio Ramos Corchado, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

La explicación y aplicación de los simulacros en caso de emergencias en una institución educativa  genera un costo tanto monetario como de tiempo. El uso de simulacros de emergencias mediante inteligencia artificial y realidad virtual tiene beneficios económicos  y de tiempo. Este Proyecto se realizó con el motivo de realizar una simulación virtual de cómo se debería de comportar los alumnos de la Universidad Autónoma de México ante una fenómeno natural como pueden ser terremotos y poder tomar una ruta de evacuación de manera organizada, debido a que muchas personas no sabrían cómo actuar ante tales situaciones.



METODOLOGÍA

Para recrear estas situaciones de emergencias , se ha hecho simulaciones de comportamiento en un entorno  3D utilizando el software de Unity y Sketchup. Seguidamente para visualizarlo se lleva el proyecto de Unity al campo de la realidad virtual. Para esto usamos el software de Occulus y unos lentes VR Occulus rift. Como primer punto se realizo el diseño del edificio G de "Facultad e Ingenieria" en el software de Sketchup. Para ello se tomaron las medidas exteriores e interiores del edificio para hacerlo lo mas real posible.  Seguidamente  se diseñaron avatares y se les programo comportamientos, con el fin de que se simule en ambiente virtual del proposito principal del proyecto. Una vez hecho estos 2 puntos anteriores se llevo el proyecto al ambiente de realidad virtual. Y para poder visualizarlo tuvimos que tener unos lentes VR Occulus Rift que en este caso el investigador nos lo facilito.  Ya teniendo los lentes VR, al proyecto se le integran plugins necesarios para que sea reconocido por los lentes y asi poder visualizarlo en ellos.  


CONCLUSIONES

Los resultados que se obtuvieron fueron al haber creado el entorno virtual para la simulacion de emergencias virtuales. Donde los alumnos pueden entender mas rapido el como reaccionar ante estos eventos. Se espera que este proyecto optimize el tiempo y beneficios a la Universidad al momento de realizar los simulacros. Pues proteme tener exito.
de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT


CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT

Alemón Pérez Alejandro, Instituto Politécnico Nacional. de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. López Hernández Omar, Instituto Tecnológico de Estudios Superiores de Zamora. Saavedra González David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial está cada vez más acercado hacia nuestra realidad, como parte de los próximos sistemas que interactúen con nuestro mundo. Como parte de estos sistemas se encuentran los chatbots, que son sistemas con los que podemos llevar una conversación e interactuar. No obstante, el desarrollo actual de los chatbots no llega a permitir una interacción más natural ya que no cuenta con el suficiente procesamiento del lenguaje natural con el usuario que necesita de ellos, además de que en el país se cuentan con pocos que cubran necesidades y las hagan más sencillas. Por lo que se pretende crear un sistema conversacional el cual sea inteligente y que ayude en ciertas tareas cotidianas donde pueda comunicarse de manera hablada para mejorar la manera en la que se relaciona el usuario y el sistema, para introducir cada vez más con tecnología de este tipo y sentar las bases para otros nuevos proyectos.



METODOLOGÍA

Para poder comenzar a trabajar con un chatbot los elementos de un chatbot, nos familiarizamos con el tema e interactuamos con chatbots ya creados para conocer su funcionamiento. Como primer punto de partida en programación trabajamos en realizar ejemplos de chatbots en servicio web, creando nuestra propia inteligencia usando el lenguaje AIML y fueron puestos a prueba por varios usuarios, la temática fue muy fácil para el usuario donde el objetivo principal era comprar frutas. Posteriormente realizamos ejemplos de chatbots usando chatvoice, decidimos programar varios temas de chatbot, después de una evaluación de 30 ideas iniciales solo elegimos dos los cuales se describirán a continuación: HAUNTER Haunter es un Chatbot diseñado en las personas que buscan una herramienta que les facilite conseguir un empleo, pero que aun tengan dudas de como realizar su currículum vitae, Haunter le realiza una serie de preguntas en cuanto a sus datos personales, historial académico, historial de empleos, aptitudes y habilidades técnicas. Cuando termina la conversación Haunter genera el documento dando un diseño del currículum donde el usuario solo tiene que introducir su fotografiá. Haunter también pregunta si desea realizar una simulación sobre una entrevista de trabajo, en esta simulación Haunter tiene una charla con el usuario como si fuera cuestionado por un reclutador, es por ello que fue diseñado para adquirir experiencia en cuanto realice una entrevista real. DenunciaBot La inseguridad cada vez es mas común para muchas personas en la ciudad de México y la mayoría de los robos realizados no tienen ninguna denuncia es por ello y estando consciente de ello se decidió realizar un chatbot para ayudar a las personas a realizar una denuncia. DenunciaBot a través de un pequeño cuestionario donde el usuario narra los hechos y dependiendo lo robado da recomendaciones para que el usuario este informado de lo que tiene que hacer en caso de un asalto o robo. Fueron desarrollados en el lenguaje de programación Python ya que es un lenguaje de programación procedural con una sintaxis muy limpia. Además tiene una gran cantidad de recursos que lo han convertido en uno de los lenguajes de programación predilecto entre programadores. También esta desarrollado YAML que contiene un formato para guardar objetos con estructura de árbol; nos familiarizamos con el lenguaje de programación conociendo primeramente aspectos generales como tipos de datos, declaración de variables, estructuras de datos, ejecución, formas de control, módulos, funciones, archivos de texto para lectura y escritura, excepciones y algunas funciones extras. Los chatbots estan funcionando en Linux y Anaconda como entorno de desarrollo en Windows.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del chatbot y chatvoice. Se cumplieron los objetivos propuestos al iniciar la estancia de investigación. Se administró correctamente el tiempo para su realización. El material de apoyo proporcionado por el profesor fueron de gran utilidad. Se aplicaron y reafirmaron los conocimientos adquiridos en nuestras respectivas universidades.
de la Lima López Julio Cesar, Instituto Tecnológico de Colima
Asesor: Dr. Federico Lecumberry Ruvertoni, Universidad de La República (Uruguay)

DETECCIóN AUTOMáTICA DE REGISTROS DE CONSUMO ANóMALOS EN LA RED DE MEDIDORES INTELIGENTES DE UTE


DETECCIóN AUTOMáTICA DE REGISTROS DE CONSUMO ANóMALOS EN LA RED DE MEDIDORES INTELIGENTES DE UTE

de la Lima López Julio Cesar, Instituto Tecnológico de Colima. Asesor: Dr. Federico Lecumberry Ruvertoni, Universidad de La República (Uruguay)



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial (IA) es una disciplina académica relacionada con la teoría de la computación cuyo objetivo es emular algunas de las facultades intelectuales meramente humanas en sistemas artificiales. La inteligencia humana es un proceso de percepción sensorial entre los que destaca el reconocimiento de patrones, por lo que la inteligencia artificial es usualmente aplicada en el tratamiento de datos y en la identificación de sistemas. La Inteligencia Artificial está compuesta por varios campos, como la robótica, los sistemas expertos y ortos, con el objetivo de construir maquinas que sean capaces de pensar por sí solas, lo que origina que hasta la fecha existan varios estudios y aplicaciones, dentro de las que se encuentran las redes neuronales, el control de procesos o los algoritmos genéticos. Las redes neuronales son programas que forman parte de la IA capaces de simular funciones de aprendizaje propias del ser humano. Una red neuronal puede obtener experiencia analizando de manera automática y sistemáticamente los datos para determinar las reglas de comportamiento y, con base a ellas, realizar predicciones sobre nuevos casos. La industria energética es un campo altamente susceptible a la aplicación de técnicas de IA que permitan automatizar procesos complejos a través de sistemas avanzados. Durante la estancia de investigación se buscó la solución óptima a un problema relacionado con la detección de pérdida de energía en un sistema eléctrico. Uruguay se encuentra dentro de los diez países en América Latina con mayor pérdida de energía a niveles de distribución con un 17% de pérdidas. El proyecto se enfoca en las Pérdidas No Técnicas. Existe a su vez una importante subdivisión de las Pérdidas No Técnicas: las conexiones irregulares en predios sin acuerdo de servicio eléctrico activo, y las intervenciones en los sistemas de medición asociadas con acuerdos de servicio vigentes. Estas modalidades se conocen como hurto y fraude respectivamente. El objetivo principal de la pasantía es desarrollar algoritmos de aprendizaje máquina que permitan probar nuevas técnicas y colaboren al objetivo del proyecto: Reducir las pérdidas no técnicas mediante la detección automática de registros de consumo anómalos en la red de medidores de UTE.



METODOLOGÍA

El método de investigación implementado fue analítico puesto que la investigación se centró en desglosar las secciones que conformaban la totalidad del problema, establecer las relaciones de causa, efecto y naturaleza y finalmente diseñar la solución al mismo. A partir de los datos analizados provenientes de fuentes externas a la Universidad fue necesario llevar a cabo un análisis entre los tipos de fraude más comunes que se dan en los distintos departamentos de Uruguay y, posterior a ello, diseñar algoritmos capaces de generas elementos sintéticos descriptivos de cada tipo de fraude. A partir de la generación sintética de los fraudes, se implementaron algoritmos de inteligencia artificial para la detección de los fraudes de manera automática. Se generó una base de recuperación y se diseñaron nuevas metodologías que mejorasen los resultados obtenidos inicialmente.


CONCLUSIONES

A partir de los resultados que arrojó la red neuronal convolucional y las mejoras implementadas a través de la evolución de los algoritmos, se puede deducir lo siguiente: Es importante que la cantidad de datos de entrenamiento sea de gran volumen puesto que puede garantizar el aprendizaje correcto de la red. Los huecos de información en el conjunto de datos repercutían de manera directa en el resultado de esta y derivaban en predicciones desiguales con tendencias parecidas a las esperadas, pero magnitudes diferentes. Utilizar redes neuronales convolucionales para la predicción de fraudes resulta ser una gran alternativa, sin embargo, es necesario profundizar más en la arquitectura de la red.
de León Pérez Omar Eduardo, Instituto Tecnológico de Toluca
Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)

DEVOPS COMO METODOLOGíA PARA INTERNET DE LAS COSAS E INDUSTRIA 4.0


DEVOPS COMO METODOLOGíA PARA INTERNET DE LAS COSAS E INDUSTRIA 4.0

de León Pérez Omar Eduardo, Instituto Tecnológico de Toluca. Zendejas López Alfonso, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El internet de las cosas (IoT, por sus siglas en inglés) es un sistema de dispositivos de computación interrelacionados, máquinas mecánicas y digitales, objetos, animales o personas que tienen identificadores únicos y la capacidad de transferir datos a través de una red, sin requerir de interacciones humano a humano o humano a computadora. Una cosa, en el internet de las cosas, puede ser una persona con un implante de monitor de corazón, un animal de granja con un transpondedor de biochip, un automóvil que tiene sensores incorporados para alertar al conductor cuando la presión de los neumáticos es baja, o cualquier otro objeto natural o artificial al que se puede asignar una dirección IP y darle la capacidad de transferir datos a través de una red. Debido a que conectar diversos dispositivos a internet, esto tiene como limitante la conexión de las áreas porque el Internet de las cosas es una combinación de todas las áreas, lo cual puede presentarse como el fracaso del proyecto. Se busca probar la metodología de DevOps para determinar sus beneficios y ventajas ante otras opciones. Además de determinar las mejores herramientas para el desarrollo de ésta.



METODOLOGÍA

La metodología utilizada en este proyecto es DevOps pues en esto se basa la investigación completa. DevOps se trata de procesos de desarrollo y aprovisionamiento de negocios rápidos y flexibles. Integra de manera eficiente el desarrollo, la entrega y las operaciones, lo que facilita una conexión fluida y magra de estos silos tradicionalmente separados.  DevOps prioriza el trabajo como una sola entidad en lugar de trabajarlo por áreas separadas, de tal manera que todas las funciones estén trabajando entrelazadas como un cambio organizativo de información. Se puede definir directamente como una colaboración entre desarrollo, control de calidad y las operaciones. Así configuran solo la entrega continua de pequeñas actualizaciones Así, esta metodología propone los principios necesarios para integrar las distintas áreas que están cerca de la Industria 4.0. Se ha hecho una investigación sobre los principios básicos de esta metodología. Se ha realizado una investigación sobre las herramientas existentes que puedan apoyar a esta metodología, además de descubrir sus etapas y sus diferencias. Posteriormente se generaron pruebas de Docker y Kubernetes en sistema operativo MacOS para comprender mejor el uso de las herramientas utilizadas.


CONCLUSIONES

No existe una herramienta que sea en definitiva la mejor para el trabajo. La decisión sobre la mejor opción recae en las necesidades del equipo de trabajo.  Después de detenernos a revisar las herramientas existentes y lo que un ingeniero de nuestra área deberá realizar hemos llegado a la conclusión de que Jenkins y Docker son la mejor opción, no sólo porque ya está el soporte para estas dos plataformas, sino porque se llevan a la perfección juntas, además, grandes proyectos y empresas las utilizan porque son de las mejores opciones de código abierto. Existe la opción de kubernetes, sin embargo, para llevar a cabo kubernetes se necesita comprender una arquitectura más completa, pues este contenedor se basa en la implementación y aunque no debes pensar en cómo albergarla, sí se debe establecer completamente antes de trabajarla, así que deberíamos adecuarlo al proyecto. Al usar Docker ya se adapta directamente a Jenkins y también queda perfecto para los microservicios. Y con estas dos herramientas se llevan a cabo la mayor parte de las tareas del revólver del modelo trabajo de DevOps. Precisamente uno de los aspectos que se debe buscar a la hora de trabajar con herramientas de DevOps, es la integración entre ellas porque eso permitirá que el ambiente de trabajo sea más eficiente y óptimo para el desarrollo de software y la entrega e integración continua de las aplicaciones.
de los Santos Ramos Constantino, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango

LABORATORIO VIRTUAL DE SISTEMAS SUBACTUADOS


LABORATORIO VIRTUAL DE SISTEMAS SUBACTUADOS

de los Santos Ramos Constantino, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo se propone el desarrollo de un Laboratorio Virtual de los Sistemas subactuados, que permita a los usuarios realizar prácticas de laboratorio de forma virtual, en un ambiente interactivo y mucho más próximo a la realidad para reforzar sus conocimientos en el área de sistemas dinámicos y control que son consideradas la base de la ingeniería Mecatrónica. 



METODOLOGÍA

La aplicación propuesta se denomina Laboratorio Virtual de Sistemas Subactuados el cual consiste en un laboratorio virtual interactivo. Las simulaciones del laboratorio fueron hechas con la herramienta Simulink-MATLAB y la representación de la simulación se hizo con el Toolbox de realidad virtual de MATLAB (tecnología VRML Virtual Reality Modeling Language). La aplicación cuenta con una introducción general de los sistemas subactuados y con sus respectivas simulaciones. La introducción de estos laboratorios responde a la explicación del fenómeno físico de los sistemas, cada simulación se presenta en una ventana realizada con GUIDE MATLAB que le permite al usuario capturar los datos deseados para la simulación y las conclusiones muestran el análisis físico- matemático del modelo simulado. Las salidas mostradas tras la ejecución de cada laboratorio son: Un diagrama del modelo implementado en el Simulink y una ventana de realidad virtual en el que se muestra el fenómeno físico simulado.


CONCLUSIONES

En este trabajo se presentaron los avances del desarrollo de una plataforma de simulación virtual-experimental que permite realizar tareas de validación de sistemas subactuados. Los laboratorios virtuales le permiten al usuario realizar las prácticas de una forma lo más similar posible a como si estuviese en el laboratorio tradicional, lo que ayuda a comprender el fenómeno estudiado antes de su realización analítica. La implementación de este software en MATLAB permite la simulación de cualquier modelo matemático independientemente del nivel de complejidad que pueda tener e insertarlo en un ambiente de realidad virtual de forma natural.
del Castillo Aguirre Misha Jessica, Instituto Politécnico Nacional
Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato

AUTOMATIZACIóN DE BRAZO ROBóTICO PARA USO EDUCATIVO


AUTOMATIZACIóN DE BRAZO ROBóTICO PARA USO EDUCATIVO

del Castillo Aguirre Misha Jessica, Instituto Politécnico Nacional. Duran Santana Miguel Alexandro, Universidad de Colima. Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de material didáctico en las materias tecnológicas es de suma importancia para que los estudiantes se sientan interesados en el área de ingeniería, sin embargo, es muy poco el material que realmente es capaz de promover y atraer a los alumnos. Ante esta problemática, se realizó el presente proyecto, que tiene como objetivo automatizar y adaptar un brazo robótico, de tal forma que sea una herramienta de gran utilidad para mostrar a los jóvenes la importancia y la aplicación del desarrollo tecnológico en cualquier contexto, así mismo inspirarlos para contribuir a dicho desarrollo.  



METODOLOGÍA

Investigación Primero se revisó la teoría del análisis y control de robots, con el objetivo de construir la cinemática directa a partir de los parámetros de Denavit Hartenberg, con el objetivo de conocer los valores articulares del manipulador y de esta manera controlarlo mediante su posición en grados. Posteriormente se procedió a realizar programación del control del robot con un PIC, conectándolo con un módulo bluetooth para poder controlar el brazo de forma remota, también se revisó el funcionamiento de los servomotores para poder posicionar los eslabones del brazo, se realizó una aplicación para teléfonos Android a través de App Inventor y Android Studio, lo cual es la interfaz de control del proyecto.   Aplicación en App Inventor Se desarrollo una aplicación sencilla en App Inventor con la finalidad de solo realizar pruebas, donde en dicha aplicación fue modificada repetidas veces con la finalidad de poder realizar una buena comunicación y envío de datos hacia el módulo bluetooth.   Pruebas con el PIC y modulo bluetooth Se utilizaron herramientas virtuales que permitieron la elaboración del circuito necesario para el funcionamiento del PIC y el módulo bluetooth, el cual fue simulado en Proteus, de modo que se pudieran comenzar a hacer pruebas con ellos. En dichas pruebas se realizó la comunicación entre el PIC y el módulo bluetooth, y se hicieron varias pruebas con leds. Una vez hecho lo anterior se realizaron pruebas con un servomotor para observar si este respondía correctamente a los comandos, y posteriormente se modificó el programa en el PIC para que los motores respondieran al enviarle grados.   Análisis de Movimientos. Una vez realizadas las pruebas se procedió a montar el circuito en conjunto con la estructura del brazo, y se comenzó a manipular mediante la aplicación para poder observar los movimientos que realizaba. Posteriormente se tuvieron que realizar diversas modificaciones a la estructura original con la intención de que el brazo estuviera colocado en la posición correcta de acuerdo con los grados ingresados en la aplicación. Con la información obtenida de la cinemática directa y los parámetros de Denavit Hartenberg, se realizó un programa en MATLAB que permitía verificar los movimientos realizados por el robot al momento de introducir los grados, esto con el objetivo de comprobar que el ángulo ingresado concordara con la posición del manipulador.   Fuente de alimentación Como fuente de alimentación se utilizó un cargador de laptop, el cual tenía demasiado voltaje comparado con el que necesitan los motores y circuito del brazo, así que se procedió a elaborar un circuito extra, el cual su función era reducir y manipular el voltaje, para cumplir con las necesidades del brazo.   Circuito en PCB Una vez concluido el circuito reductor de voltaje, y el circuito que necesita el PIC, se elaboraron los circuitos en PCB con la finalidad de poder tener un circuito compacto y fácil de transportar, sin temor a que algo se desconectara, y pudiera ser almacenado en una caja donde estarían todos los cables y conexiones del robot.   Aplicación en Android Studio Se estuvo trabajando con la aplicación en Android Studio de manera paralela con las demás actividades, con la finalidad de poder desarrollar una aplicación más amigable, formal, y fácil de usar para el usuario.  


CONCLUSIONES

El uso de herramientas virtuales, así como la previa investigación, permitieron el desarrollo del presente proyecto, pues gracias a los conocimientos adquiridos con anterioridad así como los desarrollados, fue posible presentar de manera funcional un equipo que es capaz de ser una herramienta de aprendizaje para los jóvenes, pues su diseño y modo de operación es fácil de usar y engloba temas comprensibles para el que lo usa, es decir que claramente se puede observar el control de movimientos, la operación de los motores, la comunicación remota, etc. Además, que se presenta como una oportunidad para futuros proyectos y trabajos en el área de robótica, de automatización y control, electrónica, etc. De esta manera, el producto se presenta como un potencial material educativo para el área tecnológica.  
Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Delgadillo Trinidad Andrea Amayrani, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas

GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.


GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.

Delgadillo Trinidad Andrea Amayrani, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Garcia Valente Osvaldo, Universidad Autónoma del Estado de México. Zabala Rodarte Jonsi Esmeralda, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad sus mecanismos de promoción y difusión con las que cuentan no hace posible extender información a posibles visitantes, pues únicamente hacen publicidad mediante agencias de viaje en los cuales no es posible extender mucho el contenido. También se observó la ausencia de cocina tradicional, puesto que el restaurante ofrece exclusivamente platillos convencionales, dejando de lado aquellos que ayudarían a reforzar su identidad y hacer más genuina la experiencia de los visitantes. Asimismo, es importante mencionar que no existe mayor oferta de actividades, con la finalidad de que los visitantes que lleguen pasen más tiempo realizando diferentes actividades y que incluso tengan la necesidad de pernoctar en el lugar para continuar disfrutando de este.  



METODOLOGÍA

El proyecto busca generar una propuesta para el aprovechamiento racional de los recursos de la Cascada Velo de Novia en la comunidad anexo el Sabinal de Socoltenango, Chiapas; tomando en cuenta como referencia general sus potenciales naturales, culturales y su valor ancestral como destinos turístico de naturaleza. Para ello, se realizó una investigación de carácter cualitativo, la cual consistió en la realización de una entrevista al C. Orlando López Aguilar, uno de los encargados del centro ecoturístico Cascada Velo de Novia para conocer a profundidad la historia del proyecto, organización, y el contexto actual que ayudó a comprender y poder analizar los problemas a los cuales se enfrenta esta cooperativa. El trabajo de campo realizado en el sitio, se apoyó directamente de un instrumento de investigación conocido como guía de entrevista semiestructurado.  


CONCLUSIONES

El turismo es una actividad económica creciente en México y el estado de Chiapas es un destinos turístico del Mundo Maya con atractivos naturales para ser aprovechados turísticamente. Con una gestión responsable, esta actividad contribuye a la difusión de esta riqueza natural como lo es Cascada Velo de Novia y a la vez generar ingresos, beneficiando a la comunidad de Socoltenango. En este sentido, es necesario mejorar y planificar las estrategias de marketing para tener un mayor alcance en la difusión. También es importante la implementación de diversas actividades que logren que el turista permanezca más tiempo dentro del centro ecoturístico y que tenga la necesidad de pernoctar en el. Del mismo modo, es importante el cuidado de los recursos naturales y este puede ser más efectivo mediante la aplicación de un estudio de capacidad de carga, que fomentará la conservación del patrimonio natural. Los centros ecoturísticos son una alternativa altamente viable para las comunidades locales y una forma diferente de destinos para el turista, sin embargo, esta debe ser vigilada o supervisada para la aplicación de las normas de sustentabilidad de los destinos, en particular la NMX:133 requisitos y especificaciones de sustentabilidad para el ecoturismo, para que no se atente con el lugar por un abuso de uso.  
Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Delgado Fuentes Eduardo, Instituto Tecnológico de Iguala
Asesor: Mtro. Sergio Ricardo Zagal Barrera, Instituto Tecnológico de Iguala

DESARROLLO DEL MóDULO DE CONSULTAS Y GENERACIóN DE DATOS Y GRáFICOS ESTADíSTICOS PARA LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITI.


DESARROLLO DEL MóDULO DE CONSULTAS Y GENERACIóN DE DATOS Y GRáFICOS ESTADíSTICOS PARA LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITI.

Delgado Fuentes Eduardo, Instituto Tecnológico de Iguala. Soto Aguilar Luis Angel, Instituto Tecnológico de Iguala. Asesor: Mtro. Sergio Ricardo Zagal Barrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El Instituto Tecnológico de Iguala cuenta con una matrícula aproximada de 1412 estudiantes, y una plantilla de personal de aproximadamente de 108 trabajadores entre docentes, directivos y personal administrativo, siendo que la problemática de acceso a la información y el manejo de las bases de datos del Sistema Integral de Información (SII) se ha complicado derivado de la cantidad de datos que se almacenan en el mismo, por tal motivo en este trabajo se realizara:   Análisis de los datos correspondientes a la carrera de Ingeniería en Sistemas Computacionales.   En referencia a las cohortes generacionales del 2013 al 2018, realizar el análisis por semestre, materia, de los indicadores solicitados por los organismos públicos.   Desarrollo de un módulo que permita validar datos, agruparlos, distribuirlos y evaluar sus desviaciones y variaciones.



METODOLOGÍA

El modelo incremental de gestión de proyectos tiene como objetivo un crecimiento progresivo de la funcionalidad. Es decir, el producto va evolucionando con cada una de las entregas previstas hasta que se amolda a lo requerido por el cliente o destinatario. Este enfoque, que se usó inicialmente para proyectos de software aunque más tarde se aplicó a otros sectores, establece entregas parciales mediante un calendario de plazos. En cada una de ellas, el producto debe mostrar una evolución con respecto a la fecha anterior; nunca puede ser igual. Una de las claves para que esto se haga efectivo es la evaluación de las etapas. Los responsables del proyecto deben analizar si los resultados parciales son los esperados y si, sobre todo, apuntan al objetivo principal. De no ser así, deberán intervenir en él e implementar las soluciones que la situación requiera. El modelo de gestión incremental no es un modelo necesariamente rígido, es decir, que puede adaptarse a las características de cualquier tipo de proyecto, existen al menos 7 fases que debemos tener en cuenta a la hora de implementarlo:     Requerimientos: son los objetivos centrales y específicos que persigue el proyecto.   Definición de las tareas y las iteraciones: teniendo en cuenta lo que se busca, el siguiente paso es hacer una lista de tareas y agruparlas en las iteraciones que tendrá el proyecto. Esta agrupación no puede ser aleatoria. Cada una debe perseguir objetivos específicos que la definan como tal.   Diseño de los incrementos: establecidas las iteraciones, es preciso definir cuál será la evolución del producto en cada una de ellas. Cada iteración debe superar a la que le ha precedido. Esto es lo que se denomina incremento.   Desarrollo del incremento: posteriormente se realizan las tareas previstas y se desarrollan los incrementos establecidos en la etapa anterior.   Validación de incrementos: al término de cada iteración, los responsables de la gestión del proyecto deben dar por buenos los incrementos que cada una de ellas ha arrojado. Si no son los esperados o si ha habido algún retroceso, es necesario volver la vista atrás y buscar las causas de ello.   Integración de incrementos: una vez son validados, los incrementos dan forma a lo que se denomina línea incremental o evolución del proyecto en su conjunto. Cada incremento ha contribuido al resultado final.   Entrega del producto: cuando el producto en su conjunto ha sido validado y se confirma su correspondencia con los objetivos iniciales, se procede a su entrega final.


CONCLUSIONES

La participación dentro del programa del verano científico sirvió de experiencia en la búsqueda de información adecuada para poder llevar a cabo cada uno de los puntos requeridos para el módulo de consultas y así tener más conocimientos acerca de las herramientas utilizadas para realizar dicho proyecto. El módulo de consultas y generación de datos y gráficos estadísticos se llevó de la manera más eficaz, elaborando cada una de las bases de datos para el funcionamiento del sistema, tomando en cuenta cada una de las materias, además de haber cumplido con todos los puntos requeridos que nos permitan la vinculación de los datos para el modelado de la interfaz gráfica de usuario, y poder realizar las acciones que garanticen el funcionamiento del módulo de consultas y también Implementar el modo prueba con la finalidad de detectar posibles fallas o errores para poder atenderlas. Durante el desarrollo del proyecto se pusieron en práctica los conocimientos adquiridos dentro de la carrera como la elaboración de bases de datos, para poder Hacer el módulo y de igual manera hacer consultas dentro de la misma.   Recomendaría que al sistema se le hicieran algunas mejoras en la parte grafica para que se vea más concreto, así también que la base de datos tuviera una opción de archivos históricos para después consultarlos y poder utilizar, Incluir otros indicadores, de igual manera que se amplíen los estadísticos y que se mantenga una conexión directa para hacer envíos a correos electrónicos.   Se reforzaron los conocimientos acerca de los modelos de desarrollo de software además de la implementación de bases de datos, de igual manera el manejo de HTML5.
Deniz Hernandez Yael Armando, Universidad de Colima
Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla

DESARROLLO DE TECNOLOGíA PARA MONITOREO VOLCáNICO Y AMBIENTAL


DESARROLLO DE TECNOLOGíA PARA MONITOREO VOLCáNICO Y AMBIENTAL

Deniz Hernandez Yael Armando, Universidad de Colima. Pérez Monzón David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estado de Puebla es atravesado por cinco fallas, de las cuales las más importantes son: Popocatépetl-Chignahuapan, Malinche y Atoyac-Minas. De acuerdo con lo antes mencionado es evidente que la actividad sísmica en la zona es debido a movimientos tectónicos, acomodamiento de la corteza y vulcanismo. Debido esto y con la intención de monitorear los distintos volcanes activos en la república mexicana, la Universidad Popular Autónoma del Estado de Puebla (UPAEP) en conjunto con el Centro Nacional De Prevención De Desastres (CENAPRED) ha comenzado diversos proyectos enfocados al desarrollar nuevas tecnologías que mejoren los procesos de monitoreo volcánico con los objetivos de la prevención de desastres naturales, entender mejor esta clase de fenómenos y en un futuro desarrollar tecnología espacial para este ámbito.



METODOLOGÍA

Para el desarrollo de estas tecnologías, la estancia realizada este verano en la UPAEP tuvo como principal objetivo el programar equipos de medición y sensores que se utilizan en sistemas aeronáuticos para la recolección de datos ambientales o como sistema de localización. En la primera etapa de la estancia se trabajó con el lenguaje de programación Arduino. Con él se escribió el código para dos instrumentos de monitoreo ambiental, el sensor de Presión ASD2511 y el de humedad/temperatura ASD2511, instalados como carga útil en una sonda meteorológico lanzado el pasado 26 de junio del presente año. El software fue modificado para que la recolección de datos se realizara cada milisegundo y su almacenamiento fuese en archivos compatibles con Excel, Python ó Matemathica para su posterior manejo. El tercer instrumento programado en esta etapa fue una unidad de medición inercial o IMU (del inglés inertial measurement unit) que se encargó de monitorear la orientación y aceleración de la sonda en cada milisegundo del lanzamiento. A estos tres dispositivos se les agregó un reloj RTC. Y se sincronizaron con el tiempo universal coordinado. El archivo que contiene la información recolectada por los sensores indica fecha, hora y la medición tomada. Posteriormente se trabajó en la programación de un sistema GPS piloto que fue instalado en la sonda metrológica para registrar los datos de localización, altura y fecha durante el vuelo. Para esto se utilizó una placa Arduino Nano que fue conectado a un GPS XA1110 y SD shield. Los datos se almacenaron para su lectura en Excel. El archivo indica fecha, hora, coordenadas, altura y número de satélites conectados. Como etapa secundaria del proyecto se diseñó un sistema de detección sísmica básico utilizando un Acelerómetro tipo 10 DOF MEMS y el microprocesador Raspberry Pi 3. El sistema se programó utilizando el lenguaje Python 3. El código del sistema fue configurado para obtener y graficar en tiempo real los valores de aceleración en un sistema coordenado de tres ejes indicando fecha, hora y la magnitud de la aceleración obtenida en cada dirección. Este dispositivo de monitoreo se probó durante el lanzamiento del dron entrenador y se planea ser instalado en los próximos campamentos de monitoreo vulcanológico para la detección y medición de sismos. También se programó una estación climatológica básica utilizando nuevamente el lenguaje Arduino. Agregando un sistema GPS NEO-M8P-2 de localización. La información recolectada por la estación (Fecha, hora, coordenadas, altitud, dirección y velocidad del viento) será utilizada para planificar los próximos lanzamientos y predecir las trayectorias de las sondas meteorológicas encargadas del monitoreo del Popocatépetl. Por último, se realizó el ensamblaje de un Dron Skywalker Falcon que posteriormente pasó a pruebas de vuelo. El objetivo de aprender a pilotear este sistema es implementar vehículos aéreos no tripulados para el estudio científico del comportamiento de los volcanes activos en el país. Los dispositivos que se obtenga durante el desarrollo estas tecnologías de monitoreo ambiental se planean implementar en estados donde hay gran actividad volcánica y sísmica pero que aún no cuentan con las herramientas necesarias para el constante análisis del fenómeno.


CONCLUSIONES

A lo largo de esta estancia de investigación adquirimos conocimientos teóricos de varias ramas de la ingeniería y ciencias exactas, además de ponerlos en práctica con el desarrollo de los diferentes dispositivos realizados. La tecnología desarrollada será de gran ayuda gracias que es de bajo costo y puede ser replicada fácilmente. Los valores registrados por todos estos instrumentos se usarán para la predicción y planificación de trayectorias en futuros lanzamientos de sondas meteorológicos y vuelos de drones para monitoreo ambiental, además de facilitar el monitoreo volcánico y ambiental. Al ser un extenso trabajo aún se encuentran en la fase de prototipos y no se pueden mostrar los datos obtenidos debido a que hacen falta correcciones.
Diarte Camacho Arcelia, Universidad Autónoma de Occidente
Asesor: Dr. Genaro Diarte Plata, Instituto Politécnico Nacional

EFECTO DEL PARáSITO OCTOLASMIS SOBRE EL CRECIMIENTO DE LAS JAIBAS DEL GENERO CALLINECTES SP EN EL NORTE DE SINALOA


EFECTO DEL PARáSITO OCTOLASMIS SOBRE EL CRECIMIENTO DE LAS JAIBAS DEL GENERO CALLINECTES SP EN EL NORTE DE SINALOA

Diarte Camacho Arcelia, Universidad Autónoma de Occidente. Asesor: Dr. Genaro Diarte Plata, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los crustáceos decápodos constituyen uno de los principales grupos zoológicos de los ecosistemas acuáticos. Dentro de los portúnidos se encuentran la jaiba azul Callinectes arcuatus y la jaiba café Callinectes bellicosus las cuales habitan las costa del océano Pacífico. Ademas, constituyen un recurso de gran importancia desde el punto de vista acuícola y pesquero, tanto por el volumen de su producción mundial, como por el valor de la misma. El parasito que se encuentra en las jaibas es de la especie octolasmis sp este organismo tiene un tallo llamado pedúnculo y un capítulo, que generalmente está protegido por una concha de piedra caliza. El pedúnculo o pedúnculo es alargado, anterior, en zona preoral del cuerpo. Este organismo puede reproducirse en un hermafrodita o género separado.



METODOLOGÍA

Se fijaron estaciones de muestreo. Se realizaron lances de trampas de tipo aro jaibero (40). Se conservaron organismos en hielo para su transporte a laboratorio. En el laboratorio se identificaron las especies de jaiba. Se disectaron los organismos para la busqueda de parasitos. Se identifico el parasito hasta el genero Octolasmis sp. Se analizaron los datos.


CONCLUSIONES

Se encontraron diferencias significativas en el crecimiento de los organismos infestados y no infestados de las jaibas del genero Callinectes. 
Díaz Campaña Akira David, Instituto Tecnológico de Culiacán
Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California

IMPLEMENTACIóN DE UN AMBIENTE VIRTUAL PARA UN GUANTE HáPTICO.


IMPLEMENTACIóN DE UN AMBIENTE VIRTUAL PARA UN GUANTE HáPTICO.

Díaz Campaña Akira David, Instituto Tecnológico de Culiacán. Salas Medina Raúl Alfredo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Personas que sufren algún accidente cerebrovascular tienen secuelas, las cuales limitan el movimiento de alguna extremidad total o parcialmente. A pesar de ello, la plasticidad  del cerebro humano es capaz de recobrar gran porcentaje de movilidad en el área afectada, lo cual puede ser logrado por medio de terapias de rehabilitación [1]. El principal problema en torno a los modelos de rehabilitación motora que existen actualmente es la inaccesibilidad que pueden presentar dichos modelos comerciales para las personas de nuestra sociedad, siendo las cuestiones económicas los principales impedimentos que niegan el acceso a ellas [2, 3]. Dichas terapias de rehabilitación deberán de ser inmersivas y fáciles de usar Además es altamente recomendable que los sistemas diseñados sean validados clínicamente. El objetivo de este proyecto de investigación es diseñar e implementar un ambiente virtual para un prototipo de un guante háptico de bajo costo  que pueda utilizarse en terapias de rehabilitación de la mano.



METODOLOGÍA

En el proyecto trabajamos con  un exoesqueleto mecánico de tipo guante, diseñado previamente por compañeros del Instituto Tecnológico de Oaxaca para  apoyar el movimiento de flexión y extensión de los dedos pulgar e índice. El prototipo incluye una placa Arduino, sensores de flexión, un acelerómetro para conocer la orientación del guante y micromotores para simular el efecto háptico. La primera parte del trabajo consistió en establecer la comunicación entre el Arduino y el ambiente de desarrollo Unity [4] a través del puerto serial. El diseño del ambiente virtual está compuesto por una mano virtual donde se representan los movimientos que el usuario realiza, así como un cubo y una pequeña caja con los que el usuario interactúa a través de un pequeño ejercicio donde se toma el cubo y se mueve de lugar para ser depositado en un agujero. La interfaz gráfica cuenta también con tres botones: los dos primeros se usan para medir los parámetros de cada usuario correspondientes a los límites de apertura de la mano, y hacer de el uso del ambiente virtual una experiencia personalizada; el último botón es un reset, que como su nombre lo indica, reinicia toda la escena una vez que el cubo es depositado en el agujero, para que el ejercicio sea realizado de nuevo cuantas veces sean necesarias. Dependiendo de las interacciones del usuario con el ambiente virtual, se generarán ciertos valores que serían enviados a través del puerto serial como datos de salida a la placa Arduino para poder obtener una respuesta física a replicar en el usuario y así realizar el efecto háptico deseado.


CONCLUSIONES

Al concluir la estancia se adquirieron conocimientos considerables en el manejo del motor gráfico utilizado, así como del lenguaje de programación en el que se trabajó, que fue C#. Dichos conocimientos nos permitieron lograr la creación de un ambiente virtual háptico funcional.  El ambiente virtual funciona a partir de diferentes conversiones que se realizan en el sistema para estandarizar los movimientos que se despliegan en la pantalla y que toma en cuenta las limitaciones del sistema mecánico. Como trabajo futuro, sugerimos rediseñar tanto el ambiente virtual como el  exoesqueleto, de tal forma que incorporen las sugerencias de los terapeutas y especialistas en rehabilitación.    Referencias: [1] B. H. Dobkin, Rehabilitation after stroke The New England Journal of Medicine, vol. 352, p. 1677-1684, April 2001. [2] A. Darekar, B. J. McFadyen, A. Lamontagne, and J. Fung, Efficacy of virtual reality-based intervention on balance and mobility disorders post-stroke: a scoping review, Journal of Neuro Engineering and Rehabilitation, vol. 12, No. 46,pp. 1-14, December 2015. [3] A. Turolla, M. Dam, L. Ventura, P. Tonin, M. Agostini, C. Zucconi, P. Kiper, A. Cagnin, and L. Piron, Virtual reality for the rehabilitation of the upper limb motor function after stroke: a prospective controlled trial, Journal of Neuro Engineering and Rehabilitation, vol. 10, No. 85, pp. 1-9, December 2013. [4]Unity User Manual (2019.1), 2019. [En linea] Disponible: https://docs.unity3d.com/es/530/Manual/UnityManual.html [Accedido: 29-jul-2019]      
Diaz Olmos Daniela Alejandra, Instituto Tecnológico Superior de Guanajuato
Asesor: Ing. Daniel Martinez Rodriguez, Instituto Tecnológico Superior de Guanajuato

GUíA DEL ESTUDIANTE PARA EL ESTUDIANTE. LAS 7 HERRAMIENTAS BáSICAS DE LA CALIDAD


GUíA DEL ESTUDIANTE PARA EL ESTUDIANTE. LAS 7 HERRAMIENTAS BáSICAS DE LA CALIDAD

Arredondo Palafox Beatriz Adriana, Instituto Tecnológico Superior de Guanajuato. Diaz Olmos Daniela Alejandra, Instituto Tecnológico Superior de Guanajuato. Asesor: Ing. Daniel Martinez Rodriguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de los puntos mas importantes en el control de calidad es el control basado en hechos reales y no en la experiencia, el sentido común y la audacia. Para poder asegurar nuestra calidad y la satisfacción del cliente, es necesario identificar las variables que determinan la calidad del proceso o características de calidad y luego determinar el estado de dichas variables a través de datos. La calidad es una herramienta básica para el desarrollo de los procesos y juega uno de los roles importantes dentro de la industria en el desarrollo, diseño, elaboración y mantenimiento de los procesos, servicios, productos, etc., para que sea el más económico, el más útil y siempre satisfactorio para el consumidor. Es un factor imprescindible en el desarrollo del perfil y formación profesional del Ingeniero industrial, es así, que es de vital importancia brindarle al estudiante las herramientas necesarias para su integración y desarrollo en el entorno que le aguarda como ingeniero industrial, siendo una de estas las siete herramientas básicas de la calidad, que son un conjunto de técnicas gráficas de gran utilidad para identificar problemas específicos, por lo tanto, es importante plantear una guía de estas técnicas que le permita al estudiante reforzar los conocimientos aprendidos para obtener una mejor compresión, desarrollo y aplicación. Es importante mencionar los objetivos del presente proyecto. Objetivos: • Reforzar los conocimientos del alumno para que comprenda, desarrolle y aplique las herramientas básicas de calidad, • Familiarizar al alumno en el uso de software estadísticos y aprendan a usarlo para un mejor aprovechamiento. La realización de los ejercicios en un software amplia mucho los conocimientos del alumno fundamentando la base de las herramientas básicas de la calidad y propicia a los estudiantes la oportunidad de validar la necesidad del desarrollo de mejores competencias. Las siete herramientas básicas de la calidad permite analizar problemas atinentes de la calidad y como su nombre lo dice consta de siete técnicas gráficas las cual son, Estratificación, Hoja de Verificación, Histograma, Diagrama de Pareto, Diagrama de Dispersión, Diagrama de Ishikawa y Gráficos de control, cada una de ellos te permite analizar y solucionar problemas y aunque no es necesario utilizarlas todas en solo problema, al menos tres de ellas te generaran una análisis y visión completa del problema. Así que la guía brinda: • Conceptos de las herramientas • Ejercicios Resueltos a mano paso a paso, • Ejercicios elaborados en Minitab (Software) paso a paso.



METODOLOGÍA

Se desarrollo una guía de ejercicios de las siete herramientas básicas de la calidad, donde se explica paso a paso cada uno de ellos y como interpretarlos. su punto principal de la guía es que el alumno comprenda los resultados de cada herramienta y aprecie el comportamiento del análisis que está realizando, en la guía también se implementó como primer punto la base teórica de cada uno de los aspectos de las herramientas para que el alumno conozca de mejor forma las técnicas y como segundo punto se desarrolló y solucionaron los ejercicios para cada técnica. Estas técnicas permiten la comprensión del comportamiento de las problemáticas analizadas accediendo a llevar mejoras en el estudio, los estudiantes serán capaces de analizar y aplicar mejoras en los procesos que se llevan a cabo en cualquier centro de trabajo.  


CONCLUSIONES

Se desarrollo una guía de ejercicios de las siete herramientas básicas de la calidad, donde se explica paso a paso cada uno de ellos y como interpretarlos. su punto principal de la guía es que el alumno comprenda los resultados de cada herramienta y aprecie el comportamiento del análisis que está realizando, en la guía también se implementó como primer punto la base teórica de cada uno de los aspectos de las herramientas para que el alumno conozca de mejor forma las técnicas y como segundo punto se desarrolló y solucionaron los ejercicios para cada técnica. Estas técnicas permiten la comprensión del comportamiento de las problemáticas analizadas accediendo a llevar mejoras en el estudio, los estudiantes serán capaces de analizar y aplicar mejoras en los procesos que se llevan a cabo en cualquier centro de trabajo.  
Diaz Resendez Sebastian, Universidad Autónoma de Tamaulipas
Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas

COMPARACIóN DE RENDIMIENTO DE GESTIóN DE BASES DE DATOS RELACIONAL Y NO-RELACIONAL.


COMPARACIóN DE RENDIMIENTO DE GESTIóN DE BASES DE DATOS RELACIONAL Y NO-RELACIONAL.

Diaz Resendez Sebastian, Universidad Autónoma de Tamaulipas. Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

A través de este trabajo se pretende realizar una comparación entre los tipos de bases de datos relacionales y no relacionales, para así llegar a la conclusión de que base de datos trabaja mejor y sobre qué circunstancias. Para tener un mejor conocimiento de lo que va a tratar este proyecto, es necesario saber la que es una base de datos. Las bases de datos son sistemas computarizados finalidad general es almacenar información y permitir a los usuarios recuperar y actualizar esa información con base en peticiones. Mas adelante se mas conceptos para que el lector entre en el contexto del proyecto.



METODOLOGÍA

Antecedentes Dato Como concepto general podemos denominar datos al conjunto de propiedades que caracterizan a la realidad que deseamos estudiar o fenómeno. Ahora bien, como concepto un poco más específico podemos llamar a los datos como símbolos no aleatorios que represen-tan valores de atributos o sucesos. Así pues, los datos son hechos, acontecimientos y transacciones que se han ido almacenando en un código convenido. Los datos son hechos obtenidos mediante la lectura, la observación, el cálculo, la medición, etc. Por ejemplo, en una organización podemos llamar datos a las cantidades y otros detalles de una factura o cheque, o detalles del pago de la nómina, etc. Los datos se obtienen automáticamente, producto de alguna rutina, tales como la producción de facturas o procesos de medición. Bases de datos Un sistema de bases de datos es básicamente un sistema computarizado para guardar registros; es decir, es un sistema computarizado cuya finalidad general es almacenar información y permitir a los usuarios recuperar y actualizar esa información con base en peticiones. La información en cuestión puede ser cualquier cosa que sea de importancia para el individuo u organización; en otras palabras, todo lo que sea necesario para auxiliarle en el proceso general de su administración. Principalmente existen dos tipos de bases de datos: Bases de datos relacionales Bases de datos no-relacionales Sistema manejador de bases de datos Un sistema gestor de bases de datos SGBD (aunque se suele utilizar más a menudo las siglas DBMS procedentes del inglés, Data Base Management System) es el software que permite a los usuarios procesar, describir, administrar y recuperar los datos almacenados en una base de datos. En estos Sistemas se proporciona un conjunto coordinado de programas, procedimientos y lenguajes que permiten a los distintos usuarios realizar sus tareas habituales con los datos, garantizando además la seguridad de los mismos. El éxito del SGBD reside en mantener la seguridad e integridad de los datos. Bases de Datos Relacionales Una base de datos de SQL Server consta de una colección de tablas en las que se almacena un conjunto específico de datos estructurados. Una tabla contiene una colección de filas, también denominadas tuplas o registros, y columnas, también denominadas atributos. Cada columna de la tabla se ha diseñado para almacenar un determinado tipo de información; por ejemplo, fechas, nombres, importes en moneda o números. Un equipo puede tener una o varias instancias de SQL Server instaladas. Cada instancia de SQL Server puede contener una o varias bases de datos. En una base de datos, hay uno o varios grupos de propiedad de objetos denominados esquemas. Bases de Datos No Relacionales El término NOSQL fue acuñado a principios de 1999 por un empleado de Rackspace, Eric Evans, cuando Johan Oskarsson de Last.fm quiso organizar un evento para discutir bases de datos distribuidas de código abierto. El nombre intenta describir el surgimiento de un número creciente de bases de datos no relacionales y distribuidas que no suelen proveer garantías ACID. El término ACID hace referencia a un conjunto de características necesarias para que una serie de instrucciones puedan ser consideradas como una transacción. Selección del sistema manejador de bases de datos relacional Lo primero que se realizo fue la selección de un sistema manejador de bases de datos relacional. Para ello se seleccionó el SMBD (Sistema Manejador de Bases de Datos) llamado Oracle Express, que al igual que MySQL Enterprise Edition, dicho a utilizar en el plan de trabajo para el verano de investigación, se manejan mediante el lenguaje SQL. Oracle Database 18c Express Edition (Oracle Database XE) es una base de datos de nivel de entrada de tamaño reducido. Es gratuito para desarrollar, implementar y distribuir; rápido de descargar; y simple de administrar. Para aprender un poco mas sobre el lenguaje de programación de las bases de datos, encontré un libro que me ayudo a entender un poco más sobre la sintaxis que se maneja en SQL para crear las consultas, ya sean consultas simples como seleccionar, eliminar o modificar algún registro dentro de las bases de datos o sentencias con un grado de dificultad un poco mas elevados como dar privilegios a usuarios, o en caso contrario quitar privilegios. El libro que seleccione se llama SQL: Los fundamentos del lenguaje escrito por Eric Godoc. Selección del sistema manejador de bases de datos no-relacional Para la selección del sistema manejador de bases de datos no-relacional se ha decidido utilizar el SMBD llamado MongoDB el cual almacena datos en documentos JSON flexibles, es decir, cada documento puede contener diferentes campos y las estructuras de datos se pueden ir modificando; aparte de que este SMBD es de código abierto. Además, para aprender las bases, el lenguaje y la forma de trabajar de este SMBD conseguí el libro llamado MongoDB: The Definitive Guide: Powerful and Scalable Data Storage de la autora Kristina Chodorow. Métricas Las principales métricas que se aplicaran a los SMBD tanto relacionales como no-relacionales son: El tiempo de respuesta de las consultas. La cantidad de datos y usuarios soportados. La seguridad proporcionada para el almacenamiento de los datos. El manejo del SMBD.


CONCLUSIONES

Como anteriormente ya se había trabajado con bases de datos de lenguaje SQL me fue sencillo entender cómo funcionaba Oracle Express en cuanto a la creación de las bases de datos y/o la forma de las consultas. Pero realidad, las bases de datos NO-SQL tienen una mayor flexibilidad en caso de rediseñar la base de datos y pienso que los siguientes años se usaran mas este tipo de bases de datos NO-SQL que las que usan lenguaje SQL.
Díaz Rodríguez Héctor Daniel, Universidad de Colima
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

DESARROLLO DE UNA HERRAMIENTA DE MACHINE LEARNING PARA EL APROVECHAMIENTO DE INFORMACIóN EN TEXTO DEL ENTRENAMIENTO DEL PERSONAL DEL SECTOR ENERGéTICO.


DESARROLLO DE UNA HERRAMIENTA DE MACHINE LEARNING PARA EL APROVECHAMIENTO DE INFORMACIóN EN TEXTO DEL ENTRENAMIENTO DEL PERSONAL DEL SECTOR ENERGéTICO.

Díaz Rodríguez Héctor Daniel, Universidad de Colima. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

El uso de energías renovables trae consigo una producción intermitente dependiente de condiciones climatológicas de la región donde están implantadas, el uso de microredes rurales para abastecer a sectores de población pequeños podría solucionar el problema pero al tratarse de una tecnología joven, los sistemas energéticos y su mantenimiento  tienden a tener altos costes. La capacitación de operadores de microredes en ambientes virtuales ayuda a minimizar estos costes. Es necesario brindar un conocimiento utilizando más información semántica, la cual permita relacionar todos los elementos de una microred empleando información global recabada de internet.Las herramientas de inteligencia artificial como la minería de texto pueden ser de gran utilidad para el aprovechamiento de la información disponible en estos sistemas de realidad virtual. Usando la información de estos sistemas en conjunto con motores de búsqueda en internet, es posible construir una ontología,  un modelo del conocimiento formal, que permitirá brindar apoyo didáctico a los estudiantes de estos sistemas.



METODOLOGÍA

Se comenzó con la familiarización de las herramientas para desarrollo del proyecto. El lenguaje de programación utilizado en la realización del proyecto fue R. El conjunto de datos utilizados corresponde a las descripciones textuales de herramientas, equipamientos y materiales requeridos para las maniobras de mantenimiento en la infraestructura de media tensión y microredes. De nuestro conjunto de datos, se extrajo el nombre de los equipos y su identificador, esta colección es conocida como corpus en el que cada equipo es un documento y el identificador del equipo es el identificador del documento. Se obtuvieron un total de 211 documentos en el corpus. Se limpian los datos, eliminación de acentos, unidades de medidas, números, puntuación, palabras comunes (stopwords), espacios en blanco y cambiar el texto a minúsculas. Después, se generó una matriz Document Term Matrix. Se decidió tokenizar los documentos en n-gramas, los cuales están compuestos de una a tres palabras llegando a 670 tokens. Las dimensiones de la DTM fue de 211 documentos por 670 tokens. Algunos documentos contienen los mismos tokens con la misma cantidad de apariciones, por lo tanto pueden ser reducidos utilizando el concepto de sinónimo. Para identificar estos documentos se utilizó el índice de Jaccard. Se genero una matriz simétrica de los 211 documentos y se aplicó un agrupamiento jerárquico lo cual redujo nuestro corpus de 211 a 170 documentos únicos. Para la cantidad óptima de agrupaciones que tendrá el corpus, se creó una matriz con la similitud coseno entre cada documento. Al no tener un criterio objetivo para la elección de un numero óptimo de Clusters, podemos usar métodos aproximaciones para medir la calidad del resultado, se utilizó el método de Anchura promedio de Silueta. Se probaron varias configuraciones, arrojando un valor de 85 como valor óptimo. En el caso de los clusters con más de un documento, obtienen las cinco palabras más frecuentes de cada grupo. Para medir la distancia normalizada de Google es necesaria una API de Google pero su uso gratuito se limita a un total de 100 consultas al día. La ecuación (n2+n)/2 indica el número de consultas para un matriz n x n Por lo tanto el total de consultas fue de 3,655 para realizar la matriz de . Para ajustarse a la API de Google se decidió extraer un subconjunto de datos, se usaron los primero diez grupos esto nos lleva a una matriz de  con un total de consultas de 55. Se generaron cuatro matrices diferentes para la NGD, la primera configuración para las consultas se llevó a cabo en el motor de búsqueda Google. La segunda matriz se construyó con el mismo motor de búsqueda, pero a cada termino se le agregó una palabra clave. La intención es acotar el dominio del conocimiento donde se lleva la búsqueda. liniero fue usada en el caso del sistema de capacitación de linieros. Las consultas para generar la tercera matriz se realizaron en el motor de búsqueda de Bing sin palabra clave, mientras que, en la cuarta matriz las consultas se le agregó la palabra auxiliar en el mismo motor de busqueda. Para comparar la similitud entre las clusterings obtenidos por las cuatro configuraciones antes enumeradas, utilizamos el índice de Jaccard. Para ello se realizó clusterings a las matrices desde 2 a 10, con esto buscamos determinar el k donde las agrupaciones tienen mayor concordancia. En el caso de los sistemas de capacitación de linieros, se observó que la matriz generada en el motor de búsqueda de Google y con la palabra auxiliar liniero brindó los mejores resultados en relación con las otras matrices. Adicionalmente, se compararon los modelos obtenidos respecto a la agrupación de un experto. De igual forma, se compararon con el índice de Jaccard todas las matrices generadas con la NGD y el mejor resultado fue la matriz generada con el motor de búsqueda de Google con la palabra auxiliar liniero, con un valor de similitud de 0.46, siendo 1 el valor óptimo. Este mismo pipeline se aplicó al conjunto de datos perteneciente a los componentes de una microred, y el resultado con el índice de Jaccard fue de 0.9 con el motor de búsqueda de Google. 


CONCLUSIONES

En el proyecto, se presentó un modelo para generar una ontología que permita relacionar las herramientas, equipamiento y materiales requeridos para las maniobras de mantenimiento en la infraestructura de media tensión utilizando algoritmos de agrupamiento no supervisado a partir de una medida de similitud semántica, la Distancia Normalizada de Google. Hay un conjunto de posibles mejoras para el trabajo realizado: a) se puede omitir la etapa de agrupación de los equipos de tal forma que directamente se aplique la NGD a los equipos, b) en la etapa de preprocesamiento se pueden eliminar los documentos repetidos sin necesidad de aplicar el índice de Jaccard, ahorrando costo computacional y c) configurar el motor de Google para mostrar resultados más relacionados al área de interés.
Díaz Vargas Vanessa, Instituto Politécnico Nacional
Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California

DISEñO DE UN PROCESO DE INTEGRACIóN DE MANUFACTURA ADITIVA EN PROCESOS DE REMANUFACTURA EN LA INDUSTRIA METALMECáNICA


DISEñO DE UN PROCESO DE INTEGRACIóN DE MANUFACTURA ADITIVA EN PROCESOS DE REMANUFACTURA EN LA INDUSTRIA METALMECáNICA

Díaz Vargas Vanessa, Instituto Politécnico Nacional. Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

De acuerdo con un estudio realizado por la Secretaría de Economía en México a través de CANACINTRA para determinar la competitividad de la industria metalmecánica, la industria metalmecánica aporta el 2% de las unidades económicas totales del Sector Manufacturero; la industria metalmecánica de México se concentra principalmente en empresas dedicadas al maquinado de piezas metálicas para maquinaria y equipo en general con 8,932 empresas (Economía, 2017b). Por tal motivo se ha seleccionado la industria metalmecánica como objeto de estudio en esta línea de investigación, al ser sus componentes de alto valor económico. En cuanto a la cantidad de insumos importados requeridos para sus procesos de fabricación en México, la actividad de fabricación de productos metálicos forjados y troquelados importa el 79% de sus insumos de fabricación, y la actividad de maquinado de piezas metálicas para maquinaria y equipo en general importa el 57% de sus insumos, siendo la clase de actividad que muestra los menores requerimientos de importaciones (Economía, 2017b). Se plantea que por medio de la recuperación de producto y remanufactura se reduzca el porcentaje de insumos importados y, además, se dé una reutilización adecuada a los metales descartados al finalizar la vida útil de un producto.Los procesos de recuperación de producto se definen como operaciones industriales que recuperan todo el producto o sus componentes para ser reutilizados en los procesos de producción e incluyen la reparación, reacondicionamiento y remanufactura (Ijomah, 2002). Un componente con cavidades puede ser restaurado a su forma inicial o su dimensión bruta mediante procesos de adición de material como soldadura, recubrimiento en polvo y revestimiento láser. Dependiendo de los requerimientos y la naturaleza de la superficie, se selección el método apropiado (Tsang et al., 2014), sin embargo, éstos son métodos susceptibles al error humano, ya que es un proceso manual y tedioso en el que influye en gran manera la habilidad del soldador. Estos errores pueden ser evitados mediante la utilización de la Manufactura Aditiva. Los avances en tecnologías de Manufactura Aditiva han brindado una sólida perspectiva para la automatización de los procesos de reacondicionamiento de componentes con un aumento significativo en la precisión de la reparación final (Wilson, Piya, Shin, Zhao, & Ramani, 2014). La Manufactura Aditiva (MA) consiste básicamente en manipular material a escala micrométrica y depositarlo de forma precisa para construir un producto sólido. Este tipo de manufactura representa una técnica de fabricación novedosa con diversas tecnologías que permiten diseñar y producir piezas industriales (Economía, 2017a). Por tal motivo, a lo largo de la presente investigación se desarrollará una propuesta de planeación de procesos de remanufactura utilizando MA para verificar su factibilidad técnica y destacar las posibles ventajas que tiene sobre los métodos de reacondicionamiento de materiales tradicionales.



METODOLOGÍA

De acuerdo con los antecedentes y los objetivos de la investigación, la metodología sugerida para la recopilación de información será mediante un diseño transeccional. Se evaluará la opinión de los expertos en procesos de manufactura aditiva y los expertos en procesos de remanufactura para determinar los factores intervinientes y las variables relevantes en cada proceso. El instrumento que se utilizará será una matriz PUGH y clasifica como un instrumento descriptivo ya que consiste en ubicar variables en el contexto de la manufactura aditiva y remanufactura en la industria metalmecánica. La unidad de muestreo será cada uno de los expertos en el uso de manufactura aditiva como técnica de remanufactura. Se seleccionarán por lo menos diez expertos.


CONCLUSIONES

Se espera identificar los principales factores intervinientes en una correcta aplicación de la manufactura aditiva en procesos de remanufactura. Con la información obtenida se puede realizar un Diseño de Experimentos DOE, en el que se puedan seleccionar dos o tres parámetros de los obtenidos con esta investigación y se pueda optimizar la dureza y resistencia del material depositado con respecto al material base en un proceso de manufactura aditiva. Durante la estancia de verano se identificaron los factores intervinientes en los procesos de Remanufactura y Manufactura Aditiva. A través del pensamiento crítico, la revisión de literatura, la información adquirida y el apoyo por parte de la asesora, Dra. Karina Cecilia Arredondo Soto, se logró formular una idea de investigación y cuestionar la viabilidad de integrar estas metodologías, dando como resultado la comprobación de la viabilidad técnica y la idea de optimizar el proceso existente para mejorar la calidad de los productos remanufacturados. El tema desarrollado durante la estancia tiene una extensa línea de investigación y es apto para continuar su desarrollo mediante nuevas investigaciones y mejoramiento de la tecnología.
Dimas Gómez Edgar Daniel, Universidad de Colima
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES

Dimas Gómez Edgar Daniel, Universidad de Colima. Martinez Diaz Rosina Belen, Instituto Tecnológico de Tepic. Moya Partida Adriana Sinahy, Instituto Tecnológico de Tepic. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. En la actualidad nos enfrentamos a una crisis sin precedentes, la contaminación por desechos humanos cada vez es más crítica y de eso surgió la idea de aprovechar residuos para mejorar las características del cemento, como por ejemplo el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión. Todo eso con el objetivo de mitigar la contaminación que generamos día con día.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indica la norma NMX-C-160-ONNCCE-2004. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma NMX-C-160-ONNCCE-2004 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa NMX-C-160-ONNCCE-2004. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó según la norma NMX-C-083-ONNCCE-2002 para la prueba a compresión de elementos de concreto y la norma NMX-C-191-ONNCCE-2004 para los ensayos a flexión de concreto.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a los 250 kg/cm2 calculados, el espécimen ensayado a 28 días llego aproximadamente a el 20% de la resistencia deseada, por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró sustituir el 15% del peso total del cemento por dicha ceniza no lo hace tan resistente como el convencional de 250kg/cm2, pero por muy poco, el espécimen ensayado a 28 días dio una resistencia de 218.5 kg/cm2 a compresión, pero ayuda a tener un revenimiento menor. El concreto con PET en escama se le adiciono un aditivo acelerarte, presento un mayor rendimiento al convencional, y el espécimen ensayado a los 14 días presento una resistencia a la compresión aceptable de 209.9kg/cm2. Durante la elaboración de las mezclas antes mencionadas se tuvo una circunstancia que afecto en el desempeño de los especímenes y fue el hecho de que al momento de hacer la dosificación de la muestra no se caracterizaron los agregados pétreos, esto género que en cada mezcla se agregara una cantidad total diferente de agua con el objetivo de hacerla lo sufrientemente trabajable. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo.
Dimas Pomposo Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca

ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO


ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO

Dimas Pomposo Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Castro José Antonio, Tecnológico de Estudios Superiores de San Felipe del Progreso. Sandoval Sandoval José Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca



PLANTEAMIENTO DEL PROBLEMA

Teniendo presente la gran contaminación que existe por nuestro estilo de vida y que esta a su vez va creciendo, englobando varios ámbitos  y uno de ellos es el ruido. Gran parte de esta contaminación es producida por los insumos plásticos y sus derivados, debido a sus tiempos de degradación por lo que se convierte en un inconveniente, de entre estos plásticos podríamos definir el PET, HDPE y UNICEL. Estos resultan en ser un inconveniente pues en México así como en gran parte del mundo no se tiene una cultura respecto al manejo que deben recibir estos materiales después de utilizarlos, pues tan solo en México se recolectan diariamente 86 mil 343 toneladas de residuos de los cuales aproximadamente un 30% son los plásticos antes mencionados y que en total solo el 11% recibe algún tipo de tratamiento. Al respecto con lo anterior podemos asimilar otros problemas principalmente en México, respecto a la calidad de vida de las personas pues muchas de ellas no cuentan con los recursos suficientes para poder adquirir o construir un lugar donde vivir. Según la Secretaria de Hacienda y Crédito Publico en México 36 millones de personas no cuentan con una vivienda digna, cifra que va en aumento con forme pasan los años.



METODOLOGÍA

Se requirió hacer una investigación exhaustiva de los temas relacionados respecto a al uso, propiedades, normatividad, etc. De los elementos constructivos como son el sillar, el block, el ladrillo, etc. Con el fin de tener conocimientos previos para la ejecución del proyecto, es decir se realizó un protocolo de investigación para poder llevar a cabo el proyecto de investigación. Los aspectos que conforman el protocolo fue un estado del arte, planteamiento del problema, justificación, objetivos específicos y generales, hipótesis, marco teórico, marco normativo, marco conceptual, marco propiedades a evaluar y ensayes a los materiales. En estos se detalló la línea de investigación que se pretende seguir pues se pretende crear un elemento constructivo con dimensiones iguales a un sillar pero elaborado con un procedimiento similar a un block de tepojal y cemento. Puesto que ya se tenía un avance en el protocolo en donde ya se habían desarrollado diversos temas y aspectos se analizó el trabajo preliminar con el objetivo de observar detalles que se omitieron pero que resultan en ser importantes por el conocimiento que permitirían obtener y el curso en el desarrollo de la investigación. A continuación se detalla de forma general algunos de los conceptos que se abordaron: Marco conceptual; en este se desarrollaron los conceptos de manera más profunda pues se debía de tener un concepto que fuera eficiente para poder comprender de manera exacta lo que abarca cada producto relacionado al producto que se pretende conseguir. Marco Normativo; En este se hizo una investigación exhaustiva normativa nacional donde abarcamos las normas ONNCCE donde se buscaba todo respecto a la industria de la construcción en forma específica en mamposterías y muros tanto de hormigón como de materiales pétreos, pues aunque el producto no es igual a ninguno de estos, es la guía para poder crear un elemento constructivo que brinde seguridad para su uso, Propiedades a evaluar en el producto; Conociendo lo anterior y sabiendo los requerimientos que piden las normas oficiales mexicanas se investigaron los factores que se deben analizar para poder cumplir con las normas como por ejemplo una de las más importantes la resistencia a la compresión, así como una de las más obvias como la de prueba de fuego. Ensayes a los materiales; La aplicación de los conocimientos llevan a las pruebas, sin embargo es necesario saber qué tipo de pruebas es necesario realizar y también como realizarlas, con qué propósito, y que maquinaria  se utilizará, de ahí la importancia del desarrollo de este apartado, con el cual se pretende llevar a cabo en la creación de un prototipo.


CONCLUSIONES

En el transcurso de la estancia se pudieron reforzar conocimientos, respecto a los criterios que se deben alcanzar en una investigación respecto a la construcción, donde las normas y las pruebas, aspectos que resultaron relevantes que se deben de considerar de manera especial en la ejecución y creación del elemento que se está proyectando, por su puesto el llevarlo a la práctica resultara en que surjan más dudas, sin embargo lo expuesto en el protocolo de investigación resultara una base sólida para poder dar una buena ejecución.
Domínguez Cano Andrés, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

PROTECCIóN DIFERENCIAL EN SISTEMAS EMBEBIDOS.


PROTECCIóN DIFERENCIAL EN SISTEMAS EMBEBIDOS.

Domínguez Cano Andrés, Consejo Quintanarroense de Ciencia y Tecnología. Vazquez Mendoza Alfonso, Instituto Tecnológico de Morelia. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El método más utilizado para la protección de transformadores de potencia es el esquema de protección diferencial. Sin embargo, la protección diferencial puede funcionar incorrectamente en diferentes condiciones transitorias, como la activación del transformador o la sobreexcitación de la misma. Para resolver este problema, se ha propuesto un nuevo algoritmo de protección diferencial basado en el segundo momento central (SCM), que se implementó en sistemas integrados para un funcionamiento correcto de manera portátil.



METODOLOGÍA

La aplicación repentina de voltaje a un transformador da lugar a un período transitorio en el que la corriente de magnetización puede alcanzar magnitudes entre 8 y 10 veces su valor nominal, este fenómeno se conoce como corriente de arranque o corriente de avalancha. La corriente de inrush  es un evento transitorio y no debe causar el funcionamiento de los relés de protección porque no es una condición de falla. El algoritmo propuesto, por medio de la magnitud del SCM de cada corriente diferencial, una vez que se normalizan y filtran, identifica las corrientes de inrush y las corrientes de falla respectivamente. El sistema se probó con un transformador trifásico de conexión en estrella delta, con una tensión de alimentación de 160 V y una relación de transformación 1: 1 , alimentando una carga trifásica equilibrada de 80 W, para verificar el correcto funcionamiento del algoritmo contra el fenómeno de corriente de inrush o una falla. El código base se desarrolló en Matlab, luego se pasó a Python para poder implementarlo en una Raspberry Pi3, que realiza todo el procesamiento requerido por el algoritmo. Para la detección de las señales en tiempo real, se usó un Arduino Uno.


CONCLUSIONES

El algoritmo funcionó correctamente en el Raspberry, entregando los resultados esperados del Segundo Momento Central, después de varias pruebas,el único inconveniente que se a encontrado hasta el momento es el tiempo de procesamiento del algoritmo que fue alrededor de un minuto aproximadamente.Una vez solucionado este inconveniente, la protección es lo suficientemente robusta, para operar en los transformadores de potencia e inclusive extender su campo de aplicación a los sistemas de protección en los automóviles eléctricos.
Dominguez Cruz Antonio, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Héctor Antonio Villa Martínez, Universidad de Sonora

DESARROLLO DE UNA APLICACIóN MóVIL PARA REALIZAR ANáLISIS DE VARIANZA DE UN ARREGLO EXPERIMENTAL DOBLE


DESARROLLO DE UNA APLICACIóN MóVIL PARA REALIZAR ANáLISIS DE VARIANZA DE UN ARREGLO EXPERIMENTAL DOBLE

Dominguez Cruz Antonio, Instituto Tecnológico Superior de Huauchinango. Vargas Gutierrez Enrique, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Héctor Antonio Villa Martínez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El análisis de varianza es un método estadístico que se utiliza para analizar las diferencias entre medias de distintos grupos en una muestra y que se estudia en varios cursos de estadística que se imparten en la Universidad de Sonora. Por otro lado, la prevalencia de los ordenadores portátiles, inteligentes entre los estudiantes, permite que estos dispositivos se puedan usar como herramientas para efectuar cálculos.



METODOLOGÍA

Para el desarrollo de la aplicación de Anova “Arreglo doble” se basó con la metodología Scrum, ya que este mismo método ágil permite trabajar en Equipos con el fin de entregar aplicación de calidad, para tener un buen funcionamiento se debe de seguir los siguientes pasos: Análisis de requerimientos Recaudar todos los requerimientos de la aplicación y son: campos de texto, Diseño de pantalla que permite visualizar el teléfono real, y funciones principales de la aplicación, manual de la aplicación. Actividades Una vez definida los requerimientos se dispersan en diferentes fechas de actividades con un mes de límite para concluir el proyecto de anova, con las diferentes fechas para dar avances del proyecto y puede ser entrega antes de lo acordado. Lista de actividades: Suma por renglones Suma por filas Suma total Decisión Ciclo de vida Aquí se involucra todas las actividades traspasando al editor de código de Android studio, verificando todos los eventos de codificación, al mismo tiempo realizando todas pruebas necesarias para la aplicación de que no exista fallos. Aplicación completa Se crea una APK para la instalación de la aplicación para dispositivos móviles quienes los requieren puedan compartírselo.


CONCLUSIONES

La tecnología sigue evolucionando que mejor automatizar este proceso aprovechando a lo máximo la tecnología de la información. A medida que el paso del tiempo fue una necesidad, como ejemplo la aplicación “Anova” que permite analizar las diferencias entre medias grupales de una muestra. Esta app también puede servir para mejorar el aprendizaje tanto el estudiante y el profesor comprobando resultados de esta calculadora dando la hipótesis nula y alternativa encontrando la efectividad del experimento que se desea evaluar.
Domínguez Ramírez Graciela Joseline, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA AUTOMÁTICO DE SINCRONIZACIÓN DE SEMÁFOROS EN TIEMPO REAL VÍA GPRS.


SISTEMA AUTOMÁTICO DE SINCRONIZACIÓN DE SEMÁFOROS EN TIEMPO REAL VÍA GPRS.

Domínguez Ramírez Graciela Joseline, Universidad Politécnica de Tecámac. Mendiola de Paz Joel Jonathan, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Hoy en día con el crecimiento de las zonas urbanas y debido al gran uso de los automóviles es común encontrar tráfico en distintas zonas; un embotellamiento puede estar provocado por varios motivos, uno de ellos, es por un volumen muy alto de vehículos circulando al mismo tiempo, además el tráfico puede estar provocado por incidentes como averías de vehículos, accidentes, derramamientos de objetos en la calzada, lluvia, nevadas, desincronización de semáforos, etc. La congestión de tránsito ha ido en aumento en gran parte del mundo y todo indica que seguirá agravándose, constituyendo un peligro. La generación de estrés agudo es un consecuente del tráfico debido a que el llegar temprano a un cierto lugar es una exigencia hacia nosotros mismos y al estar mucho tiempo bajo este problema se genera en las personas estrés agudo episódico lo cual genera accidentes como choques o incluso peleas sin sentido alguno. Para comprender bien lo anterior, lo ejemplificaremos: A todos nos ha ocurrido en alguna ocasión que en una avenida donde la congestión vehicular es común haya más de un semáforo y si apenas lograste pasar uno, el siguiente no nos lo permite. A esto le llamamos desincronización, pues no existe un flujo correcto de los vehículos y una de las múltiples consecuencias que esto puede provocar es el problema ya mencionado anteriormente en conductores y provocar múltiples accidentes, debido a esto, nosotros iniciamos con el estudio y el desarrollo de este proyecto.



METODOLOGÍA

El método utilizado para la realización de nuestro proyecto fue el método de investigación inductivo ya que es un proceso utilizado para poder sacar conclusiones generales partiendo de hechos particulares, éste método se basa en la observación, el estudio y la experimentación de diversos sucesos reales para poder llegar a una conclusión que involucre a todos esos casos, la acumulación de datos que reafirmen nuestra postura es lo que hace al método inductivo.  La metodología que utilizaremos será el modelo de prototipos pues el desarrollo y prototipo de nuestro sistema debe ser construido en poco tiempo, usando los programas adecuados y no se debe utilizar muchos recursos; algunas de las etapas para su desarrollo serán las siguientes: Recolección y análisis de requisitos Modelado Construcción del Prototipo Desarrollo, evaluación del prototipo  Refinamiento  En el proyecto serán creadas dos aplicaciones móviles la primera recolectará datos de la ubicación de los usuarios sin violar ninguna norma de su privacidad, ya con los datos recolectados y entendiendo la longitud y latitud recibidas (La longitud es la distancia expresada en grados del meridiano de Greenwich 0°  a cualquier lugar de la superficie terrestre; la latitud se expresa en grados de cualquier lugar de la superficie terrestre al ecuador; la altitud es la distancia vertical de un lugar, medida a partir del nivel del mar.), en un servidor se aplicará un algoritmo de inteligencia Artificial para enviar a la segunda aplicación las instrucciones de qué semáforo y qué luz de este es la que debe encender para permitir un mayor flujo de vehículos y así lograr una correcta sincronización. Para el desarrollo de nuestro sistema necesitabamos de un alto conocimiento y análisis sobre el campo, por lo tanto los siguientes temas fueron fundamentales de comprender, entre otros: Funcionamiento de dispositivo GPRS Protocolo TCP Conceptos básicos de un GIS Funcionamiento de un GPS Protocolos de aplicación (en especial HTTP) Además, se hizo uso de la metodología de elementos  ya que consta de diversos elementos y comunicación. Como ya fue explicado se utilizó un esquema cliente/servidor, nuestro cliente sera nuestro primer elemento que estará trabajando como la aplicación que recolecta las ubicaciones y nuestro servidor es nuestro segundo elemento, el cual fue creado por nosotros mismos donde se procesan los datos para ser enviados a nuestro último elemento el cual será la aplicación que actuará como controlador de los semáforos.


CONCLUSIONES

En conclusión, la primera aplicación se encarga de la recolección de datos, la eficacia de la aplicación al momento de implementarse fue del 95% y las pruebas fueron hechas con 3 distintos dispositivos en tiempo real en nuestro trayecto. El servidor nos permitió de forma correcta manipular los datos obtenidos y con estos mismos se logró identificar los lugares con tráfico y así tambien dar las instrucciones necesarias a los semáforos. Con la segunda aplicación logramos la correcta comunicación con los semáforos mandandole las instruciones para su correcta sincronización. Con los resultados obtenidos podemos concluir que la implementación más extensa de este sistema ayudará al flujo correcto de vehículos en calles y avenidas demasiado concurridas.
Domínguez Reyes José Ángel, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

DESARROLLO DE TUTOR INTELIGENTE PARA MEJORAR EL APRENDIZAJE EN PROGRAMACIóN EN ALUMNOS DE NUEVO INGRESO DE LA UAA


DESARROLLO DE TUTOR INTELIGENTE PARA MEJORAR EL APRENDIZAJE EN PROGRAMACIóN EN ALUMNOS DE NUEVO INGRESO DE LA UAA

de Anda Cuéllar Luis Andrés, Universidad de La Salle Bajío. Domínguez Reyes José Ángel, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Uno de los problemas que merma la calidad educativa es la no atención personalizada de los alumnos por parte del maestro, en alguno de los casos derivada del número de estudiantes que conforman el grupo, la carga académica que tiene asignada el profesor (cuando esta es excesiva) o bien incluso puede ser por situaciones intrínsecas al docente. En suma, pocos profesores asumen como parte de su práctica docente, realizar un diagnóstico que permita determinar el estilo de aprendizaje del alumno, para adaptar así las estrategias de enseñanza que habrá de utilizar con el mismo. Aunado a lo anterior, existen también factores intrínsecos al alumno (la confianza profesor-estudiante, el temor de preguntar en clase, falta de tiempo para asistir a asesorías, o bien que el maestro al responder la pregunta no de solución a la duda). El modelo educativo actual aún tiene su mayor base en la memorización y menos en la práctica de contenidos, no obstante, los nuevos modelos se enfocan hacia una asesoría que suma al aprendizaje del alumno y el fortalecimiento de sus capacidades. Por otra parte, como bien lo enuncian algunos autores, es fundamental también comprender la correlación entre los Estilos de Enseñanza de los profesores, los Estilos de Aprendizaje de los alumnos y su influencia en el desempeño  académico de los alumnos, comprender y atender esta correlación permite o inhibe el proceso formativo. La mayoría de los estudiantes tiene un estilo de aprendizaje dominante, es decir una forma de apropiarse de la información y de generar el conocimiento individual.



METODOLOGÍA

En este trabajo se considera como caso de estudio a los estudiantes del curso propedéutico de la carrera de Ingeniería en Computación Inteligente de Universidad Autónoma de Aguascalientes, donde se desarrollaron dos chatbots, uno enfocado en la determinación del estilo de aprendizaje y nivel de conocimiento y el otro tuvo como función resolver las dudas de los alumnos en un sistema de gestión del aprendizaje (LMS, por sus siglas en inglés) mejorando la enseñanza de los alumnos. En relación con la elección de la plataforma para desarrollar el chatbot, se llevó a cabo un estudio exploratorio sobre las plataformas para crear chatbots, entre las cuales se evaluaron: Gupshup Dialogflow BotEngine Se decidió utilizar Dialogflow, ya que la plataforma incorpora algoritmos de aprendizaje automático lo cual permite al bot extender su aprendizaje y almacenarlo en la nube para futuras implementaciones, lo que significa que cada vez que se alimenta de diferentes símbolos fonéticos, significa que entenderá un mayor número de palabras. Para la elaboración del chatbot evaluador del nivel de conocimiento y estilo de aprendizaje, se desarrolló una interfaz gráfica de usuario (GUI) usando HTML5, CSS y JavaScript. Dicha interfaz gráfica presenta al alumno dos evaluaciones, una de ellas determina el nivel de conocimiento en programación, clasificándolo en básico, intermedio y avanzado. La otra evaluación diagnostica cuál es el estilo de aprendizaje del alumno. La entrevista que realiza el chatbot comienza con el examen que determina el nivel de conocimiento de programación del alumno. Para ello se desarrolló un instrumento de evaluación que clasifica a los alumnos en 3 niveles de conocimiento: básico, intermedio y avanzado. Para ello se estudiaron los temas que se ven en la carrera, se consideró que para los nuevos alumnos es importante tener conocimientos en C++, siendo este el curso básico, programación orientada a objetos el curso intermedio y diseño de páginas web como el curso avanzado. Dicho examen diagnóstico consiste en 6 preguntas de nivel avanzado con un valor de 5 puntos, 7 preguntas de nivel intermedio con un valor de 3 puntos y 8 preguntas de nivel básico con un valor de 1 punto, por lo que la puntuación máxima posible son 59 puntos. Para cada una de las preguntas existen 4 posibles respuestas listadas como respuesta A, B, C y D, de las cuales solamente una es correcta. El órden de las preguntas y las respuestas fue aleatorio para cada alumno, con el propósito de eliminar cualquier sesgo causado por el órden de las preguntas. Para contestar la evaluación, el alumno debe escribir la letra de la respuesta en el chatbot. Después de contestar cada pregunta, el sistema cambia automáticamente de pregunta mediante el uso de WebSockets. En caso de no conocer la respuesta o no estar seguro, se pide a los estudiantes que contesten no sé, con el propósito de evitar conseguir puntos que puedan influenciar su clasificación. Luego de que los alumnos contesten las 21 preguntas del examen técnico, el chatbot prosigue a realizar el examen de estilo de aprendizaje. A fin de diagnosticar el estilo de aprendizaje en los alumnos del grupo, se aplicó un test de 44 ítems, conocido como modelo de Felder y Silverman, que permite tener una indicación de las preferencias de aprendizaje de un individuo y una mejor indicación de la preferencia de perfil de un grupo de estudiantes. Una vez terminadas ambas evaluaciones, el chatbot notifica a los alumnos cual es el curso que deben tomar para maximizar su aprovechamiento y experiencia de aprendizaje, en base a los resultados obtenidos. En cuanto la elaboración del chatbot asesor, se utilizaron los intents de Dialogflow para que este pueda interpretar lo que el alumno quiera decirle al chatbot. Se configuraron las frases de entrenamiento como aquellas maneras en que el alumno puede preguntarle al chatbot sus dudas, colocando la mayor cantidad de frases o palabras en que este puede preguntarle al chatbot sus distintas dudas. Como respuesta a cada pregunta se estableció la información sobre lo que indagaron los alumnos.


CONCLUSIONES

Con el prototipo de Sistema Tutor Inteligente construido se espera que los alumnos de nuevo ingreso de la carrera de Ingeniería en Computación Inteligente tengan un mejor aprovechamiento del curso de programación y que su nivel de conocimiento sea mayor con respecto al grupo control. Además, con la determinación de su estilo de aprendizaje, se espera que en el futuro pueda utilizarse esta información para desarrollar estrategias de aprendizaje que permitan maximizar el aprendizaje de cada uno de los alumnos que participen en la prueba.
Donato de la Cruz Diana Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Marco Vinicio Félix Lerma, Instituto Tecnológico José Mario Molina Pasquel y Henriquez

DISEñO, SíNTESIS Y CARACTERIZACIóN DE MATERIALES BASADOS EN MADERA PLáSTICA OBTENIDA POR EL RECICLAJE DE RESIDUOS MADEREROS.


DISEñO, SíNTESIS Y CARACTERIZACIóN DE MATERIALES BASADOS EN MADERA PLáSTICA OBTENIDA POR EL RECICLAJE DE RESIDUOS MADEREROS.

Aguilar Cardona Mario, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Donato de la Cruz Diana Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Marco Vinicio Félix Lerma, Instituto Tecnológico José Mario Molina Pasquel y Henriquez



PLANTEAMIENTO DEL PROBLEMA

En la actualidad nuestro planeta sufre una serie de problemas medio ambientales que nacen con el proceso de globalización e industrialización en el mundo, donde tales métodos han generado efectos que ponen en riesgo la salud humana y la permanencia de una serie de ecosistemas, y como país no quedamos exceptos de aquellos. Por estos motivos distintos gobiernos apuntan a la necesidad de contener la contaminación que se genera producto de las malas prácticas que se originan en distintas industrias. En México se desechan 10 mil 350 toneladas de residuos plásticos al día, existen muchos tipos de plásticos, aunque el mercado está dominado por cuatro tipos principales:  Polietileno (PE): Bolsas de plástico, láminas y películas de plástico, contenedores (incluyendo botellas), microesferas de cosméticos y productos abrasivos.  Polyester (PET): Botellas, envases, prendas de ropa, películas de rayos X, etc.  Polipropileno (PP): Electrodomésticos, muebles de jardín, componentes de vehículos, etc.  Cloruro de polivinilo (PVC): Tuberías y accesorios, válvulas, ventanas, etc. La mayor parte de los plásticos se emplean en la fabricación de envases, es decir, en productos de un solo uso. (Greenpeace 2019) Hoy en día se han descubierto varias formas de aprovechamiento de este recurso en colaboración con otros, dando oportunidad al reaprovechamiento. Entre esas formas de reciclaje se encuentra el WPC (Wood plastic composites), materiales híbridos formados básicamente de una matriz y de un refuerzo, como matriz es el plástico y como refuerzo por sus propiedades serial un fibra natural, utilizando como principal los residuos de la madera o mejor conocido como aserrín que muchas empresas madereras consideran como un desecho. Sus propiedades tales como resistencia a la humedad, resistencia a la flexión lo hace un material con muchísimas aplicaciones dentro de la industria de la construcción. Con estos conocimientos surge la idea de investigar más a fondo este tipo de material y hacer una recopilación de las investigaciones más importantes ya que es un campo muy amplio con muchas oportunidades.



METODOLOGÍA

En el presente trabajo de investigación Diseño, síntesis y caracterización de materiales basados en madera plástica obtenida por el reciclaje de residuos madereros corresponde a un proyecto de desarrollo por cuanto está encaminado a resolver ciertos problemas planteados.  En México se tiran muchos polímeros los cuales afectan al planeta alrededor de 20,000 millones de botellas al año de los cuales tan solo el 58% de este se recicla generando una gran cantidad de desperdició que se presentan aun siendo una cantidad significativa la que se recicla, al igual la madera genera una gran cantidad de basura alrededor de 600 toneladas anuales en la región sierra-occidental. Al nosotros reciclar la fibra de madera y el polímero se presente utilizar este para poder realizar un nuevo producto llamado compuesto de madera plástica. WPC que consiste en fundir el plástico (preferentemente HDPE, LDPE Y PP) y fibras (MADERA, BAMBÚ, AGAVE, LECHUGUILLA, COCO, CELULOSA, ETC.) en conjunto de algún agente de acoplamiento que estos aparte de ser más usuales en el consumo diario se funden antes de los 200°c que esta es la temperatura límite para que la madera reciba calor ya que después pierde sus propiedades. Al igual también se realizaron diversas pruebas de las propiedades físicas cómo: Resistencia a:  IMPACTO  TRACCIÓN  FLEXIÓN  COMPRESIÓN  REACCIONES IGNÍFUGAS La meta final de esta metodología es establecer unas bases científicas para diseñar y mejorar las actividades de diseño, dotando al diseñador de una fundamentación teórica, basada en las herramientas y procesos de la lógica y el pensamiento racional.   DISEÑO DE LA INVESTIGACIÓN La metodología con la cual se llevó a cabo este proceso se presenta por una serie de fases que estas son: Selección de la materia prima Material compuesto homogéneo Obtención del pelet por medio de extrusión Pelet trabajado con inyección Probeta estándar Materia prima


CONCLUSIONES

Este desarrollo tecnológico ha permitido elaborar un material compuesto, amigable con el medio ambiente, con materiales de reuso, a través de una tecnología de procesamiento disponible y sencilla y ha producido un material de costo atractivo, con propiedades mecánicas suficientes para pensar en  una serie de posibles aplicaciones y que puede cubrir un nicho de mercado, especialmente apropiado para sectores de bajos recursos y para productos de uso doméstico. Es recomendable que los materiales reciclados que se producen en el país, se consideraren para buscar su reutilización y con ello apoyar el entorno del mejoramiento ambiental vinculado directamente a la ingeniería. El postconsumo en materiales de tipo polimérico es un elemento a favor en este proyecto con beneficios en la reducción de costos al obtener el material compuesto desarrollado. Este trabajo promueve el aprovechamiento del aserrín de pino extraído de la madera que es el tipo que se utiliza más en este país permitiendo hacer atractivo su uso, como ya se había mencionado, para apoyar el medio ambiente y evitar que este material vaya directamente a los desechos. Es importante considerar algunos otros materiales plásticos para el desarrollo de nuevos compuestos, entre ellos el polietileno de alta y baja densidad y el PET.  En este desarrollo se logró observar que al realizar la separación del aserrín las partículas de éste,  de forma fibrilar, presentan un arreglo casi lineal y la geometría se conserva, en cuanto a sus dimensiones, en todas y cada una de las mallas.  Con las investigaciones realizadas hasta el momento se pretende, en un futuro, ampliar el panorama de los materiales compuestos generados con productos o materia prima, de origen reciclado.
Duran Castiblanco Marielena, Universidad de la Costa (Colombia)
Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit

EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT


EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT

Duran Castiblanco Marielena, Universidad de la Costa (Colombia). Farfán Michaca Ulises, Instituto Tecnológico de Cuautla. Zapata Herazo William Gustavo, Universidad de la Costa (Colombia). Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los residuos sólidos urbanos (RSU) son todos aquellos que provienen de las actividades diarias ya sea del hogar o de la industria como resultado de descartar materiales que se utilizan en dichas labores o los que provienen también de otras actividades tales como resultantes de la limpieza de las vías públicas. (DOF, 2003). Es decir, los RSU son todos aquellos desechos que proceden de actividades humanas que son normalmente sólidos y que se desechan como inútiles o indeseados como por ejemplo los productos de consumo, envases, embalajes, etc. La problemática ambiental se manifiesta con la escasez de los recursos naturales por la presión a estos para satisfacer las necesidades. El crecimiento de las ciudades causado por el desarrollo económico y el ritmo de vida actual con el que las personas viven ha prohijado un constante y desmedido aumento en la producción de RSU. Estas formas de consumo, son cuestionadas no solo por el manejo de los residuos sólidos urbanos, si no por los impactos ambientales, sociales, culturales, económicos y políticos que se derivan. Se habla de que la cantidad de RSU por cada mexicano es de 2.5 kg por día; estudios como el de SMA, D. F (2010) constatan que realizando una buena clasificación, tratamiento y reutilización se reduce en un 80% la generación de residuos. La ciudad de Tepic, Nayarit es una de las tantas capitales en el país de México que presenta problemas a la hora de disponer debidamente sus RSU. Presenta deficiencias desde el momento de su separación en la fuente hasta su tratamiento (el cual es nulo) en el Relleno Sanitario El Iztete debido a que no cuentan con la infraestructura adecuada, es decir, una planta de tratamiento y aprovechamiento de residuos sólidos, además de que este ya rebaso sus límites de capacidad. En tal sentido es conveniente preguntarse ¿Es factible realizar programas de educación ambiental continuos sobre el manejo de los RSU para el desarrollo sustentable en Tepic, Nayarit?



METODOLOGÍA

La metodología utilizada es la investigación participación y acción, debido a que se tiene en cuenta con la colaboración de agentes en busca de un mismo fin para intervenir en problemas sociales con el objetivo de una transformación social; igualmente es perceptual y cualitativa, debido a que implica la recopilación de datos a través de encuestas, además presenta en forma secuencial, organizada y clara los diferentes pasos efectuados para el desarrollo del proyecto, asimismo de la observación de las distintas muestras obtenidas. Para el presente se realizó una investigación sobre las problemáticas que causan los residuos sólidos urbanos, los efectos e impactos que estos generan al ambiente, economía, sociedad, cultura y política, con el fin de generar capacitaciones para el personal administrativo de la Universidad Autónoma de Nayarit (UAN) y a colonias aledañas a ella, y con ello hacer entender la importancia de la recolección, clasificación, reutilización y valorización de los residuos sólidos; asimismo se generó un taller de compras con el fin de crear conciencia sobre como mercar con responsabilidad los productos de subsistencia para así disminuir la generación de residuos sólidos urbanos en la ciudad de Tepic, Nayarit. Asimismo, se desarrolló un programa de actividades con el personal administrativo de la UAN y la colonia Indeco, el programa consistió de tres etapas desarrolladas a lo largo de seis semanas, el objetivo fue sensibilizar, concientizar y capacitar al personal administrativo de la UAN y a la colonia Indeco de la ciudad de Tepic, Nayarit sobre el cuidado del medio ambiente; para la sensibilización se definió el problema central e identificaron las causas y efectos de los diferentes impactos ambientales negativos que pueden ser atribuidos a la mala gestión de los RSU, además se notificó a los presentes sobre la situación actual del manejo de los RSU en la ciudad y las condiciones del relleno sanitario Iztete, para ello fue presentado un video en el cual se mostraba el entorno real del planeta; se trabajó la parte de concientización en el cual se analizaron las causas que propician la excesiva generación de residuos y alternativas para su reducción, se determinaron las acciones cotidianas en las cuales se consumen con exceso productos envasados en materiales inorgánicos como el plástico; se llevó a cabo la capacitación de los asistentes con ayuda de un taller de compras para estimular a la reflexión y análisis sobre la problemática ambiental y de tomar parte en el correcto manejo de los RSU, además de proporcionar información sobre cómo obtener compostaje con los residuos orgánicos, como ayudan y que se puede hacer con estos. De la misma forma, se tuvo en cuenta la aplicación del método Delphi el cual consiste en obtener una información que permite obtener la opinión de un grupo de expertos a través de la consulta reiterada. En base al puntaje de cada evaluador se puede inferir en el consolidado que componente es el de mayor importancia para el proyecto. Igualmente; se realizara una investigación considerando la problemática ambiental para identificar el lugar más perjudicado por esta, con el propósito de determinar el área de aplicación del proyecto, considerando las zonas de trabajo, influencia directa e indirecta, por último se ejecutara una matriz de importancia con ayuda de la metodología descrita por Conesa, en la cual se establece los criterios y puntajes que se deben tener en cuenta para su realización como lo son: su naturaleza, intensidad, extensión, momento, persistencia, reversibilidad, sinergia, acumulación, efecto, periodicidad, recuperabilidad, importancia; con el fin de especificar su identificación, es decir, si son impactos irrelevantes, moderados, severos o críticos


CONCLUSIONES

Durante la estancia se aplicó la metodología DELPHI con la cual se determinó que el suelo es el que más se está afectando por la problemática de los RSU, en segundo lugar, se encuentra la matriz agua por los daños que los lixiviados le pueden causar a ríos cercanos al relleno sanitario El Iztete y en último lugar se encuentra el componente aire por las emisiones de gases de efecto invernadero provenientes de los residuos. Al tratarse de una investigación que requiere de la participación y colaboración del personal administrativo de la UAN aún no se han demostrado los resultados de las capacitaciones en el campus de la universidad ya que se encuentran en periodo de vacaciones, por otro lado, la capacitación realizada en las poblaciones aledañas si han mostrado buenos resultados, debido a que separan correctamente los residuos aprovechables de aquellos que no lo son, lo mismo se espera para el área administrativa de la UAN.
Durán Durán Gladys, Instituto Tecnológico de Morelia
Asesor: Dr. Jorge Alejandro Verduzco Martínez, Universidad Michoacana de San Nicolás de Hidalgo

BIOCOMPATIBILIDAD DE CINTAS VíTREAS BASE ZR


BIOCOMPATIBILIDAD DE CINTAS VíTREAS BASE ZR

Durán Durán Gladys, Instituto Tecnológico de Morelia. Asesor: Dr. Jorge Alejandro Verduzco Martínez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Por naturaleza los metales contienen sus átomos de una manera ordenada, simétrica en tres dimensiones (estructura cristalina) y se creía que así era para todos los metales sin importar el proceso. A mediados del siglo XX se dio un cambio en este concepto ya que se logró obtener un metal donde no todos sus átomos formaban estructuras definidas, sino que algunos de ellos se encontraban en desorden, (estructura amorfa) esta variación se dió ya que el metal fue enfriado de una manera muy rápida, el cambio tan abrupto del estado líquido al solido provoca que los átomos no tomen su lugar, generando así los vidrios metálicos. Al momento de estudiar a estos metales se descubrió que este cambio de estructura altera las propiedades del metal, y con ello sus aplicaciones. A lo largo de las ultimas décadas se ha enfocado mucho la investigación a la aplicación de materiales en el cuerpo humano (biomateriales), que aumente su eficacia y disminuya los riesgos. Por su mera definición, un biomaterial al estar en contacto con un sistema biológico, la característica esencial que debe cumplir es la biocompatibilidad, es decir, que el material no genere efectos tóxicos o dañinos en el sistema biológico donde se aplique y que este, como receptor tenga una respuesta positiva para la función que desempeñe el material. Durante este verano de investigación se analizará la biocompatibilidad de las cintas vítreas de la aleación Zr58Cr21Al9Ag12 fabricada y estudiada por el  M.C. Aish Valdemar Escamilla Flores.



METODOLOGÍA

Los experimentos que requerían células fueron realizados en el Centro Multidisciplinario de Estudios en Biotecnología (CMEB), y se sometieron a las pruebas las tres diferentes cintas que se obtuvieron en el proceso de solidificación rápida (las llamamos M1, M2, M3) dependiendo a la variación que se hizo en los parámetros del proceso. El primer experimento que llevamos a cabo fue para evaluar la viabilidad del material, esto se llevó acabo con linfocitos T de humano, por la función que estas células desempeñan en el organismo (sistema inmunológico, defensa y rechazo de materia ajena al organismo) son las más aptas para reflejar un primer resultado de biocompatibilidad de las cintas. Primeramente, se deben cultivar las células para nuestro experimento, para esto las células se descongelan a baño María de 37° C y se colocaron en un medio de crecimiento a una concentración de suero fetal bovino del 10%, se revisa el pH en este punto para asegurar que sea normal (7-7.6) y se incuba durante 24 horas (tiempo de duplicación) a 37°C y una atmosfera de 5% de CO2. Pasada las horas de duplicación se prosiguió a hacer el subcultivo para nuestro experimento en una placa de 24 pocillos, para esto se recurrió al conteo celular con hematocitómetro, (técnica para contar las células). En cada pocillo se colocaron 50000 células y las muestras de cada cinta (1mm de longitud y esterilizadas con luz UV). Se analizaron 3 muestras de cada cinta M1.M2,M3 así también como 3 de una aleación comercial de Titanio (ya usada en implantes). Ya teniendo listo nuestro subcultivo aplicamos el ensayo CCK-8, para esto se agregó 5 µL del reactivo CCK-8 con el cual se hacen ensayos colorimétricos sensibles para determinar del número de células en ensayos de proliferación celular, da un producto de color amarillo, la cantidad del colorante es directamente proporcional al número de células vivas. En teoría presenta reacción a partir de 3 horas, pero en nuestro caso lo dejamos 24 horas para analizarlo. Todo el manejo de las células se hizo en una campana de extracción para evitar la contaminación de las muestras y siempre se dejaban las células en la incubadora. Una vez transcurridas las horas necesarias para su análisis se centrifugó la placa para que las células quedaran en el fondo del pocillo y así se tomó medio de cada muestra para analizarlo en un espectrofotómetro, ya que ya había un cambio aparente de color, de un color rosa inicial comenzaba a tornarse amarillo. Se tomó 10 µL de cada muestra y se colocaron en una placa de 96 pocillos (los necesarios para todo el experimento). Durante 4 días se estuvo tomando la misma cantidad de medio de cada pocillo y se colocó en la misma placa de 96 para analizar la absorbancia a 440 nm, ya que esta nos da una idea del crecimiento de las células. A simple vista se observaba el cambio de color a un color amarillo intenso a casi color naranja, lo cual quería decir que había proliferación, pero con la lectura de absorbancia eso era más evidente. Al termino de este experimento ya se tenía un resultado preliminar, pero es necesario replicar el experimento para comprobar resultados. A lo largo de una semana se repitió el experimento, esta vez fue de una manera más ágil ya que el experimento No. 1 nos ayudó a fijar los parámetros, por lo que ahora se manejaron 6 muestras de cada cinta y se omitió el titanio. Al termino del experimento se observó el mismo comportamiento que en el anterior, resultados positivos ya que en ninguna de las cintas hubo muerte celular. Para tener resultados estadísticos utilizamos un programa de bioestadística para determinar su viabilidad, éste arrojó que la más viable es la cinta M2.


CONCLUSIONES

Dado que la cinta M2 es la que contiene menor porcentaje de fase cristalina es necesario seguir haciendo pruebas de cómo esa fase afecta la eficiencia del biomaterial, así pues, en la aleación manejada en forma de cintas vítreas se tiene un panorama amplio ya que hasta ahora experimentos realizados arrojan resultados favorables para su aplicación biomédica. Durante la estancia de verano se logró adquirir conocimientos técnicos de las pruebas biológicas a las que se somete un material para poder proponerlo con fines biomédicos, también los conocimientos básicos del área de los vidrios metálicos y sobretodo la experiencia del campo de la investigación.
Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia
Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS DE LA ASOCIACIóN DE LA QUITINA CON EL SODIO POR MEDIO DE SIMULACIóN MOLECULAR.


ANáLISIS DE LA ASOCIACIóN DE LA QUITINA CON EL SODIO POR MEDIO DE SIMULACIóN MOLECULAR.

Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia. Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Frente a la presencia de una gran cantidad de deshechos poliméricos en el mundo, se han buscado alternativas que supongan un impacto menor en el medio ambiente para así mitigar los efectos negativos sobre el mismo. La quitina es un biopolímero abundante en la naturaleza, que por encontrarse en el exoesqueleto de diversos crustáceos representa un residuo de la industria marisquera, siendo una fuente favorable de material para diversas aplicaciones. Con objeto de mejorar sus propiedades y/o facilitar su obtención, se busca que la quitina interaccione con otros compuestos y elementos. Dichas interacciones pueden analizarse mediante la simulación molecular, herramienta que brinda información teórica que respalda los resultados experimentales de diversos materiales, y con la cual resulta óptima la toma de decisiones precedente a la experimentación.



METODOLOGÍA

Durante la estancia de investigación, se trabajó sobre la línea de simulación molecular utilizando el software BIOVIA Materials Studio 8.0, programa en el cual se optimizaron las moléculas utilizadas según las especificaciones de uso del módulo Forcite que arrojó la bibliografía consultada.


CONCLUSIONES

A través de dicho trabajo de simulación se pudieron observar los parámetros de solubilidad del material, obtenidos a partir del uso de celdas generadas; teniendo así finalmente una estimación cuantitativa fiable respecto al grado de interacción entre las moléculas de los materiales.
Duran Meza Manuel Alonso, Universidad de Sonora
Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora

HUELLA HIDRICA EN LA INDUSTRIA ESPARRAGUERA


HUELLA HIDRICA EN LA INDUSTRIA ESPARRAGUERA

Duran Meza Manuel Alonso, Universidad de Sonora. Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La industria esparraguera en la ciudad de Caborca, Sonora es una de las principales fuentes de trabajo y pilares de la economía de la ciudad, conocida también como una potencia en la producción y exportación del esparrago, a pesar de eso el proceso del cultivo requiere de grandes cantidades de agua. Para este trabajo se presentan alternativas, así como propuestas para la disminución de la huella hídrica en dicho proceso.



METODOLOGÍA

Es una investigación bibliográfica del tipo transversal correlacional argumentativa (deductiva), ya que se consideró causas, consecuencias y soluciones posibles a la problemática planteada. Consistió en las siguientes fases: -indagacion -interpretacion -reflexion -analisis -sintesis -deduccion  


CONCLUSIONES

1. Concluyo que a pesar de que el cultivo del esparrago es de gran importancia en Caborca Sonora, no se encuentran estudios con respecto al agua utilizada en cada proceso, por lo que pienso que debería hacerse estudios de ese tipo, con la finalidad de saber el desperdicio de agua y por lo tanto el poder emplear propuestas de aprovechamiento o disminución del consumo de agua. 2. Al llevar a cabo la búsqueda bibliográfica no se encontraron artículos o investigaciones recientes con respecto al consumo del agua, el mas actualizado dado por la Conagua es del año de 2009, por lo que considero que debería llevarse a cabo un estudio mas actualizado para estar mas conscientes de lo actual y no trabajar con datos que no son reales en este año. 3. Después de terminar la investigación, concluyo que la única alternativa mejor que la del riego por goteo es el cultivo por hidroponía, ya que los artículos encontrados demuestran que se aprovecha de mejor manera el agua en este tipo de riego que por el de goteo, a pesar de esto, la ciudad de Caborca, se podría decir que tiene un buen sistema de riego y control de agua, pero si podría mejorar por medio de esta técnica.
Duran Santana Miguel Alexandro, Universidad de Colima
Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato

AUTOMATIZACIóN DE BRAZO ROBóTICO PARA USO EDUCATIVO


AUTOMATIZACIóN DE BRAZO ROBóTICO PARA USO EDUCATIVO

del Castillo Aguirre Misha Jessica, Instituto Politécnico Nacional. Duran Santana Miguel Alexandro, Universidad de Colima. Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de material didáctico en las materias tecnológicas es de suma importancia para que los estudiantes se sientan interesados en el área de ingeniería, sin embargo, es muy poco el material que realmente es capaz de promover y atraer a los alumnos. Ante esta problemática, se realizó el presente proyecto, que tiene como objetivo automatizar y adaptar un brazo robótico, de tal forma que sea una herramienta de gran utilidad para mostrar a los jóvenes la importancia y la aplicación del desarrollo tecnológico en cualquier contexto, así mismo inspirarlos para contribuir a dicho desarrollo.  



METODOLOGÍA

Investigación Primero se revisó la teoría del análisis y control de robots, con el objetivo de construir la cinemática directa a partir de los parámetros de Denavit Hartenberg, con el objetivo de conocer los valores articulares del manipulador y de esta manera controlarlo mediante su posición en grados. Posteriormente se procedió a realizar programación del control del robot con un PIC, conectándolo con un módulo bluetooth para poder controlar el brazo de forma remota, también se revisó el funcionamiento de los servomotores para poder posicionar los eslabones del brazo, se realizó una aplicación para teléfonos Android a través de App Inventor y Android Studio, lo cual es la interfaz de control del proyecto.   Aplicación en App Inventor Se desarrollo una aplicación sencilla en App Inventor con la finalidad de solo realizar pruebas, donde en dicha aplicación fue modificada repetidas veces con la finalidad de poder realizar una buena comunicación y envío de datos hacia el módulo bluetooth.   Pruebas con el PIC y modulo bluetooth Se utilizaron herramientas virtuales que permitieron la elaboración del circuito necesario para el funcionamiento del PIC y el módulo bluetooth, el cual fue simulado en Proteus, de modo que se pudieran comenzar a hacer pruebas con ellos. En dichas pruebas se realizó la comunicación entre el PIC y el módulo bluetooth, y se hicieron varias pruebas con leds. Una vez hecho lo anterior se realizaron pruebas con un servomotor para observar si este respondía correctamente a los comandos, y posteriormente se modificó el programa en el PIC para que los motores respondieran al enviarle grados.   Análisis de Movimientos. Una vez realizadas las pruebas se procedió a montar el circuito en conjunto con la estructura del brazo, y se comenzó a manipular mediante la aplicación para poder observar los movimientos que realizaba. Posteriormente se tuvieron que realizar diversas modificaciones a la estructura original con la intención de que el brazo estuviera colocado en la posición correcta de acuerdo con los grados ingresados en la aplicación. Con la información obtenida de la cinemática directa y los parámetros de Denavit Hartenberg, se realizó un programa en MATLAB que permitía verificar los movimientos realizados por el robot al momento de introducir los grados, esto con el objetivo de comprobar que el ángulo ingresado concordara con la posición del manipulador.   Fuente de alimentación Como fuente de alimentación se utilizó un cargador de laptop, el cual tenía demasiado voltaje comparado con el que necesitan los motores y circuito del brazo, así que se procedió a elaborar un circuito extra, el cual su función era reducir y manipular el voltaje, para cumplir con las necesidades del brazo.   Circuito en PCB Una vez concluido el circuito reductor de voltaje, y el circuito que necesita el PIC, se elaboraron los circuitos en PCB con la finalidad de poder tener un circuito compacto y fácil de transportar, sin temor a que algo se desconectara, y pudiera ser almacenado en una caja donde estarían todos los cables y conexiones del robot.   Aplicación en Android Studio Se estuvo trabajando con la aplicación en Android Studio de manera paralela con las demás actividades, con la finalidad de poder desarrollar una aplicación más amigable, formal, y fácil de usar para el usuario.  


CONCLUSIONES

El uso de herramientas virtuales, así como la previa investigación, permitieron el desarrollo del presente proyecto, pues gracias a los conocimientos adquiridos con anterioridad así como los desarrollados, fue posible presentar de manera funcional un equipo que es capaz de ser una herramienta de aprendizaje para los jóvenes, pues su diseño y modo de operación es fácil de usar y engloba temas comprensibles para el que lo usa, es decir que claramente se puede observar el control de movimientos, la operación de los motores, la comunicación remota, etc. Además, que se presenta como una oportunidad para futuros proyectos y trabajos en el área de robótica, de automatización y control, electrónica, etc. De esta manera, el producto se presenta como un potencial material educativo para el área tecnológica.  
Dzul Kinil Merly Estrella Darany, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima

MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA


MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA

Chan Ek Carlos Lauriano, Consejo Quintanarroense de Ciencia y Tecnología. Dzul Kinil Merly Estrella Darany, Consejo Quintanarroense de Ciencia y Tecnología. Flores Bañuelos Mariana, Universidad de Guadalajara. Reynaga Cobián Rabí Salvador, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el ámbito tecnológico encontramos la clave para tratar al comercio electrónico como una actividad económico-comercial única, pero es necesario hacer énfasis en la división del comercio tradicional y el comercio electrónico. Puesto que el comercio electrónico ofrece diversas bondades a todos los diferentes agentes económicos. No obstante, sigue existiendo la problemática sobre los medios digitales más eficaces y con mayor publicidad para el ofrecimiento de oportunidades de marketing para abarcar la mayor parte del mercado y que tanto los productores, proveedores de bienes/servicios incluyendo usuarios logren el tener acceso y la transmisión mundial a la unificación de hacer uso de las herramientas disponibles de e-commerce para mayor esparcimiento de forma sencilla y económica. La mayor problemática que enfrentan las PyMEs en el estado de Colima es que en ocasiones se sienten limitados y les es difícil la divulgación de sus productos ya sea que para el primer caso sean pequeñas empresas que están comenzando y quieren vender solo en línea, para el segundo caso porque ya están establecidas, pero aún no tienen reconocimiento ni físico ni digitalmente, o en tercer caso porque ya tienen resultados, pero buscan complementarlo para tener aún más éxito. Para solucionar la anterior problemática se elaboró esta investigación que permitirá el desarrollo de un modelo de Marketing Digital empleando el uso de tecnologías y herramientas especializadas para la segmentación de mercado.



METODOLOGÍA

Se utilizó la metodología de Diseño Centrado en el Usuario (DCU), es la aplicación en la que se practica la interacción persona -ordenador, se basa en la participación de las personas en busca de las necesidades del usuario por medio de procesos de diseño y evaluaciones, descubriendo la usabilidad y experiencia de uso, pasando por distintas etapas de diseño hasta llegar al usuario final. También se utilizó como método de medición una encuesta en línea de doce preguntas de opción múltiple elaborada en Google Forms, dirigida a las personas de dos AGEB en Villa de Álvarez del estado de Colima, con una población de 1721 habitantes en la AGEB 10021 donde incluye tres colonias y 2557 habitantes en la AGEB 10290 donde incluye dos colonias, la muestra fue de 278 personas. Gracias a la encuesta se concluyó que la mayoría de los encuestados esta entre los 15 y 30 años de edad, el 96% tiene un teléfono celular inteligente, el 92.7% de los encuestados respondió que si cuenta con acceso a internet lo cual no es limitante para hacer compras en línea y un 77.7% de los encuestados dijo que ha comprado por Internet, vemos que el porcentaje de las compras en línea disminuye a comparación de los usuarios que tienen acceso a internet  lo cual nos comprueba que existen varios obstáculos para hacerlo, uno de ellos es la falta de publicidad  y divulgación por parte de las PyMEs, un 32% de los encuestados también dicen que no hacen compras en línea por ser inseguras, esto le da un plus a nuestra intención ya que la permuta es directa con el cliente  y le da un grado más alto de confianza, el 94.3% de los encuestados expresan que siempre que hacen las compras en línea buscan los mejores precios, también es ventajoso para que las PyMEs  puedan ofrecer  sus productos sin que se eleve el precio a terceros. Entonces nos percatamos que los métodos utilizados son de buen provecho para el seguimiento y realización de la aplicación requerida por las PyMEs. Como resultante de los métodos utilizados realizamos el siguiente diseño en donde se plantea la descripción del Proceso paso a paso: Como primer paso seleccionaremos el producto a vender. Se tomarán 3 fotos desde diferentes ángulos del producto o se puede agregar imágenes desde la galería. Escribir el nombre del producto a vender. Se registrará una descripción específica del producto incluyendo medidas y/o peso. Se debe ingresar precio y existencia del producto a vender. Se registran los datos de contacto incluyendo la forma de pago, ya sea efectivo o tarjeta. Se genera una imagen o PDF incluyendo todas las especificaciones del producto. Se descargará o compartirá la imagen o el PDF generado.


CONCLUSIONES

Sobre los objetivos del proyecto concluimos que las herramientas tecnológicas que utilizamos si traen beneficios en cuanto al refuerzo en las PyMEs ya que encuentran menores barreras de mercado, lo que brinda un panorama donde tenga una mayor posibilidad de obtener clientes potenciales y por consiguiente generar mayores reducciones de costos ya que esto posibilita que empresas no tengan la necesidad de obtener un establecimiento de venta de sus productos y/o servicios al cliente de manera presencial. Se planteó el prototipo de la aplicación generalizando la descripción de sus procesos, interfaces, clases y/o módulos, que se tendrá un desarrollo innovador y fácil para las PyMEs a futuro.
Elias Carrasco Francisco Manuel, Instituto Tecnológico Superior de Cananea
Asesor: Dr. Joel Ruiz Ibarra, Universidad Estatal de Sonora

PRACTICA DE COORDINACIóN PARA REDES INALAMBRICAS DE SENSORES.


PRACTICA DE COORDINACIóN PARA REDES INALAMBRICAS DE SENSORES.

Elias Carrasco Francisco Manuel, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Joel Ruiz Ibarra, Universidad Estatal de Sonora



PLANTEAMIENTO DEL PROBLEMA

La visión de IoT es utilizar tecnologías inteligentes para conectar objetos en cualquier lugar a cualquier hora.  En la Universidad no hay agua, aun teniendo una cisterna. Se desea saber qué es lo que está pasando con ella. ¿Se llenará por completo? ¿Se estará usando toda el agua? ¿Dónde es donde es el mayor consumo? ¿Qué cantidad de agua se necesita para satisfacer la Escuela? Ahora imagínate que quieres hacer esto en una parte en la cual no hay internet.



METODOLOGÍA

Se realizará una investigación para ver cómo es que funcionan y se utilizan, los dispositivos ESP8266 y LoRa, con la ayuda del sensor DS18B20. Para que nos pueda mostrar la temperatura y poder verla mediante un servidor. Esto para saber cómo se configuran y programan las redes inalámbricas de sensores IoT. IOT (Internet Of Things) Por definición, el Internet de las Cosas es la interconexión a través de Internet de dispositivos informáticos integrados en objetos cotidianos, lo que les permite enviar y recibir datos. Medir consumo de Agua Es un sensor que permite medir la cantidad de agua que atraviesa una tubería. Podemos conectar un caudalímetro a un procesador como Arduino para obtener la medición del sensor. Pero, si queremos que sea una tecnología IoT, tendremos que usar un ESP8266 que nos facilitaría las cosas. Con esto podemos medir el flujo de agua de cualquier parte, y calcular los litros y el tiempo de lo que es el consumo. Proyecto LoRa ¿Qué es LoRa? Una tecnología LPWAN para IoT (Internet of things). LoRa es una tecnología inalámbrica al igual que WiFi y Bluetooth, de comunicación de datos inalámbrica que utiliza una técnica de modulación de radio. La gran ventaja de esta es que puede lograr comunicaciones a largas distancias (típicamente kilómetros). Ventajas de LoRa Bajo Consumo. Largo alcance 10 a 20km. Baja transferencia de datos (hasta 255 bytes). Conexión punto a punto. Frecuencias de trabajo:  868 Mhz en Europa, 915 Mhz en América, y 433 Mhz en Asia. Comunicación punto a punto En la comunicación punto a punto, dos dispositivos habilitados para LoRa se comunican entre sí mediante señales de RF. Por ejemplo, esto es útil para intercambiar datos entre dos tarjetas ESP32 equipadas con chips de transceptor LoRa que están relativamente alejados entre sí o en entornos sin cobertura de Wi-Fi. A diferencia de Wi-Fi o Bluetooth que solo admiten comunicación de corta distancia, dos dispositivos LoRa con una antena adecuada pueden intercambiar datos a larga distancia. Aplicaciones Imagina que quieres medir la humedad en tu campo. Aunque, no está lejos de tu casa, probablemente no tenga cobertura de Wi-Fi. Por lo tanto, puede construir un nodo sensor con un ESP32 y un sensor de humedad, que envía las lecturas de humedad una o dos veces al día a otro ESP32 usando LoRa. El ESP32 posterior tiene acceso a Wi-Fi y puede ejecutar un servidor web que muestra las lecturas de humedad, temperatura o cualquier dato de lo que se esté monitoreando. Enviar y Recibir Datos Hay un complemento para el IDE de Arduino que le permite programar el ESP32 utilizando el IDE de Arduino y su lenguaje de programación. En este caso utilizaremos LoRa Heltec, tendremos que usar el siguiente gestor de URL adicional de tarjeta: https://dl.espressif.com/dl/package_esp32_index.json Archivo > Preferencias > Gestor de URLs adicionales de tarjetas: [ Lo pegamos aquí]. Le damos en OK. Ahora procederemos a instalar la placa en el gestor de tarjetas. Herramientas > Placa > Gestor de tarjetas…[Hacemos la busqueda e instalamos].  Procedemos y descargamos la siguiente librería: https://github.com/HelTecAutomation/Heltec_ESP32 Abrimos: Programa > Incluir Librería > Añadir Biblioteca ZIP… [Buscamos el archivo que descargamos y lo abrimos]. Ahora ya tenemos todo listo para empezar a trabajar con nuestro LoRa HELTEC. Para obtener el cidigo para nuestro EMISOR y RECEPTOR, con la librería que instalamos anteriormente. Usamos la siguiente ruta: Archivo > Ejemplos > Heltec ESP32 Dev - Boards > LoRa > OLED_LoRa_Receiver. Y subimos el codigo a nuestro LoRa.  Dentro de la misma ruta, escogemos ahora el OLED_LoRa_Sender, que sera el que emita el mensaje en nuestro LoRa, como se puede observar necesitamos los 2 obligadamente si queremos que esto funcione. Al subirlo nos mostrara lo siguiente. Esto quiere decir que nuestro LoRa, ya tiene el código necesario para recibir paquetes. En nuestro LoRa receptor tenemos el RSSI, que nos indica que tanta señal tenemos. Entre más se aproxime a 0 mejor será la cobertura. Y esto fue todo, ahora ya podemos comunicar un LoRa con otro. Podemos jugar con el código, para configurarlo poder estar mandando datos de distintos sensores, incluso estar mostrándolos en internet. 


CONCLUSIONES

Se logro obtener datos mediante un sensor con NodeMcu, en el cual se conecta a internet y nos muestra esos datos mediante un servidor. Con esto nos lleva a la medición del flujo de agua. Pero ¿Qué pasa en lugares de larga distancia?, se utilizo un dispositivo LoRa que nos permitió leer datos a largas distancias, con ello podemos tener un dispositivo que emita y otro que reciba, y esto gestionarlo por internet.
Emerich Higuera Erick, Instituto Tecnológico de Culiacán
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

LOCALIZACIóN DE FUENTES ELECTROENCEFALOGRáFICAS EN TAREAS MOTORAS


LOCALIZACIóN DE FUENTES ELECTROENCEFALOGRáFICAS EN TAREAS MOTORAS

Emerich Higuera Erick, Instituto Tecnológico de Culiacán. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Cuando existe actividad en el cerebro, pueden verse las consecuencias en acciones humanas, ya sea algo que se vea a simple vista o no. Los movimientos, acciones motoras, son los que representan mayor cambio en el cerebro, por ello se analizarán dichas acciones. El reto es encontrar las zonas del cerebro que se activan cuando se realiza un movimiento, específicamente encontrar si la persona movió el brazo derecho o el izquierdo.



METODOLOGÍA

Este experimento fue realizado en un área libre de ruidos a 15 participantes de edades entre los 20 y 45 años.    Cada experimento constó de 10 runs, cada run contiene 24, cada trial dura 15 segundos, tomando un tiempo total de 65 min por experimento (sin descansos entre runs). En cada trial se presentan 3 imágenes distintas:   Atención: Imagen en blanco que le indica al participante que debe permanecer tranquilo y atento a la indicación siguiente.  Acción: Estímulo que indica el brazo a utilizar o la acción a realizar (presionar o agarrar), si el programa le indicó que brazo utilizar, el participante escogerá que acción realizar y viceversa.   Relajación: La imagen indica que el participante puede moverse y relajarse para la imagen de atención siguiente.    Cada participante fue colocado en una silla con un botón debajo de cada antebrazo, frente a él se colocó un escritorio con una pantalla (para mostrar las imágenes de cada trial) y un contenedor con dos botones más, uno para presionar en la parte superior y otro para sujetar o agarrar al costado de éste, con el fin de cuantificar el tiempo de cada movimiento realizado.  Se le colocó en la cabeza un gorro con 64 electrodos, en donde a cada uno de estos se le inserta la cantidad de gel conductor necesaria para lograr el paso de las señales neuronales.    Después de cada run el participante tiene la oportunidad de moverse libremente, sin levantarse del asiento, con el fin de relajarse totalmente para el comienzo del run siguiente.  A lo largo del experimento las señales del EEG son adquiridas y procesadas por equipo de g.tec y el programa BCI2000. Al terminar el experimento estas señales son procesadas a lenguaje de MATLAB, en donde se limpia la señal, eliminando canales y trials con problema, además crear promedios de las señales, separarlas en hemisferios y acomodar los datos en matrices.   Al conseguir estos datos, se utiliza el programa sLoreta para localizar fuentes en diferentes instantes y secciones de tiempo.


CONCLUSIONES

Por medio sLoreta es posible ver posibles fuentes en el cerebro, sin embargo, los hasta el momento, no hay resultados conclusivos con los datos de los participantes. Los resultados varían entre persona y persona. A pesar de que hay unas cuantas áreas que se repiten, no se puede afirmar que se encontró un resultado concreto.
Emerich Vega Ilse, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Enriquez Aguilar Elizabeth, Instituto Tecnológico del Sur de Nayarit
Asesor: Dr. Claudia Guadalupe Quezada López, Instituto Tecnológico de Tepic

DESARROLLO DE CURSOS EN LíNEA BAJO EL ESTáNDAR EC0050


DESARROLLO DE CURSOS EN LíNEA BAJO EL ESTáNDAR EC0050

Enriquez Aguilar Elizabeth, Instituto Tecnológico del Sur de Nayarit. Asesor: Dr. Claudia Guadalupe Quezada López, Instituto Tecnológico de Tepic



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, diversas tecnologías (computadoras, servidores, software, programas de computación, conectividad, Internet, computadoras de mano, teléfonos celulares) son utilizadas en conjunto para mejorar la educación de las personas y la capacitación de los integrantes de una empresa. Desarrollo de contenidos y productos de e-learning necesita de la existencia de especificaciones y normas que le permitan un crecimiento sostenido. El crecimiento se logra aumentando la productividad y alcance de los desarrollos y ampliando la disponibilidad de recursos humanos especializados.  Lo primero se consigue con el acatamiento a las normas y especificaciones y lo segundo gracias a que esas especificaciones son abiertas y públicas (estándatrs internacionales).  Para que existan este tipo de propiedades y beneficios es necesario entonces definir y especificar normas y reglas que deben ser respetadas por todos los componentes involucrados.  El estándar EC0050 está orientado a personas que deban contar con conocimientos, habilidades, destrezas y actitudes para planear y desarrollar cursos de capacitación que serán impartidos por medio del Internet, además de apoyar y dar seguimiento al aprendizaje de las personas que se interesan en adquirir capacitación por este medio y desarrollar los instrumentos de evaluación correspondientes. Esto entonces repercute en el uso adecuado de las tecnologías para el buen desempeño de los participantes de los cursos impartidos por Internet. 



METODOLOGÍA

El presente estudio, se realizó sobre el tipo de investigación documental. Tal como lo dice Galán-Amador (2011), el objetivo de la investigación documental es elaborar un marco teórico conceptual para formar un cuerpo de ideas sobre el objeto de estudio y descubrir respuestas a determinados interrogantes a través de la aplicación de procedimientos documentales. La técnica documental permite la recopilación de información para enunciar las teorías que sustentan el estudio de los fenómenos y procesos. Incluye el uso de instrumentos definidos según la fuente documental a que hacen referencia. Esta investigación, es de tipo cuasi experimental ya que no se tiene control de la muestra y los resultados competen exclusivamente a esa muestra.  Además de que se realizará la aplicación de una encuesta de satisfacción a un total de 28 alumnos de quinto, sexto y septimo semestre, de la carrera de Ingeniería en Sistemas Computacionales, del Instituto Tecnológico de Tepic que tomaron el curso de Arquitectura de Computadora. Estos mismos son considerados la muestra.  Por lo tanto, dentro los productos a entregar, dentro de este proyecto, están los siguientes:  Informe técnico.  Este documento constará de los resultados obtenidos bajo la investigación documental.  Materiales didácticos.  En este rubro se obtendrá un curso en línea con todos los componentes didácticos que marca el estándar EC00050.  Para lo cual se plantearon las siguientes actividades:  Revisión bibliográfica sobre los estándares.  Análisis comparativo de los diferentes estándares considerados.  Elaboración de material didáctico.  Cargar el material didáctico a una plataforma en línea.  Análisis de los resultados.  Elaboración de reporte. 


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la implementación de estándares para la creación de cursos en línea, más particularmente bajo el estándar EC0050, y el cómo estos mismos ayudan a que dicho curso sea eficiente para los usuarios.  Es por ello, que durante la realización del proyecto nos pudimos dar cuenta de ciertos puntos importantes que debe contener un curso en línea:  Identificación o aspectos representativos del curso.  Propósito de la formación.  Justificación.  Competencias.  Metodología.  Unidades de aprendizaje.  Gestor de evaluación.  Calendario.  Bibliografía.  Con respecto a cada unidad por separado existen ciertos elementos indispensables, como lo puede ser el nombre, objtetivos, actividades entre otros.  Con los elementos antes mencionados, se capturo un curso en línea dentro de la plataforma Moodle, a partir del cual, se realizo una encuesta de satisfacción para que los estudiantes retroalimentarán el curso, brindando sus opiniones sobre el contenido del curso, de acuerdo a los elementos considerados, para lo cual previamente se les dió una explicación sobre los elementos que debería contener el curso.  Gracias a dicha encuesta se obtuvieron las opiniones de cada uno de ellos, tomando a consideración el curso presencial, parte de los estudiantes comparaban ambos mencionando que el curso en línea cuenta con por lo menos el 80% del material de la clase presencial.  Además de obtener sugerencias como la forma de presentar la información ya que para algunos les parecía muy saturado dentro de una misma página, por lo que realizaron la sugerencia de dividirlo en pestañas, fuera de ello, a la mayoría de los estudiantes en cuanto a contenido les parecio que estaba bien estructurado; solo pequeños detalles como agregar más materiales didácticos como lo son los videos, ya que de esta forma les sería más fácil comprender ciertos temas de la asignatura.  Dichas sugerencias fueron tomadas a consideración para la retroalimentación del curso, con la finalidad de mejorarlo y sea disponible a futuro como estándar aplicable a otros cursos.       
Escalona Alejaldre Sergio, Instituto Politécnico Nacional
Asesor: Dr. David de Haro del Rio, Universidad Autónoma de Nuevo León

REMOCIÓN DE CONTAMINANTES PRESENTES EN EL AGUA USANDO ZEOLITAS NATURALES Y SINTÉTICAS


REMOCIÓN DE CONTAMINANTES PRESENTES EN EL AGUA USANDO ZEOLITAS NATURALES Y SINTÉTICAS

Escalona Alejaldre Sergio, Instituto Politécnico Nacional. Gomez Gonzalez Vania Laura, Instituto Politécnico Nacional. Asesor: Dr. David de Haro del Rio, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El agua es una sustancia vital para la vida, es muy importante para los seres humanos y para el resto de los seres vivos que habitan el planeta, es por ello que constantemente se buscan maneras de preservarla. Una forma de conservar el vital fluido es limpiarlo por medio de materiales porosos que retengan contaminantes que impidan su uso. Dichos materiales son utilizados dependiendo de las características del fluido a limpiar como pueden ser el tipo contaminante a retirar y/o su PH. Aunado a ello, en la actualidad se necesitan seguir procedimientos que generen el menor impacto ambiental posible, ya que el entorno habitable para los seres humanos se está consumiendo drásticamente. Es por ello que el desarrollo de nuevos materiales que satisfagan las demandas de este siglo se ha convertido en un gran desafío. Debido a lo anterior, durante el verano de investigación se sintetizaron, caracterizaron y evaluaron materiales porosos (zeolitas) que podrían ser utilizados en adsorción de metales de transición.



METODOLOGÍA

El proceso de investigación consiste en comparar el desempeño de una zeolita natural y una sintética, para ello, la zeolita sintética se prepara a partir de un silicato y aluminato en un medio básico. Posteriormente, las zeolitas natural y sintética se modifican a manera de protonar sus superficies para así lograr que sean aptas para remover de mejor manera sulfatos, fosfatos y cromatos. Después, los productos obtenidos se lavan y dejan secar para proceder a la caracterización. La técnica que se utiliza para caracterizar a los materiales es la espectroscopia infrarroja (IR). El siguiente paso es el evaluar la efectividad de las zeolitas, para ello se selecciona un metal y se montan sistemas de cinéticas de adsorción, isotermas y efecto del Ph, que posteriormente se miden en un equipo de absorción atómica (AA) para determinar su cambio de concentración en cuanto al metal de interés. La data obtenida a partir del equipo de IR se manipula con ayuda del software Origin para obtener información de la estructura del material. Por otra parte, los valores obtenidos por el equipo de AA se trabajan con el software Excel para elaborar tablas y graficas que representen el comportamiento del material. Al final se genera un informe para discutir los avances obtenidos.


CONCLUSIONES

De la presente investigación se ha logrado recopilar a través de la metodología realizada, mucha información con la cual se puede decir que se promueve la adsorción del metal de transición de interés a un PH 6, y esto sucede con los cuatro tipos de zeolita que se trabajaron, pero a dos de éstas se les realizó la modificación para protonar su superficie, entonces por éste lado se concluye que esa modificación no mejoró la adsorción, por lo tanto se pretende realizar otro procedimiento para modificar la superficie de la zeolita, tanto natural como sintética, usando un surfactante, y realizar las pruebas a un PH 6, donde se espera que de ésta manera se remueva una cantidad mayor del metal de transición.
Escamilla Rodríguez Martín, Instituto Tecnológico de Toluca
Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales (Colombia)

SONDA PERIODONTAL ELECTROMECáNICA Y EXOESQUELETO PARA ASISTENCIA EN PARAPLEJIA FLáCIDA


SONDA PERIODONTAL ELECTROMECáNICA Y EXOESQUELETO PARA ASISTENCIA EN PARAPLEJIA FLáCIDA

Escamilla Rodríguez Martín, Instituto Tecnológico de Toluca. Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La enfermedad periodontal es una de las patologías orales más comunes a nivel mundial y una de las principales causas de pérdida dental. La sonda periodontal permite un análisis de este tipo de enfermedades. La manera en que se utiliza básicamente consta en introducir la punta de la sonda en la bolsa periodontal hasta el fondo y de manera visual la persona que manipula este instrumento define la distancia de profundidad de acuerdo a unas medidas en milímetros que tiene la sonda en la punta. Pero al ser este proceso de manera visual y por una persona, el dato de medición tiene un margen de error y de esta problemática es cómo surge el desarrollo de este proyecto relacionado con la sonda con el fin de obtener una medición precisa. Específicamente se plantea el uso de tecnología de instrumentación de alta precisión para la medición del sondaje. Por otra parte las personas con paraplejia comúnmente utilizan una silla de ruedas como método de movilidad, sin embargo, estas presentan dificultades al desplazarse por superficies irregulares. Incluso con las sillas eléctricas sigue existiendo esta limitación al terreno liso de desplazamiento afectando considerablemente la parte psicológica y social del usuario por lo que la necesidad de tener mayor movilidad e independencia que la brindada por la silla de ruedas ha permitido el desarrollo de exoesqueletos de miembro inferior, que consisten en una estructura biomecanicamente compatible con el cuerpo humano y permiten el movimiento seguro del usuario sin obstruir u oponer resistencia al mismo teniendo la libertad de andar en terrenos no solo lisos.



METODOLOGÍA

El proyecto corresponde a una tipología de desarrollo tecnológico y consta de algunas fases que permiten cumplir con los objetivos. Sonda periodontal. Desarrollar una etapa de instrumentación para el sondaje a través de sensores de desplazamiento lineal, tanto LVDT como Encoder Lineal. Caracterizar mecánica y eléctricamente al sensor LVDT  con el fin de establecer un algoritmo que determine de forma precisa del desplazamiento. Tomar muestras de voltaje cada 500mv con las cuales se obtendrá una ecuación que describe la respuesta en distancia del sensor.  Implementar la ecuación en un algoritmo para obtener la distancia con base al voltaje de salida del sensor. Para el sensor Encoder LIneal de cuadratura, desarrollar un algoritmo para leer las interrupciones con una resolución de 12 líneas por mm para obtener el equivalente de distancia en milímetros dependiendo del desplazamiento del encoder.   Exoesqueleto Obtener las ecuaciones correspondientes a la curva de la articulación de miembro inferior, con el fin de modular la velocidad con base a la posición de encoder rotacional. Identificar los drivers y diagramas de conexión de los 4 motores que gobiernan al exoesqueleto. Identificar la señal correspondiente a cada pin de conexión de driver de control del motor. Desarrollar un algoritmo para realizar el control de velocidad con base a cada grado establecido por el encoder de cuadratura y una prueba para ejecutar dicho movimiento. Implementar el algoritmo final para el seguimiento de una curva establecida para un motor controlado por un encoder de cuadratura.


CONCLUSIONES

Sonda periodontal Se desarrolló un algoritmo automatizado para la implementación de un LVDT obteniendo y mostrando la medición real de profundidad de surco gingival cada que se requiera una medición de cada bolsa periodontal. Se desarrolló un algoritmo automatizado para la implementación de un encoder de cuadratura obteniendo y mostrando la medición real de profundidad de surco gingival cada que se requiera una medición de cada bolsa periodontal. La implementación del sensor de encoder de cuadratura tiene una precisión adecuada pero condicionada a condiciones de velocidad de movimiento de la cinta de interrupciones, ya que presenta medición errónea cuando cambian las condiciones de velocidad de movimiento. Por otro lado la implementación del LVDT tuvo mejor respuesta en cuanto a la aproximación de medición real, y gracias a la resolución infinita con la que cuenta no tiene limitaciones de velocidad de muestreo. Como complemento final los datos de medición finales se conectaron mediante puerto serial hacia un software de periodontograma donde se visualiza el sistema periodontal completo. Se realizó la automatización de la medición eliminando así la utilización de un botón de confirmación ya que con solo el movimiento de la sonda es suficiente para calcular la medición. Exoesqueleto Se realizó un algoritmo para establecer la posición del motor, que representa a la variable de las ecuaciones que a su vez controlan el driver y por ende al motor. Se logró seguir la curva establecida en el motor controlado por un encoder rotacional. Con la implementación del algoritmo final se logró seguir una curva  pre-establecida, sin embargo, al no tener un control de posición del motor podría existir un error acumulativo que debe ser corregido por el encoder rotacional.
Escobar Chavez Ruben Isai, Instituto Tecnológico de Pachuca
Asesor: Dr. Pablo Luis López Espí, Universidad de Alcalá (España)

DISEñO DE REDES PASIVAS DE TECNOLOGíA ÓPTICA HASTA EL HOGAR FTTH (DEL INGLéS FIBER TO THE HOME)


DISEñO DE REDES PASIVAS DE TECNOLOGíA ÓPTICA HASTA EL HOGAR FTTH (DEL INGLéS FIBER TO THE HOME)

Escobar Chavez Ruben Isai, Instituto Tecnológico de Pachuca. Asesor: Dr. Pablo Luis López Espí, Universidad de Alcalá (España)



PLANTEAMIENTO DEL PROBLEMA

La tecnología FTTH (del inglés Fiber To The Home), propone utilizar la fibra óptica hasta el usuario final, ofreciendo eliminar el tradicional sistema de comunicación por medio de cables de cobre y permitiendo velocidades de transmisión de datos muy superiores a las alcanzables con las tecnologías xDSL. Para la conexión mediante la fibra óptica se tienen dos parámetros a considerar: la distancia y la cantidad de usuarios a la que se pretende alcanzar. Para los valores típicos de señal emitida en la cabecera y a recibir en las tomas de usuario, el número de usuarios típico a considerar es de 256 y 10 km de longitud mnáxima entre ambos. Para alcanzar este número de usuarios, la señal se divide mediante divisores ópticos en dos fases, por ejemplo 1:8 y 1:16, permitiendo configurar en este caso 8x16=128 usuarios finales. Es importante que el operador logre conocer los distintos efectos que se tienen variando la cantidad de usuarios; desde una cantidad pequeña a una que alcance su límite superior, por lo que es necesario desarrollar distintos escenarios con los que se pueda interactuar, que permitan hacer cambios en la trayectoria y distancia de la fibra óptica, cumpliendo con el objetivo de poder variar los parámetros de cantidad de usuarios y distancia.



METODOLOGÍA

El presente proyecto se dividió en cuatro etapas principales, las cuales son: Diseño Se analizó la propuesta del diseño de los distintos escenarios; en físico; con cada uno de los elementos a utilizar para lograr el resultado deseado. Dichos elementos se componen de latiguillos, splitter , pigtail, conectores, cajas y equipos de armado y medición, como E6000C Mini-OTDR, GN-6025 Series Loss Test Sets, ERICSSON EFC-P22 FIBER CLEAVER, este conjunto de equipo fue utilizado para armar y monitorear los elementos a utilizar. Fibra Óptica Para esta etapa se utilizaron variables de fibra óptica G652 y G657. G652: fibras ópticas diseñadas para proporcionar una gran resistencia a las pérdidas adicionales debidas a macro curvaturas. G657: Adecuadas en aplicaciones de redes metropolitanas, de acceso, cableados estructurados y CATV. Para utilizar la fibra óptica como se planeó fue necesario soldar un pigtail con terminal de conector SC (Set and Connect) buscando tener la menor perdida posible al momento de realizar la soldadura siguiendo el método de fusión. También se utilizaron latiguillos con longitudes variadas y características similares a las anteriores mencionadas. Montaje Físico Se buscó la optimización del espacio disponible para la colocación de los equipos a utilizar, tomando en cuenta, el número de escenarios, la cantidad de bobinas y rollos, el tamaño y numero de cajas con splitter (que es variable según sea la división que hace). Teniendo en cuenta las dimensiones aproximadas, se tomaron medidas y lo siguiente fue colocar cada uno de los elementos en su lugar teniendo un orden de colocación, del primer al último escenario. Pruebas En esta parte del proyecto se unen las etapas antes descritas, para lograr un sistema funcional completo de una Red Pasiva De Tecnología Óptica (PON, del inglés Passive Optical Network). Se realizan pruebas de rutina, al momento de ser detectado algún elemento con empalme que presente muchas perdidas o algún elemento defectuoso, este es corregido o reemplazado según sea el caso. buscando que la pérdida total sea pequeña y parecida a los valores teóricos además muy semejante a la obtenida sumando individualmente cada uno de los elementos existentes.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la instalación y diseño de una red pasiva de tecnología óptica. Cada uno de los pasos a realizar tuvo su debida importancia tomando en cuenta el resultado deseado; hacer las conexiones y empalmes (monitoreado con distintos equipos de medición de alta calidad) es de los pasos con más relevancia porque se busca evitar la mayor pérdida en los empalmes. La instalación terminada fue diseñada para hacer modificaciones según sea deseado para métodos de practica o de enseñanza; con la finalidad de ser operado fácilmente; las ramas y distintos escenarios de la red óptica fueron digitalizados para conocer la trayectoria, longitud y elementos utilizados.
Escobedo Hernández Carmen Gabriela, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

CIBERSEGURIDAD


CIBERSEGURIDAD

Escobedo Hernández Carmen Gabriela, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Morales López Germán, Universidad Politécnica de Sinaloa. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El desarrollo tecnológico ha transformado las operaciones de el gobierno, ciudadanos, empresas e instituciones y la forma en que interactúan.La dependencia que todos los sectores sociales y económicos tienen de la infraestructura de las TI ha crecido extraordinariamente, volviéndose compleja, difícil de gestionary a la vez han traído riesgos y dificultades en cuanto a la seguridad de la información. Según el informe sobre riesgos globales para 2016 del Foro Económico Mundial, los ataques cibernéticos se han considerado como uno de los principales riesgos globales entre los más probables de ocurrir y con mayores consecuencias, en los últimos años han aumentado rápidamente atacando a los negocios en todo tipo de sectores, para ello se necesitarán implementar nuevas estrategias  que garanticen la seguridad minimizando los riesgos de ataques cibernéticos. “Las personas representan el eslabón más débil dentro de la seguridad informática: a diferencia de los ordenadores, las personas no pueden seguir instrucciones exactamente tal y como fueron dictadas” (Álvaro Gómez, 2014). 



METODOLOGÍA

hemostomado como punto de partida referencias bibliográficas procedentes de diferentes ámbitos del sector de la ciberseguridad, enfocandolo a la comunidad educativa de la Universidad Politécnica de Sinaloa. Se ha seguido el procedimiento descrito a continuación:  Para el lanzamiento del estudio  se realizo una investigaión exaustiva A lo largo de la elaboración del estudio se ha mantenido una interacción para la presentación de avances, el seguimiento y modificaciones.  Se emplearón encuestas como instrumento para cuantificar y conocer lo que piensa la poblacion UPSIN


CONCLUSIONES

La principal amenaza que afecta a la seguridad de la información es el desconocimiento de la misma, la confidencialidad e integridad, por lo que el implementar estrategias que axilen a la de prevención de ataques cibernéticos y mantenga informados a la comunidad de la Universidad Politécnica de Sinaloa, permitiria disminuir la vulnerabilidad en la seguridad informatica.
Escudero Guereque Gustavo Armando, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Jorge Rivera Rovelo, Universidad Anáhuac Mayab

MODELO PARA RECONOCIMIENTO DE CRISTALES EN FORMA DE HELECHO EN IMáGENES DE SALIVA OBSERVADA AL MICROSCOPIO PARA LA DETECCIóN DE FERTILIDAD EN LA MUJER.


MODELO PARA RECONOCIMIENTO DE CRISTALES EN FORMA DE HELECHO EN IMáGENES DE SALIVA OBSERVADA AL MICROSCOPIO PARA LA DETECCIóN DE FERTILIDAD EN LA MUJER.

Escudero Guereque Gustavo Armando, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jorge Rivera Rovelo, Universidad Anáhuac Mayab



PLANTEAMIENTO DEL PROBLEMA

La planeación familiar toma un papel sumamente importante para la vida de las personas, ya que al hablar de fertilidad se puede tener por un lado la decisión de saber si se busca el embarazo, pero por otro lado el evitar el embarazo, y todo esto se puede saber mediante ciertos procedimientos que indican el nivel de fertilidad. Esta información puede ser obtenida con datos proporcionados dentro del mismo ciclo menstrual de la mujer. Uno de esos datos es la temperatura basal, otro es la viscosidad del flujo cervical, y otro es la observación de la saliva al microscopio, para determinar la forma de los cristales que se forman. Durante ciclo menstrual de la mujer, se presenta una cristalización en la saliva debido a los altos niveles de estrógenos por lo que al dejar secar una muestra de saliva se crean cristales en forma de helechos en los días de mayor fertilidad; por tanto, identificar la presencia de estos y su densidad en las imágenes es lo que permite saber si la mujer está en días fértiles o no.



METODOLOGÍA

Como primera instancia se realizó el análisis de una base de datos la cual consta de imágenes sobre muestras de saliva tomadas a diferentes mujeres en las cuales se pueden encontrar divididas por sus diferentes categorías siendo fértiles o no fértiles. Después de sus análisis se realizó un preprocesamiento de las imágenes debido a que se presentaban imágenes en RGB por lo que para los propósitos necesarios se realizó una modificación en las imágenes realizando la detección de los bordes de las imágenes mediante el algoritmo de Canny el cual generó las imágenes procesadas con una máscara aplicada para obtención de bordes. En la siguiente etapa se realizó la arquitectura de una red neuronal para el aprendizaje automático de los datos deseados siendo los patrones específicos de estas imágenes, por lo que se generan diferentes modelos los cuales se basan en una red neuronal preentrenada con imágenes tomadas de una base de datos llamada ImageNet. Ésta es una base de datos muy extensa y la red se entrenó originalmente para la detección de algunos objetos. Sin embargo, se puede reentrenar parte de la red para adaptarla a las imágenes con objetos que nos interesa reconocer automáticamente. Por tanto, se realizó la extracción de las ultimas capas de la red para reentrenarlas y así poder crear una detección estos patrones. Se realizaron pruebas con imágenes sin procesamiento, otras con imágenes resultado del filtro Canny (habiendo probado con diferentes valores del parámetro de umbral del mismo) y finalmente se probó también con imágenes modificadas por software ya que la base de datos propia con que se cuenta es muy limitada en número.


CONCLUSIONES

Para el entrenamiento de una red neuronal la base de datos tiene que ser muy extensa debido al entrenamiento que requiere esta misma para el aprendizaje automático por lo que sin ellas no se logra la detección deseada. Por tanto, después de analizar los resultados obtenidos, se recomienda ampliar la base de datos de imágenes de saliva observada al microscopio, a fin de incrementar el desempeño de la red. Lograr identificar los patrones específicos con alta precisión es importante porque la usuaria puede conocer si se encuentra en días de ovulación o cercanos (días fértiles) o no. Se puede tener una precisión mayor al 90% en la prueba de fertilidad de una manera muy sencilla y no invasiva. Si no fuera posible obtener en el corto plazo una gran cantidad de imágenes, también puede utilizarse una base de datos moderada (pero mayor a la actual) y generar más imágenes aplicado transformaciones a las originales, como rotaciones u otras deformaciones.
España García Isela Tsugey, Universidad de Guadalajara
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO


DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO

Cortes Martinez Amairani Yamileth, Instituto Politécnico Nacional. España García Isela Tsugey, Universidad de Guadalajara. Miranda Landeros Josue, Instituto Politécnico Nacional. Parra Valdez Manuel, Universidad de Guadalajara. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad crónica que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce (OMS, 2016). En México y en el mundo, la diabetes es una de las enfermedades cuya tasa de mortalidad es de las más altas. De acuerdo con la Organización Mundial de la Salud (OMS), más del 80% de las muertes registradas, mayormente en países de ingreso mediano y bajo, son causadas por esta enfermedad, y asegura que estas cifras podrían duplicarse en los próximos 10 años, siendo para el año 2030 la séptima causa de mortalidad en el mundo. Entre algunas de las causas procedentes de esta enfermedad se encuentran: infarto al miocardio, accidentes cerebrovasculares, amputación de miembros inferiores, neuropatías, pérdida de agudeza visual e insuficiencia renal. Por lo anterior, en este verano de investigación científica se desarrolló un prototipo para dar pulsos de energía al pie, y otro para mano, que permite aumentar o disminuir la temperatura en el miembro y así, utilizando una cámara infrarroja poder visualizar la circulación sanguínea y su respuesta ante un choque térmico. Este prototipo está diseñado para pacientes diabéticos, ya que, de este modo, se podrán realizar pruebas constantemente para observar la circulación sanguínea y así tomar acciones que ayuden a prevenir o disminuir algunos de los padecimientos causados por la diabetes mencionados anteriormente.



METODOLOGÍA

Se construyó un prototipo para pie que consiste en un soporte hecho de aluminio y madera de tal manera que amolde a la forma del pie. Se colocó una placa de aluminio anodizado que abarca la región de las puntas de los dedos del pie a la región del metatarso, bajo esta placa de aluminio anodizado se colocaron cuatro celdas peltier TEC1-12706 a 12V y 3A conectadas en un arreglo en serie de dos celdas peltier que se encuentran en paralelo con el arreglo serie de otras dos celdas peltier. Las celdas peltier se calientan de un lado y enfrían del otro según sea el sentido de la corriente que circule a través de ellas. La temperatura de la cara inferior es regulada mediante dos disipadores de calor de cobre y dos ventiladores PAPST MULTIFAN 3314 S a 24V conectados en un arreglo en paralelo. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con un puente H IBT-2 con un voltaje de entrada de 6V-27V y una corriente máxima de 43A, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa de aluminio. El circuito se alimentó con una fuente de poder SORENSEN  XPF 60-20D con dos salidas a 60V-20A máximo. El prototipo para la mano se construyó de aluminio y madera. Se colocó una placa de aluminio anodizado amoldado para los dedos de la mano que abarcan las falanges media y distal. Bajo la placa de aluminio se colocó una celda peltier TEC1-12706 a 12V-3A. La celda peltier se colocó sobre un disipador de calor de cobre y se utilizaron 2 ventiladores SUNON a 12V en paralelo para regular la temperatura. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con dos módulos relevadores alimentados a 5V, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa. El circuito se alimentó con una fuente de poder SORENSEN XPF 60-20D con dos salidas a 60V-20A máximo. La prueba se realizó bajo condiciones de temperatura ambiente (25°C) y para esta, el paciente colocó la extremidad correspondiente en el soporte, se comenzó a enfriar la placa hasta una temperatura de 10 °C y se mantuvo a esa temperatura durante 30 segundos, posteriormente se calentó la placa hasta 40 °C para nuevamente mantener la temperatura durante 30 segundos. Durante este periodo de enfriamiento y calentamiento se utilizó una cámara infrarroja marca Xenics modelo Gobi 640ge controlada por software Xeneth versión 2.5, adquiriendo secuencias de imágenes en escala de grises de 8 bits cada segundo por diez o vente minutos, para observar la respuesta del cuerpo ante un choque térmico. Las imágenes se procesaron con un programa realizado en Matlab que consiste en analizar a cada uno de los píxeles que componen la imagen y obtener la transformada de Fourier que hace referencia a la variación que éstos tienen en un intervalo de tiempo.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre la termografía y habilidades en el uso de una cámara infrarroja para la recolección de imágenes que permitieron observar la respuesta del organismo ante un choque térmico y con esto, conocer cualitativamente el deterioro vascular en pacientes diabéticos.
Esparza Dimas Esmeralda, Instituto Tecnológico de Tepic
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIÓN DE LOS RECURSOS HÍDRICOS DE LA CUENCA DEL LAGO DE CUITZEO MEDIANTE SISTEMAS DE INFORMACIÓN GEOGRÁFICA


EVALUACIÓN DE LOS RECURSOS HÍDRICOS DE LA CUENCA DEL LAGO DE CUITZEO MEDIANTE SISTEMAS DE INFORMACIÓN GEOGRÁFICA

Esparza Dimas Esmeralda, Instituto Tecnológico de Tepic. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se quiere conocer de manera efectiva los recursos hídricos de los que dispone la cuenca del lago de Cuitzeo (Michoacán y Guanajuato), para poder realizar su correcta distribución. Debido a que algunas de las actividades económicas más importantes que se desarrollan en la zona son las del sector ganadero, agrícola y de pesca. El agua se vuelve un recurso imprescindible, esto sin mencionar que el crecimiento poblacional dentro de la cuenca aumenta de manera constante y junto con ella el uso vital del agua. Es por esto que se requiere realizar un balance hídrico para conocer los volúmenes reales de precipitación, temperatura y escurrimientos para poder desarrollar planes de gestión integral del agua a corto, mediano y largo plazo.



METODOLOGÍA

La información sobre los recursos hídricos en el país es muy limitada, además de que está sujeta a modificaciones por actividad del hombre, por lo tanto, se tuvo que realizar un balance hídrico partiendo desde los datos tomados de estaciones climatológicas inmediatas a la zona de estudio. Empezando desde la delimitación de la zona de estudio, la cual se obtuvo basándonos en un punto de salida, sabiendo bien que la cuenca de estudio se considera como una cuenca endorreica. La superficie abarcada por la cuenca en estudio es de aproximadamente 4003 kilómetros cuadrados, lo que representa la magnitud de los cálculos que se han ido realizando a lo largo de la investigación. Para conocer los datos necesarios requeridos en un balance hídrico, nos apoyamos en la base de datos CLICOM, de donde obtuvimos los datos de precipitación y temperatura promedio de 21 estaciones. Debido a que los datos obtenidos, aunque contienen faltantes, son muy abundantes, se realizó un cálculo de medias mensuales para precipitación, donde descartamos los años húmedos bajo un criterio de máximo diez días secos faltantes y cero húmedos basándonos en criterios similares, pero tomando en cuenta opiniones de especialistas en el área, así como dos meses secos y cero húmedos respectivamente. Para los datos de temperatura promedio también se realizaron cálculos de promedios mensuales mediante tablas dinámicas, ambos realizados en EXCEL.  Ya que se necesitaba percibir los coeficientes de escurrimiento dentro de la cuenca, primero tuvimos que conocer el uso y tipo de suelo que existen dentro de esta. Estos datos se adquirieron de CONABIO buscando la edafología de la zona, que junto con los modelos de elevación geográfica descargados de INEGI se pudieron elaborar mapas de uso y tipo de suelo en el software ArcGIS, así como determinar el parámetro K general de la cuenca en estudio. La evapotranspiración se determinó a través del método de Thornthwaite el cual para su cálculo requiere que se conozcan las variables de temperatura y la latitud de cada estación, esto se realizó de manera particular para cada estación. Para proceder con el balance hídrico se requiere conocer la precipitación efectiva, la cual obtendremos con el producto de las precipitaciones medias y el Coeficiente de escurrimiento, el cual previamente fue obtenido con el parámetro K según la NOM-011-CONAGUA-2015. Conocidos estos valores podremos obtener el valor de la infiltración el cual se logra realizando la diferencia de las precipitaciones medias, la evapotranspiración real y la precipitación efectiva.      


CONCLUSIONES

Durante mi estancia de verano Delfín en la Universidad Michoacana de San Nicolás de Hidalgo, recibí varios cursos de capacitación en software de los cuales obtuve conocimientos que pude aplicar directamente en mi proyecto de investigación. Estos conocimientos no solo fueron sobre uso de software sino de investigación y sobre la hidrología. Se espera que con el conocimiento adquirido de la zona y balance hidrológico realizado se logre conocer la verdadera disponibilidad de los recursos hídricos de la cuenca y se puedan desarrollar planes para la gestión del agua que cumplan de manera objetiva con las necesidades de la población que depende de ella sin sobreexplotar el recurso que se brinda, y evitar las sequias del lago de Cuitzeo.
Espinosa Abarca Bryan Oswaldo, Instituto Tecnológico Superior de Los Reyes
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

MODELACIóN Y OPTIMIZACIóN DE PROCESOS DE MANUFACTURA UTILIZANDO UN SOFTWARE DE SIMULACIóN.


MODELACIóN Y OPTIMIZACIóN DE PROCESOS DE MANUFACTURA UTILIZANDO UN SOFTWARE DE SIMULACIóN.

Espinosa Abarca Bryan Oswaldo, Instituto Tecnológico Superior de Los Reyes. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen muchas áreas de oportunidad en la empresas para poder optimizar y mejorar sus procesos o métodos de trabajo, existen muchas herramientas con las cuales se pueden lograr estas mejoras a las empresas, sin embargo en algunas de ellas al momento de aplicarlas  se pueden generar costos o pérdidas para la empresa, una herramienta muy útil para poder visualizar el comportamiento de una empresa  y así mismo analizar  las áreas donde existen demoras, cuellos de botella, tiempo ocioso así como otros problemas que contribuyen a que la empresa sea ineficiente. Esta herramienta son los software de simulación, en la cual se puede representar el diseño de las organizaciones, puede integrar cada uno de los procesos, operadores, materiales, fallas en equipos, entre otros aspectos que permitan evaluar y elegir el mejor escenario para mejorar el desempeño del proceso.  En este caso se analizara una empresa que se dedica a la fabricación de puertas acero, específicamente su proceso de fabricación mediante simulación de eventos discretos con ayuda del software de simulación Quest®, debido a que se necesita optimizar la planta de producción, y al utilizar el software se pueden plantear diferentes alternativas de solución sin necesidad de experimentar físicamente en las áreas de trabajo.



METODOLOGÍA

Se comenzó con la construcción del modelo de simulación realizando la primera área,herrería la cual cuenta con 5 departamentos los cuales son, tronzado: corte del perfil a la medida de lo especificado por la orden del cliente, habilitado: perforaciones a los perfiles para prepararlos para futuros procesos, armado: a través de soldadura de micro alambre los perfiles son unidos para dar la forma preliminar al producto, pulido: eliminación de exceso de soldadura en las uniones y recubrimiento: para evitar oxidación con el paso del tiempo. Así como 22 procesos los cuales tuvimos que crear y añadir a cada máquina correspondiente, en el área se cuenta con aproximadamente 40 operarios los cuales fueron creados para la visualización del modelo de simulación. Posteriormente se realizó la construcción del área de rolado y troquelado Proceso bajo el cual láminas de acero galvanizado se montan en una Rodadora para que se les de la forma de perfil de manera automática por la acción electromecánica, originando así el marco como se le conoce. En esta área se necesitaron 9 procesos y aproximadamente 7 operarios   Después se construyó el área de lavado la cual se utiliza para para eliminar todas las impurezas únicamente de los marcos obtenidas en los procesos previos. Es una actividad aislada, pero pertenece al grupo de operaciones previas a la pintura cuanta con 3 departamentos así mismo se diseñaron 3 procesos y 2 operarios para esta área   El área de pintado se construyó una vez terminada el área de rolado y troquelado, para esta área se realizó un conveyor a 3 metros de altura en el cual se montaron 110 ganchos, además de una cabina de pintado y un horno de secado de pintura para esta área se necesitaron 4 procesos y 3 operarios. Y para terminar con la construcción del modelo de simulación se construyó el área de armado de puerta donde se lleva acabo el Ensamble final de la puerta, es hasta este momento cuando los perfiles ya pintados y ensamblados toman la categoría de puerta esta área cuenta con 5 departamentos. Corte de vidrio: corte de hojas de vidrio a las medidas de las órdenes del cliente, Envidriado: colocación de vidrio y silicón (caliente, transparente y blanco), Habilitado: preparación de la chapa y ventila para las puertas. Armado: ensamble de piezas entre la puerta y el marco, Empaque: se realiza un embalaje para dirigir el producto terminado a embarques. Para esta área se necesitó la creación  de 12 procesos y se necesitaron aproximadamente 10 operadores. Cabe mencionar que una vez construida un área del modelo de simulación siempre se proseguía a validar que el modelo haya sido creado de forma adecuada y que no existieran problemas al momento de correr la simulación, una vez obtenido el modelo completo de simulación se realizaron experimentos de acuerdo a los conocimientos de mejora y optimización, con ayuda de la visualización y la información obtenida de la simulación del proceso.


CONCLUSIONES

En el caso anterior mente mostrado y de acuerdo con los procesos que se realizan en esta empresa, además con ayuda de los resultados obtenidos y la visualización de la simulación del proceso de producción de puertas de acero, se pudo determinar  que existía un cuello de botella en el área de herrería específicamente en el departamento de lavado debido a que este proceso se realizaba de manera cíclica por lo cual acumulaba los tiempos de lavado de los tres productos que ingresaban al proceso, por lo cual se decidió en enfocarse en esa área para poder optimizar el proceso, se realizaron experimentos en la simulación para determinar las posibles soluciones de mejora en esta área, concluyendo así que la manera de mejorar este departamento era agregar otra máquina para lavar la cual  se encargaría de realizar el proceso de lavado de retícula. Con esta mejora se logró reducir el tiempo de producción  en aproximadamente un 17%.
Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Espinosa Jimenez Mariana, Instituto Politécnico Nacional
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

MORTEROS DE CAL Y PIEDRA PARA RESTAURACIóN DE EDIFICIOS HISTóRICOS.


MORTEROS DE CAL Y PIEDRA PARA RESTAURACIóN DE EDIFICIOS HISTóRICOS.

Espinosa Jimenez Mariana, Instituto Politécnico Nacional. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

Los agrietamientos y/o desprendimientos de los recubrimientos en estructuras de piedra, son un problema grave que hoy afecta a la mayoría de los edificios catalogados como históricos en la Ciudad de Oaxaca de Juárez. Lo anterior, es resultado de utilizar morteros de cemento-arena, los cuales al ser poco permeables no permiten la transpiración natural de los muros. En este contexto, surge la necesidad de crear un mortero permeable, que respete las propiedades de la piedra y facilite las tareas de conservación y restauración. La Cal, es un material que se ha usado en la construcción desde épocas muy antiguas .Por su proceso de carbonatación, resulta ser el elemento ideal para sustituir al cemento en un mortero con piedra cantera, propuesta que se presenta en este proyecto para recubrimientos en edificios dañados. 



METODOLOGÍA

1.-Muestreo de los materiales. 2.-Caracterización de la arena de rio; granulometría.  3.-Diseño de mezcla; proporciones cal-arena 1:2. 4.-Elaboración de muestras; cubos de 5x5x5cm y cilindros de 10x20cm. 5.-Caracterización Mecánica; resistencia a la compresión, resistencia al desgaste y propiedades de adherencia. 6.-Caracterización Física; densidad real/ densidad aparente y permeabilidad. 7.-Caracterización Micro estructural; morfología general, difracción de rayos X y composición química. 8.-Análisis de resultados. 


CONCLUSIONES

La mezcla en cubos de 5x5x5 cm, que se confeccionó con las proporciones de cal y arena establecidas en la metodología, dio como primer resultado: Un mortero más ligero que el tradicional (cemento-arena) y de apariencia temporal del color de la piedra cantera.          Con las pruebas que se ejecutarán más adelante, se espera que la sustitución de la arena por piedra cantera y el uso de cal, mejoren las propiedades mecánicas y micro estructurales de morteros para procesos de restauración.
Espinosa Zamora Diego Alfredo, Universidad de Colima
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Espinosa Zamora Diego Alfredo, Universidad de Colima. Ibarra Ovando Luis Abraham, Instituto Tecnológico de Tapachula. Torreblanca Villavicencio Daniel, Instituto Tecnológico de Tapachula. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El desarrollo sustentable de estos tiempos modernos impone un cambio drástico en la visión y las estrategias para lograr una infraestructura con responsabilidad social, consciente de los impactos ambientales que genera y cuyos objetivos se centren en mejorar la calidad de vida cumpliendo con los estándares ambientales de orden internacional. Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos.



METODOLOGÍA

Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Las proporciones empleadas de cada tipo de residuo fueron las siguientes: Para tiras y escamas de PET, se usaron 2gr por cada kg de cemento. Para ceniza de bagazo de caña, se reemplaza el 5% y el 15% en peso del cemento (para morteros y concretos, respectivamente). Para perlita de unicel, se sustituye la totalidad del volumen de agregado grueso. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados obtenidos no fueron satisfactorios pues identificamos ciertos errores que nos impidieron llegar a las cifras esperadas, tales como un diseño poco fortuito para las mezclas, humedad de los agregados y el tiempo disponible.  Los blocks no lograron su acometido, pues no rebasaron los 30 kg/cm2 y esto se debe a la cohesividad de la mezcla, así como al curado de los blocks. Los concretos ligeros obtuvieron una resistencia a la compresión que va del 12% al 20% de lo esperado. Los concretos con ceniza obtuvieron una resistencia a la compresión que va del 37% al 62% de lo esperado. Los concretos con tiras de PET obtuvieron una resistencia a la compresión que va del 58% al 80% de lo esperado. Los concretos convencionales obtuvieron una resistencia a la compresión que va del 65% al 73% de lo esperado, haciendo más notorias las deficiencias en el diseño, pues ni siquiera en la mezcla de control se logró llegar. Para la cuestión de las vigas, es satisfactorio mencionar que las tiras de PET cumplieron su función y retardaron la fisuración, consiguiendo mayor resistencia a la flexión. Se obtuvo un valor mayor al 20% de la resistencia a la compresión lograda en concreto convencional (145.52 kg/cm2). Las vigas con perlita de unicel lograron entre 11 y 17 kg/cm2, apenas posicionándose cerca del 10% de la resistencia a la compresión del concreto convencional. El sistema modular de muros si es muy efectivo, ya que son excelentes aislantes térmicos y debido a su peso reducido, son muy fáciles de transportar y colocar en el sitio de construcción; en conclusión, es una alternativa atractiva para viviendas de bajo costo para zonas marginadas.
Espinoza Diaz Kevin Bryan, Universidad Politécnica de Sinaloa
Asesor: Dr. Carmen Elizabeth Camacho Ortiz, Universidad Politécnica de Sinaloa

ANáLISIS, DISEñO Y CREACIóN DE REALIDAD AUMENTADA PARA LA ENSEñANZA


ANáLISIS, DISEñO Y CREACIóN DE REALIDAD AUMENTADA PARA LA ENSEñANZA

Espinoza Diaz Kevin Bryan, Universidad Politécnica de Sinaloa. Asesor: Dr. Carmen Elizabeth Camacho Ortiz, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La realidad aumentada (RA) se está convirtiendo en una de las tecnologías emergentes con una cercana penetración en la formación universitaria. Por RA se entiende la combinación de información digital e información física en tiempo real a través de diferentes dispositivos tecnológicos (Tablet, Smartphones, gafas, etc.); es decir, consiste en utilizar un conjunto de dispositivos tecnológicos que añaden información virtual a la información física para crear una nueva realidad, donde tanto la información real como la virtual desempeñan un papel significativo. Sus propiedades más significativas son: ser una realidad mixta, integrada en tiempo real, posee una diversidad de capas de información digital, ser interactiva, y que mediante su utilización enriquecemos o alteramos la información adquirida por el interesado o interesada. En la formación universitaria contaremos con diferentes experiencias y más específicamente en la enseñanza de la medicina. El estudio que se presenta se denomina Análisis, diseño y creación de Realidad Aumentada para la enseñanza de anatomía; siendo uno de sus objetivos el producir contenidos en formato RA para ser aplicados en contextos de formación universitaria, y conocer el grado de adopción de esta tecnología por el estudiante analizado mediante el modelo de aceptación. La aceptación de cualquier tecnología por una persona viene determinada por las creencias que tiene sobre las consecuencias de su utilización; y al mismo tiempo que la actitud hacia el uso de un sistema tecnológico está basado en 2 variables previas: la utilidad percibida y la facilidad de uso percibida.



METODOLOGÍA

Para la producción de los objetos en RA se estudia primero la anatomía del cuerpo humano en general, enfocándonos en el sistema digestivo, se toman medidas, imágenes y referencias de los libros de anatomía: Atlas de anatomía humana (5ta edición) - Frank H. Netter, Atlas de anatomía humana - Taschen y Atlas de anatomía humana - Giuseppe Anastasi, Eugenio Gaudio, Carlo Tacchetti. Se utilizan además, diversos programas como 3DsMax, para el modelado detallado y profesional de cada parte de los órganos del sistema digestivo; asimismo se escaló a un tamaño real y se introdujo una textura semejante a la realidad, para ello se usó el programa Substance Painter, programa dedicado a la texturización profesional de objetos tridimensionales y bidimensionales. Una vez finalizado el modelo y el texturizado se exportaron los modelos en formato .obj para ser posteriormente importados en el programa Unity, motor de desarrollo para la creación de juegos y contenidos 3D interactivos; para complementar el proyecto se usó el Asset de Easy AR, extensión de Unity dedicada a la captura de la realidad aumentada a través de una cámara dedicada, asimismo se enlazó cada modelo tridimensional a un respectivo y único código QR para ser posteriormente interpretados por la cámara de un celular y mostrar así cada uno de los modelos tridimensionales desarrollados previamente sin complicaciones. Finalmente se exportó el proyecto en formato .apk mediante el uso de Android Studio SDK, programa dedicado al desarrollo de software para plataformas Android. El archivo final resultó con un peso de 39.4 MB. Para el estudio se produjeron 6 objetos tridimensionales con sus respectivos códigos QR individuales: *Esófago *Faringe *Estómago *Intestino delgado *Intestino grueso *Aparato digestivo (conjunto de todas las partes anteriores)


CONCLUSIONES

Con la presente investigación, se busca un beneficio para cualquier persona que esté interesada en el campo de la medicina a nivel macroscópico, permitiéndole aprender anatomía de una manera más actualizada y práctica. Durante la estancia de verano se lograron adquirir los conocimientos teóricos y prácticos de la anatomía humana, se consiguieron ponerlos en práctica con las técnicas de análisis visual apoyadas en una mezcla de información digital e información física. Sin embargo, al ser un extenso trabajo aún se encuentra en vías de desarrollo y no se pueden mostrar todos los órganos del cuerpo humano. Se espera el futuro desarrollo de este proyecto con el transcurso del tiempo.
Esquer Salazar Karen Sofia, Instituto Tecnológico de Culiacán
Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro

DETECCIóN DE OBJETOS CON TéCNICAS DE INTELIGENCIA ARTIFICIAL


DETECCIóN DE OBJETOS CON TéCNICAS DE INTELIGENCIA ARTIFICIAL

Esquer Salazar Karen Sofia, Instituto Tecnológico de Culiacán. Romo Garcia Esaú, Universidad de Guadalajara. Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente por la gran cantidad de datos e información que manejan las empresas ya sea en el sector: salud, educación, agrícola, comercio, seguridad, financieros entre muchas otras, para un usuario común es una tarea imposible manipular esa gran cantidad de información, por lo tanto, es importante contar con herramientas tecnológicas capaces de manipular dicha información y ponerla a disposición de manera eficaz. Un área muy demandada en la actualidad por muchas empresas de tecnología mundial (Google, Amazon, Apple) es la de Detección y Clasificación de objetos, la cual a grandes rasgos puede describirse como la capacidad de una máquina, por medio de la Inteligencia Artificial, de reconocer uno o varios objetos, entre los cuales pueden ser personas, animales, cosas, etc. Y diferenciarlos entre sí y del medio en el que se encuentran.



METODOLOGÍA

Para la realización de un modelo de detección y clasificación de objetos, se utilizó la biblioteca  de Tensorflow, la cual es de código abierto para el aprendizaje automático desarrollada por Google capaz de construir y entrenar redes neuronales para detectar y descifrar patrones y correlaciones análogos al aprendizaje y razonamiento usado por los humanos. A su vez, se utilizó el lenguaje de programación Python y su IDLE para el desarrollo del algoritmo de entrenamiento. Una vez instalados los softwares necesarios, se procedió a realizar un banco de imágenes las cuales contenían al objeto u objetos a detectar, este banco de imágenes debe ser muy extenso ya que con base en la cantidad de imágenes utilizadas se realizará el entrenamiento, y entre mayor sea el  banco, mayor  será  la precisión y exactitud de dicho  modelo.


CONCLUSIONES

Como resultado del proyecto realizado durante la estancia se obtuvieron varios modelos capaces de reconocer objetos, los cuales fueron previamente entrenados, proceso que requiere gran cantidad de tiempo computacional; además, se llevó a cabo una ingeniería inversa para personalizar una aplicación desde una webcam y así poder comprobar el aprendizaje automático de reconocimiento de imágenes con los modelos obtenidos.
Esquitin Mejia Fernando, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

INVERSOR DE CORRIENTE


INVERSOR DE CORRIENTE

Esquitin Mejia Fernando, Instituto Tecnológico Superior de Huauchinango. Mancilla Torres Maximiliano, Instituto Tecnológico de Colima. Vargas Torres Edgar, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Para poner en función el inversor y saber su correcto funcionamiento es necesario medir la corriente y el voltaje que está fluyendo dentro de éste, para conocer esos datos es necesario utilizar sensores de medición tanto en AC y DC, pero los sensores no funcionan por sí solos, estos requieren estar acoplados a un circuito que les permita realizar las mediciones correctamente, usando como referencia la ley de Ohm se deben utilizar resistores para medir en la corriente. Todos estos circuitos deben de ser alimentados con DC, por lo cual se deben de realizar fuentes de alimentación simétricas, así como fuentes de 5V, 24V y una placa de distribución de voltaje.



METODOLOGÍA

Para realizar el esquemático de los circuitos utilizamos el software libre “Eagle” el cual nos permite realizar también las PCB obteniendo los “Gerber” para poder maquinar las placas fenólicas en una maquina CNC. Se requería de dos fuentes de 25V y una de 5V para poder alimentar la sección de control que va conectada a un módulo inversor IGBT (PM50CLA060) y una fuente simétrica para alimentar los circuitos de medición de voltaje y amperaje, para lo cual fue necesario utilizar: Un transformador de 18V y tres de 32V Puentes rectificadores W02G Capacitores cerámicos 2A104J Capacitores electrolíticos 35V 2200uF Diodo led Resistores de 330 Ω y 0.25 W Reguladores de voltaje LM7805 y LM7824 Borneras de conexión Primero se realizaron los esquemáticos, una vez revisados se realizaron los PCB y se mandaron a maquinar al centro de CNC, una vez maquinadas colocamos los componentes y se soldaron a las placas. Una vez todo colocado y soldado a las placas, se realizaron pruebas, comprobando que nos dieran los voltajes de salida CD deseados. Se repitió el mismo procedimiento para las otras fuentes de alimentación. Para realizar los circuitos de medición fue necesario utilizar: Sensores LV25-P Sensores LA55-P Resistores de medición 0.25W Reguladores LM7815 y LM7915 Capacitores cerámicos (104, 105 y 470) Conectores BNC Borneras de conexión. Para realizar este circuito de igual mamera que las fuentes se realizaron los circuitos esquemáticos, y una vez revisados se realizaron los PCB, donde después se mandaron al centro de maquinado CNC. Cuando nos las entregaron procedimos a soldar los componentes a la placa. En este circuito se utilizaron 2 reguladores de 15 V, uno negativo y uno positivo, estos alimentaran a los sensores LA55-P y LV25-P. De igual manera se utilizaron resistencias de medición para poder obtener los valores de voltaje y corriente DC, estas señales se mandaron a los BCN para poder realizar las mediciones con el osciloscopio y obtener mediciones más precisas y poder ver la forma de onda. Para realizar las pruebas de medición de voltaje y amperaje en la parte de AC, fue necesario identificar las fases A, B y C las cuales se identificaron a través del osciloscopio viendo el desfase que existe entre ellas. Una vez identificadas fueron conectadas a los sensores de medición para verificar que cada uno de ellos funcionaran correctamente midiendo el voltaje que hay entre las fases AB, BC y CA observando que la onda senoidal coincidiera en con cada fase. Para verificar que los sensores de corriente funcionaran correctamente fue necesario utilizar una carga a la salida de los sensores, y repitiendo el proceso de los sensores de voltaje, identificamos el amperaje en las fases A, B y C comparando con la onda senoidal de cada sensor.


CONCLUSIONES

Durante la estancia en este verano, se lograron realizar las pruebas requeridas, obteniendo como resultado la función correcta de cada sensor de medición, así como el correcto funcionamiento de cada fuente de voltaje, obteniendo así una mejora para el inversor de corriente.
Esquivel Barriga Flor Alexia, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: C. Luz Marina Flórez Pardo, Universidad Autónoma de Occidente (Colombia)

DETERMINACIóN DE LA CONCENTRACIóN óPTIMA DE PANELA COMO FUENTE DE AZúCAR EN MEDIO DE CULTIVO PARA EL CRECIMIENTO DE LEVADURAS


DETERMINACIóN DE LA CONCENTRACIóN óPTIMA DE PANELA COMO FUENTE DE AZúCAR EN MEDIO DE CULTIVO PARA EL CRECIMIENTO DE LEVADURAS

Esquivel Barriga Flor Alexia, Universidad Michoacana de San Nicolás de Hidalgo. Zerpa Gonzalez Aranza, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: C. Luz Marina Flórez Pardo, Universidad Autónoma de Occidente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El mucílago del café representa alrededor del 14,85% del peso del fruto fresco (López, 2017). En Colombia, por cada millón de sacos de 60 kg de café almendra que se producen, se generan aproximadamente 55.500 toneladas de mucílago fresco por año y de esta producción se vierten aproximadamente 788,000 toneladas de residuos en toda Colombia, lo cual afecta directamente a diversas corrientes hídricas. Lo mencionado anteriormente, genera una alta Demanda Bioquímica de Oxigeno (DBO) (21.41 ton DBO/día) y de Total de Sólidos en Suspensión (11.24 ton SST/día), esto equivale al 12% de la carga de DBO y al 9% de la carga de SST que impactan negativamente en el río Cauca en su paso por el departamento del Valle del Cauca (CONPES, 2009). La panela es un producto artesanal obtenido por la deshidratación de jugos de caña de azúcar. Es comúnmente clasificado como azúcar de caña no-centrifugado por la Organización de las Naciones Unidas para la Agricultura y Alimentación  y el origen de esta clasificación se basa en que, a diferencia del azúcar refinado, la panela no incluye la etapa de centrifugación en donde se retiran compuestos fenólicos, minerales, vitaminas y micronutrientes, los cuales permanecen en ella confiriéndole ventajas nutricionales (Jaffé, 2012).



METODOLOGÍA

Se prepararon los medios de cultivo (10% y 15% de concentración de panela, respectivamente, ajustados a un pH de 4.2) para posteriormente esterilizarse junto con la cristalería en autoclave. Una vez atemperado el medio se inocularon 0.05 gr de levadura liofilizada por cada 100 ml de agua destilada y se llevan a incubar a una temperatura de 30° C durante 24 horas, en agitación constante de 130 RPM. Se realizaron dos repeticiones por cada medio de cultivo. Se tomaron muestras de 2ml cada hora, las cuales fueron analizadas por los siguientes métodos:  •Espectrofotometría UV: Para este método se utilizó 1.5 ml de muestra y se midió la absorbancia a una longitud de onda de 640nm, utilizando como blanco el medio de panela sin inocular al 10% y 15% dependiendo a que concentración pertenecía la muestra. •Conteo en cámara de Neubauer: Para este método se mezclaron 50µL de muestra con 50µL de una solución de azul de metileno que permite distinguir células viables de células muertas. Se descargaron 20µL de la mezcla en la cámara y se observo al microscopio a 40X. Se realizo el conteo en 5 cuadrantes.


CONCLUSIONES

1.-  El valor mayor de número de células viables más alto, se encontró en el medio de panela al 10%, existiendo una diferencia de 225 mil células entre los dos tratamientos. 2.- Se observó un mayor acoplamiento de la levadura en el medio con 10%, al mantener una concentración celular constante durante 7 horas. 3.- Se encontró que mediante espectrofotometría la variación de absorbancia del tiempo cero al tiempo final es mayor en el medio de 15% de panela, lo cual indica una mayor densidad celular, sin embargo, no está relacionado con una mayor viabilidad celular. 4.- El coeficiente de determinación de la curva de calibración de panela al 10% es más cercano a 1, por lo tanto, predice extrapolaciones más confiables, sin embargo solo puede ser aplicada a muestras problema que presenten una absorbancia de 0.410 a 0.500.
Esquivel Hernandez Silvia Sofia, Universidad de Colima
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

INSPECCIóN DE TEXTURA Y VOLUMEN POR PROYECCIóN DE LUZ ESTRUCTURADA PARA APLICACIONES INDUSTRIALES


INSPECCIóN DE TEXTURA Y VOLUMEN POR PROYECCIóN DE LUZ ESTRUCTURADA PARA APLICACIONES INDUSTRIALES

Esquivel Hernandez Silvia Sofia, Universidad de Colima. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los algoritmos de visión por computadora son una herramienta vital para el desarrollo de nuevas tecnologías que requieren información real del mundo tridimensional. Desafortunadamente, al captar un objeto tridimensional en la escena y analizar su correspondiente imagen plana, se pierde por completo la naturaleza tridimensional del objeto observado. Esto provoca que los sistemas electrónicos pierdan la capacidad de comprender completamente el mundo 3D real y su utilidad se vea seriamente afectada. En la actualidad, la comunidad científica ha propuesto algunos métodos de digitalización 3D usando técnicas opto-digitales de proyección de luz estructurada. Entre ellos, el método de proyección de franjas se ha posicionado como una de las técnicas más importantes. En esta estancia de investigación científica se propone desarrollar un sistema de proyección de franjas para inspección industrial de textura y volumen de piezas esféricas y piramidales. El sistema propuesto permitirá, bajo el rigor de un margen de error definido por el usuario, determinar la calidad de las piezas escaneadas.



METODOLOGÍA

Se construyó un sistema experimental de proyección de franjas para digitalización de objetos tridimensionales. Este consistía en una cámara de color (iDS-UI-3240CP,1280x1024 pixeles de 5.3µm), un video proyector estándar (1024x768 pixeles), y una computadora portátil (procesador Intel i7, 2.5 GHz, con 8 GB de memoria RAM). La cámara y el proyector fueron instalados de tal forma que ambos dispositivos se enfocaran en un plano de referencia. El sistema construido se calibró previo a la realización de los experimentos pertinentes. Para esto se proyectó una rejilla estándar, mientras se observa en la computadora lo que la cámara detecta usando el software MATLAB. El propósito principal de este paso fue asegurarse de que se capturaba completamente el plano de referencia. Posteriormente, se implementaron rutinas computacionales de generación de rejillas que reciben como argumento de entrada el número de franjas, el corrimiento de fase, y el tamaño en pixeles de la rejilla (que debe coincidir con la resolución del proyector). Además, se programaron las secuencias para sincronizar los dispositivos del sistema. Así, mientras se realizaba proyección de franjas desplegando las rejillas en el proyector, los patrones de franjas resultantes se capturaban con la cámara y se almacenaban en la computadora automáticamente. El siguiente paso es procesar las imágenes almacenadas en la computadora. La demodulación de fase para recuperación de la información física de interés se obtiene en dos pasos. Primero se extrae la fase envuelta realizando múltiples corrimientos de fase. El resultado es una función de fase en el rango (-π a π], que tiene discontinuidades de 2π debido a la periodicidad de la función coseno. El segundo paso, conocido como desenvolvimiento de fase, tiene la finalidad de eliminar las discontinuidades producidas por la periodicidad de la función coseno. Técnicamente hablando, el desenvolvimiento de fase pretende redimensionar el intervalo del modelo obtenido a otro que se asemeje al del objeto observado. Después de que se obtuvo el mapa de fase y se desenvolvió a partir de las imágenes anteriormente capturadas, se obtuvo la silueta del objeto en un plano inclinado. Para visualizarlo correctamente, fue necesario repetir el proceso anteriormente descrito con una diferencia. Primero se calculó para el plano y seguidamente para el plano con el objeto. Finalmente se sustrajo el modelo del plano al del objeto de interés. El resultado se almacena en la computadora para uso posterior. Al concluir el diseño de los algoritmos de digitalización, se procedió a generar el modelo matemático de los objetos a estudiar. En este caso, se implementaron funciones que tuvieran como entrada las coordenadas del centro de la figura a crear y los parámetros de las dimensiones que la describen; teniendo como salida el modelo tridimensional de una esfera o una pirámide sin ruido.  Una vez que se tuvo el modelo sintético de la figura escaneada y su correspondiente mapa de fase desenvuelto, se procedió a compararlos entre sí. Sin embargo, al estudiar el resultado se pudo observar que los 2 modelos de la misma figura no compartían el mismo punto como origen. Esto dio lugar a mediciones erróneas. A medida de resolver el problema anteriormente descrito, se desarrolló un algoritmo basado en el principio de mínimos cuadrados para funciones no lineales. Gracias a esto se pudo determinar el punto en el que estaba centrado el mapa de fase desenvuelto para posteriormente ingresarlo a la función que generara su correspondiente modelo sintético. De esta manera, ya fue posible comparar y cuantificar el error existente entre ellos.  El conjunto de los algoritmos, desarrollados durante la estancia de verano científico, constituyen el principio de funcionamiento de una nueva manera de monitorear la calidad de las piezas maquiladas industrialmente. Su potencial radica en que le ofrecen al usuario una alta precisión de medición, con un error permitido ajustable; la rapidez de medición y el bajo capital necesario para la construcción e implementación del sistema. Si embargo, aún falta enriquecer los códigos elaborados para asegurar que el sistema pueda comparar cualquier estructura geométrica con la misma precisión.


CONCLUSIONES

El sistema de proyección de franjas construido para inspección de textura y volumen presentó una manera eficiente de inspeccionar la morfología de piezas en poco tiempo de procesamiento. De esta forma, se presenta una nueva técnica cuya principal fuente de aplicación es el sector industrial del país. De igual manera, se llegó a la conclusión de que la eficiencia y el poco tiempo de procesamiento de los algoritmos se debió a su sólido planteamiento matemático. Las constantes propuestas, hechas por los alumnos e investigadores de este campo de estudio, han logrado hacer cada vez más rápido y preciso el análisis y estudio del mundo que nos rodea.
Estrada Ake Raul Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

PROTECCIÓN DE AUTOTRANSFORMADOR BASADA EN MODOS DE ENERGÍA CALCULADOS DEL FASOR DE SECUENCIA NEGATIVA.


PROTECCIÓN DE AUTOTRANSFORMADOR BASADA EN MODOS DE ENERGÍA CALCULADOS DEL FASOR DE SECUENCIA NEGATIVA.

Estrada Ake Raul Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Un sistema eléctrico de potencia esta propenso a fallas las cuales pueden dañar el aislamiento del autotransformador e incluso podría comprometer a todo el sistema, provocando así que los usuarios no cuenten con el suministro eléctrico, lo que se traduce en perdidas económicas. El autotransformador es un componente de vital importancia en un sistema eléctrico de potencia, el cual es muy costoso, por lo cual debe contar con sistema de protección, en este caso en particular nos enfocaremos en la protección diferencial, la cual puede detectar si existe alguna falla interna o evento transitorio conforme a unos parámetros establecidos y de acuerdo a estos datos, interrumpir o manterner el funcionamiento del mismo. La protección diferencial se basa básicamente en la apertura de los relés que limitan el esquema de protección, y esa operación se logra a base de la comparación de la corriente de operación contra la corriente de retención.



METODOLOGÍA

Se realizó la revisión bibliográfica para poder comprender el comportamiento que tendrá el sistema ante una falla o evento transitorio, posteriormente se utilizó el software PSCAD en el cual se construyó un circuito conformado por una fuente de generación, un autotransformador de potencia, puntos de falla, interruptores y una carga para alimentar, con este circuito se realizaron varias simulaciones en las cuales se proponen diferentes instantes de tiempo en los que entraría la falla, tanto internas como externas, se observó de igual manera el evento transitorio como lo es la corriente Inrush. Se obtuvieron las corrientes de lado secundario y las corrientes de lado primario de la secuencia negativa, en su forma polar, esto con la finalidad de pasarlos a su forma rectangular y con ello realizar tanto la suma de la parte real del lado de alta como de lado de baja, de igual manera se siguió el mismo procedimiento, pero ahora se realizaría una resta, para obtener la corriente de operación (Io) o bien llamada corriente diferencial y la corriente de retención (Ir), respectivamente. Una vez realizado este procedimiento se pasó a su forma polar para poder realizar las gráficas que nos indicaban si existía una falla interna o evento transitorio.  


CONCLUSIONES

Con las simulaciones realizadas se observa que la protección diferencial es efectiva en cuanto a la detección de una falla interna o un evento transitorio (corriente Inrush). Por lo tanto, se demuestra que la protección diferencial proporciona seguridad al sistema, lo cual incrementará la vida útil de los equipos, y brindará la confiablidad a los usuarios de contar con el servicio eléctrico. 
Estrada Carrillo Julieta Esperanza, Universidad de Guadalajara
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA


OBTENCIóN Y CARACTERIZACIóN DE NANOCRISTALES DE CELULOSA

Estrada Carrillo Julieta Esperanza, Universidad de Guadalajara. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Existe interés y necesidad de desarrollar materiales sustentables. La celulosa y sus derivados son los principales candidatos. Los nanocristales de celulosa presentan propiedades físicas y químicas atractivas para la fabricación de materiales de valor agregado, prometedores en varios sectores como: sector salud, sector electrónico, sector aeronáutico, etc. La celulosa es el biopolímero más abundante de la tierra y junto a la lignina constituye uno de ellos componentes estructurales de las plantas. Es un material renovable, degradable y no toxico. Este material se compone de partes amorfas y partes cristalinas que tienen un ordenamiento en forma de prima rectangular, cuyas dimensiones varían según la fuente de la celulosa. La longitud va de 10 a 200 nanómetros y el ancho de 3 a 50 nanómetros. Estas partes cristalinas se llaman nanocristales de celulosa por tener dimensiones en el rango nanométrico (Castro y Delgado., 2016)



METODOLOGÍA

Materiales: los materiales que se utilizarán para la obtención de los nanocristales de celulosa (NCC) son los siguientes: Alfa celulosa, en forma de láminas (Compañía NEUCEL). Ácido sulfúrico, H2SO4, (Golden Bell). Agua desionizada (Millipore Direc-Q) Membranas para diálisis (Spectra/por) Cierres universales Se utilizó el método reportado por De Mesquita et al., (2010) con algunas modificaciones. Las láminas de alfa celulosa se cortan en pequeñas tiras y se introducen en un molino (Ikea Werke MF 10 Basic). Se realiza la hidrolisis ácida usando un hidromódulo 1:10, se realiza en lotes de 30 gr de alfa celulosa base seca en 300 ml de ácido sulfúrico al 64% a una temperatura de 50 ˚C por una hora en un baño de agua. La hidrolisis se detiene colocando el matraz en un baño de hielo. La sustancia resultante es aislada y lavada utilizando una centrifuga (Thermo Scientific IEC HN SII) a 3500 rpm, se obtiene un gel. El gel, se coloca en las membranas de diálisis con agua desionizada hasta que alcanza un ph de 5. Una vez alcanzado el PH antes mencionado, La suspensión de nanocristales de celulosa es sometida a un tratamiento ultrasónico (Sonics Vibracell VCX750) por 5 minutos. La suspensión tratada es filtrada por un papel filtro de 1.5 µm. Finalmente, la solución es contenida en frascos y almacenada en refrigeración para su posterior caracterización. Para la caracterización morfológica de los NCC se utilizó: Microscopia de fuerzas atómicas (AFM): Se utilizó el AFM Park systems NX10. La medición se realizó en diluciones acuosas al 0.005% en peso de NCC, se colocaron 100 µl de la solución sobre porta muestras y se dejó secar hasta tener una lámina delgada. Determinación de cristalinidad por difracción de rayos X (DRX) La medición fue realizada por un equipo modelo Empyream marca PANalytical 40kV y 40 mA. El patrón de difracción se registró en un rango de 5 - 50˚. Con un paso de 0.026 ˚. Para la caracterización química se utilizó: Espectroscopía infrarroja de transformadas de Fourier (FT-IR) Se usó un espectrómetro Perkin Elmer modelo Spectrum GX FTIR sustem en el rango de 4000 a 500 cm-1 para identificar los grupos funcionales característicos de la celulosa, antes de la hidrolisis, y de los NCC. Para esta prueba la alfa celulosa será en polvo y los NCC en película.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teórico-práctico sobre la obtención de nanocristales de celulosa, el funcionamiento y manejo de los equipos básicos para la caracterización morfológica y química de un material. BIBLIOGRAFIA Castro, C., Delgado, F. (2016). La nanocelulosa: propiedades y aplicaciones. Boletín Instituto Nacional de Electricidad y Energías limpias. Abril-junio. De Mesquita, J., Donnici, C., Pereira, F. (2009). Biobased nanocomposites from Layer-by-Layer assembly of cellulose nanowhiskers with chitosan. Biomacromolecules. 11, 473-480.
Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Estrada González Diego Fernando, Instituto Tecnológico de Tepic
Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro

SISTEMA DE RIEGO AUTOMATIZADO CON CONTROL DE CONTENIDO DE HUMEDAD Y NIVELES DE FLUJO EN CASA HABITACIóN.


SISTEMA DE RIEGO AUTOMATIZADO CON CONTROL DE CONTENIDO DE HUMEDAD Y NIVELES DE FLUJO EN CASA HABITACIóN.

Estrada González Diego Fernando, Instituto Tecnológico de Tepic. Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

El consumo de agua potable ha ido aumentado a lo largo de los años en la humanidad, al grado de sobreexplotar las fuentes naturales de abastecimiento de este recurso, que es vital para los seres vivos. El consumo excesivo nos lleva a que el agua se convierta en un recurso que se está volviendo escaso y costoso. Principalmente en la agricultura, se tienen altos consumos de agua por la sobre irrigación, lo cual no sólo genera un desperdicio de agua, sino que también, según el Instituto Mexicano de la Tecnología del Agua (IMTA), debido a los agroquímicos disueltos, se provocan la contaminación de fuentes de abastecimiento de agua subterráneas y superficiales. En el estado de Querétaro, tan solo el 83% de agua potable se destina a la actividad agropecuaria, mientras el 14% para uso doméstico, según datos de la Comisión Estatal del Agua (CEA). La misma CEA asegura que el consumo de agua para el estado está asegurado para el año 2021, con un consumo de 5.1 m3/s y que para 2030 la situación se complicaría ya que el consumo llegaría hasta los 6 m3/s. En el reglamento para el uso eficiente del agua en las poblaciones del estado de Querétaro, en su artículo 9°, señala que tan solo 5lts/m2/día, deberán ser destinados para riego de jardines en cada predio. Esta es una regla que en la mayoría de las ocasiones no se respeta, debido a que muchas de las veces el riego que se hace en las viviendas no lleva un control y se riega hasta que se inunde completamente la superficie del jardín. Es importante, aunado a que solo el 14% del agua potable en el estado es para uso doméstico, que se regularice en las viviendas el consumo del agua para riego. Para ello implementar un sistema de riego automatizado que controle el caudal y los tiempos de regado ayudaría perfectamente a reducir el uso excesivo de agua para este fin en zonas residenciales.



METODOLOGÍA

Para implementar el Sistema de Riego Automatizado, primero se delimito el área donde se  va a instalar el sistema de riego, para obtener medidas y elevaciones, por medios topográficos. Posterior a ello trasladarlos a la computadora para trabajar de mejor manera con el programa AutoCad. Una vez conociendo las condiciones naturales del terreno y las medidas correspondientes, y habiendo hecho el plano del sitio para ver sus dimensiones, se generán diferentes propuestas de red de riego, que se distribuyó a lo largo de la zona de estudio. Teniendo ya las propuestas de la red, seleccionaremos los aspersores que mejor se acomoden a la zona de riego, tomando en cuenta las características de cada uno de ellos, desde el radio de riego, el caudal y la presión que permite. Los elementos que hayan sido seleccionados deberán cubrir la superficie de regado. Con las propuestas obtenidas en base a las características técnicas de los difusores y toberas, se hace el diseño hidráulico de la red por medio del software Epanet, donde se hizo la simulación de la línea. Para trasladar las redes propuestas del plano a Epanet se utiliza la herramienta EpaCad, que nos permite trasladar de AutoCad a Epanet la pura red con longitudes y los nodos correspondientes donde irán los aspersores y/o conexiones. Ya con la red dibujada se ubica los nodos que llevarán aspersor y se introdujeron los datos de caudal permitido para cada uno de los elementos de regado, además de contemplar la elevación de acuerdo a la ubicación que tengan en el jardín. En Epanet, también se añaden las características técnicas de la bomba, se especifica la posición el embalse de donde será extraída el agua, y se introducen todos los datos preliminares necesarios que nos pide el programa. Buscando  regular de la manera más óptima el consumo del agua, haciendo modificaciones a la propuesta hasta llegar a la que mejor nos convenga y la que también permita, según las presiones permisibles para cada uno de los aspersores. Habiendo obtenido la propuesta más óptima se utilizó sensores de control de humedad programadas por medio de la placa Arduino, con ello regularemos el caudal que está siendo utilizado y controlar de que no estamos haciendo uso excesivo de agua de acuerdo a los resultados obtenidos en el diseño hidráulico.


CONCLUSIONES

Durante la estancia del verano de investigación adquirí conocimientos teóricos y prácticos, que me permitieron poder desarrollar el tema del Sistema de Riego Automatizado, es importante llevar a cabo este proyecto debido a la problemática que se está presentando por el consumo de agua. El aplicar técnicas de automatización para realizar un consumo eficiente de diversos recursos, en este caso el agua. Esto ayuda a controlar los niveles de flujo y programar un sistema que, al ser automático, podemos tener la confianza de que se está realizando de la mejor manera el riego, optimizando también el recurso del agua. Es importante el monitoreo constante de los sensores de humedad y el correcto mantenimiento de la red, para que siga funcionando de la mejor manera el sistema de riego y a su vez no presentar desperfectos eléctricos o fugas de agua, que lejos de regularizar el flujo nos provoque más pérdidas de agua.
Estrada Morales Héctor Andrés, Instituto Tecnológico de Pachuca
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

EVALUACIóN DE DESEMPEñO DEL SISTEMA IDS/IPS SURICATA BAJO EL SISTEMA OPERATIVO SELKS5


EVALUACIóN DE DESEMPEñO DEL SISTEMA IDS/IPS SURICATA BAJO EL SISTEMA OPERATIVO SELKS5

Estrada Morales Héctor Andrés, Instituto Tecnológico de Pachuca. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Vivimos en un mundo en el que los ataques informáticos y las brechas de seguridad computacional comprometen la integridad, la dignidad y la privacidad de millones usuarios y miles compañías y organizaciones que ponen, a disposición de las computadoras y diversos dispositivos electrónicos en general, su más importante y sensible información. México no es la excepción; Podemos hablar de ataques en los que el objetivo es perjudicar el desempeño de una red, o la respuesta de un servidor a las solicitudes de los usuarios, quizá incluso deshabilitar por completo las comunicaciones dentro del entorno objetivo. Estamos hablando de ataques de denegación de servicios (DoS - Denial of Services). Y una de las maneras más eficientes de enfrentar estas amenazas es mediante la implementación y gestión de sistemas de prevención y detección de intrusiones IPS/IDS. Considerando que, si se desea un entorno de monitoreo robusto de intrusiones en la actualidad, las diferentes posibles soluciones suelen ser muy costosas, y, las opciones gratuitas, en ocasiones, no son lo suficientemente estables, o necesitan de trabajo manual muy técnico para ser configuradas, lo que limita que pueda ser usada por personas no especializadas. Una empresa de desarrollo y diseño de software, creó un sistema operativo que provee un entorno IDS/IPS de código abierto, gratis. Durante el verano de investigación, se estudia el desempeño de ese sistema operativo sometiéndolo a diversos tipos de ataques distribuidos de denegación de servicios, para probar la robustez, confiabilidad, y viabilidad del sistema.



METODOLOGÍA

Se realizó una recopilación de varios tópicos fundamentales de computación, como las redes de computadoras, donde se explica al lector el impacto y la importancia de estas. También se abordaron temas relacionados a las pilas de protocolos y los modelos de referencia, que rigen la manera en la que las computadoras se conectan con otras, e intercambian información. Después, se pasó a explicar conceptos básicos de seguridad informática que sirven como pilares para el desarrollo de nuevos estándares y tecnologías de seguridad, como la integridad y la confidencialidad. También se abordó información relevante al caso de estudio del proyecto, relacionado a ataques informáticos basados en la denegación de servicios distribuidos, y las diferentes variedades de este tipo de ataque. Todo lo anterior con el objetivo de permitir que cualquier usuario, a pesar de su formación académica, fuera capaz de leer y entender a la perfección todos los temas expuestos en el proyecto. Dado que el sistema operativo SELKS fue el entorno elegido para el desarrollo del proyecto, se revisó su documentación, traduciendo y citando al español la información más relevante para el usuario y el desarrollador, como las herramientas que el sistema IDS/IPS ofrece, además de su configuración para las diferentes pruebas de impacto. También se investigó sobre generadores de tráfico y de ataques, para crear un ambiente de pruebas adecuado, en el que, en base a la información recopilada y a una serie de tesis y documentos proporcionados por el investigador, fueron seleccionados una gama de ataques tipo DDoS para estresar al sistema, con el fin de realizar el estudio de rendimiento y viabilidad.


CONCLUSIONES

Durante toda la estancia considero que adquirí nuevos conocimientos gracias a las 3 semanas que pasé recopilando información, conseguí libros, artículos y recursos importantes que estoy seguro que me serán de mucha utilidad para el futuro. Además, tuve la oportunidad de repasar conocimiento ya adquirido, y resolver algunas dudas que siempre tuve. Al ser un trabajo extenso debido a la configuración de las herramientas, y sobre todo a las 34 pruebas con cada una de las variantes de ataques distribuidos, es difícil decir si el sistema operativo SELKS5 cuenta con todas las características necesarias, la robustez y el desempeño suficientes para ser considerado una herramienta de alta gama gratuita y opción válida para ser implementado como sistema principal de análisis y monitoreo de tráfico en una red de computadoras. Sin embargo, se espera que, si en programas posteriores se cuenta con la oportunidad de terminar con las pruebas de impacto, SELKS5 logre superar todas las pruebas y podamos definirlo como un sistema apto para operar en lugares de riesgo mas alto, pues demostro ser un sistema estable, gracias la su srquitectura, ademas de ser rapido, facil de configurar, y muy amigable con el usuario, lo que implica que si las bases del sistema estan bien diseñadas, tambien sus caracteristicas mas especificas. Tambien, por ultimo, no podemos olvidar el prestigio con el que cuenta Stamus Networks, la compañia de diseño web que creo SELKS.
Estrada Rincón José Ignacio, Universidad de Colima
Asesor: Dr. Javier Mauricio Naranjo Vasco, Universidad Católica de Manizales (Colombia)

VALORIZACIóN DE LOS BIOSóLIDOS PROVENIENTES DE UNA PTAR URBANA PARA LA ELABORACIóN DE MATERIALES CERáMICOS PARA LA CONSTRUCCIóN.


VALORIZACIóN DE LOS BIOSóLIDOS PROVENIENTES DE UNA PTAR URBANA PARA LA ELABORACIóN DE MATERIALES CERáMICOS PARA LA CONSTRUCCIóN.

Estrada Rincón José Ignacio, Universidad de Colima. Asesor: Dr. Javier Mauricio Naranjo Vasco, Universidad Católica de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La valorización de residuos constituye uno de los campos de investigación recientes de mayor desarrollo por ser una de las alternativas más apropiadas para el desarrollo de tecnologías sostenibles, en los cuales la industria de la construcción ha incursionado fuertemente en los últimos años. (Rodríguez et al., 2013). El aumento de la población a Nivel mundial ha hecho que la demanda por agua  sea cada vez más grande y con esto la contaminación de la misma vaya en aumento, lo cual ha llevado cada vez más a la construcción de Plantas de Tratamiento de Aguas Residuales (PTAR). El tratamiento de aguas residuales domesticas e industriales genera subproductos como los lodos, los cuales, después de un tratamiento físico-químico son convertidos en biosólidos. De igual forma, si el biosólido es considerado como un residuo y no como un recurso, se estaría contribuyendo a la mala gestión de residuos sólidos en Colombia, ya que, de 810.000 toneladas generadas de basuras mensuales, únicamente el 17% es reciclado o aprovechado. Del mismo modo, se estaría aportando a la generación de emergencia sanitaria en Colombia, puesto que se estima que 321 rellenos sanitarios del país cumplirán su vida útil en los próximos 5 años (CORPOCALDAS, 2018). 



METODOLOGÍA

Para cumplir con los objetivos de esta investigación, se realizará una revisión bibliográfica de la normativa aplicable para el Manejo y Disposicion de Biosólidos, asi como la normativa aplicable a la elaboración de materiales de Mampostería, tanto para Colombia como México. En Mexico se revisarán las siguientes Normas NOM-004-SEMARNAT-2002  Normas NMX para estructuras de mampostería Normas Técnicas Complementarias de mampostería NTC Y en Colombia Decreto 1287 de 2014  Normas Técnicas Colombianas NTC-4205 Unidades de Mampostería de Arcilla cocida, ladrillos y bloques cerámicos.  Posteriormente se hará un analisis comparativo entre ambas normativas. Para todo esto, se cuenta con el apoyo de instituciones como el Servicio Nacional de Aprendizaje (SENA), Universidad Católica de Manizales, Universidad de Caldas, la Universidad Nacional de Colombia sede Manizales y la empresa CasaGres.


CONCLUSIONES

Se realizó el "Protocolo de Manipulación de Biosólidos" en el cual se exponen los riesgos que implica la manipulacion de los biosólidos, ademas se presentan las Buenas Prácticas de Manejo y Equipo de Protección Personal necesarios para cumplir con dicho protocolo. Se realizó tambien, la comparativa entre las Normas Técnicas de Colombia y México, y a nivel estructural, se identificó que la normativa colombiana es un poco mas estricta tanto para Limites Maximos Permisibles de Metales Pesados y Patógenos, como para la resistencia a compresión de materiales cerámicos. Con esta investigación, a futuro se pretende la elaboración de un prototipo de material cerámico utilizando los biosólidos, y con la ayuda de las instituciones mencionadas anteriormente, realizar los análisis fisicos, químicos y biológicos necesarios para verificar que efectivamente se cumplan las normativas revisadas durante este proceso investigativo.  
Estrada Ruelas Eber Antonio, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa

IMPLEMENTACIóN DE CONTROLADORES USANDO RNA DE BASE RADIAL


IMPLEMENTACIóN DE CONTROLADORES USANDO RNA DE BASE RADIAL

Estrada Ruelas Eber Antonio, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las redes neuronales son modelos computacionales que semejan el funcionamiento de porciones del cerebro humano. El procesamiento se realiza en forma paralela y distribuida mediante muchos procesadores conectados entre sí. Aprenden a reconocer patrones a través de un proceso de entrenamiento basado en varios ejemplos diferentes, incompletos y hasta contradictorios. La principal caracteristica de las RNA de base radial es que estan formadas por una unica capa oculta y que cada neurona de esta capa pasee un carácter local. En este trabajo se implementara una red neuronal de base radial en un circuito que incluye un microcontrolador PIC18f4550 porque cumple con los requisitos de este proyecto, cuenta con las entrada analogicas y salidas pwm necesarias.



METODOLOGÍA

El primer paso fue informarme bien sobre las redes neuronales, para esto consulte diferentes libros y paginas de internet, así como las consultas hechas a mi asesor. También escogimos el microcontrolador a utilizar el cual fue un pic18f4450 porque es con el que tengo más familiaridad, la progamación de este microcontrolador se hizo en C con el software PIC Compiler, de igual forma la programación de esta red neuronal de hará en C++, pero antes se realizaran ciertos calculos tales como las salidas, pesos, umbrales, implementación de algoritmo k-medias, etc.


CONCLUSIONES

Cuando esta red neuronal funcione como esperamos, se planea implementarla como sistema de control de un dron y después haber hecho pruebas de la red con el drone, hacer las correspondientes correcciones, si es necesario, y hacer de este un drone fpv.
Estrada Trujillo Yazmin Guadalupe, Instituto Tecnológico de Toluca
Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales (Colombia)

PROTOCOLO DE ADQUISICIóN DE SEñALES EEG PARA UNA INTERFAZ CEREBRO-COMPUTADOR SOBRE PLATAFORMA PYTHON.


PROTOCOLO DE ADQUISICIóN DE SEñALES EEG PARA UNA INTERFAZ CEREBRO-COMPUTADOR SOBRE PLATAFORMA PYTHON.

Estrada Trujillo Yazmin Guadalupe, Instituto Tecnológico de Toluca. Asesor: Dr. Jose Luis Rodriguez Sotelo, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las emociones están definidas como cambios psicofisiológicos  interrelacionados y sincronizados como respuesta a la evaluación de un estímulo interno o externo.  Actualmente, el área de la computación afectiva busca mejorar la experiencia humana a través del balance entre las emociones y la cognición, permitiendo crear un camino de comunicación natural entre los humanos y las máquinas, siendo la inducción y el reconocimiento de las emociones humanas uno de los más importantes campos de investigación en esta área, donde los estados emocionales humanos pueden ser evocados a través de estímulos externos (estímulos visuales, sonoros, audiovisuales entre otros) y ser identificados a través de cambios fisiológicos como las expresiones faciales, el ritmo cardiaco, los cambios en la presión sanguínea, la actividad cerebral, entre otros. De estas medidas fisiológicas, la actividad cerebral por medio de las señales electroencefalográficas proporcionan un camino directo para el reconocimiento de emociones, y de acuerdo al trabajo publicado por Liu en el 2018, las señales EEG utilizadas en este tipo de investigaciones proporcionan una alta precisión en los procesos de clasificación. El reconocimiento y clasificación de patrones basado de señales fisiológicas requieren de un sistema de instrumentación compuesto por transductores, amplificadores, conversores, una etapa de registro un entorno de visualización, que permite tener acceso directo a la señal generada por los individuos, donde la calidad de dicha señal determina la calidad de los patrones para su posterior análisis. Es así como en el verano de investigación  se propuso el desarrollo de un protocolo de adquisición de señales EEG para un sistema de instrumentación basado en interfaces cerebro computador (BCI) sobre la plataforma Python.



METODOLOGÍA

Investigación de tipo cuasi-experimental aplicativo, donde se desarrolló un protocolo de adquisición de señales electroencefalográficas (EEG) a través de una interfaz cerebro-computador (BCI) comercial de 8 canales utilizando software libre en el entorno de programación Python utilizando la versión 3.6.8. OpenBCI Cyton es una interfaz neuronal de 8 canales de entrada diferencial, de alta ganancia y bajo nivel de ruido, compatible con arduino con un procesador de 32 bits y un muestreo de datos a 250Hz. Su ganancia programable es de: 1, 2, 4, 6, 8, 12, 24 con una tensión de operación digital de 3.3V y una operación analógica de +/- 2.5V, se alimenta con una tensión  de 3.3 a 12V. Dicha tarjeta es compatible con electrodos activos y pasivos, cuenta con un convertidor ADS1299 ADC, encargado de incorporar todas las características comúnmente requeridas para aplicaciones EEG y ECG. La interfaz cerebro-computador (BCI) se utiliza para muestrear la actividad cerebral (EEG) y la actividad cardiaca (ECG). La placa se comunica de forma inalámbrica a una computadora a través de un dongle USB OpenBCI por vía Bluetooth. Para dicho desarrollo trabajando en el sistema operativo Windows fue necesario la instalación de diferentes módulos de python desde la ventana de comandos,  tales como: serial, struct, time, timeit, numpy, atexit, threading, pyqtgraph, sys, lfilter, sklearn, _pickle, pyedflib y pygame, es importante mencionar que para el correcto funcionamiento del módulo pyqtgraph fue necesario instalar el paquete PySide 3.6. Se desarrolló una librería capaz de realizar la conexión y desconexión de la interfaz por medio del puerto serial, y su posterior verificación de lectura de datos. Con base en esto, se creó un entorno de adquisición capaz de iniciar el envío de los datos EEG por canal, realizar una etapa de pre-procesamiento y almacenamiento de la información de manera matricial, y su posterior visualización a través de una interfaz gráfica. Al finalizar el proceso de adquisición, la información adquirida es guardada de manera automática en un archivo de texto plano, con el fin de tener un respaldo de las señales EEG adquiridas para su posterior análisis. Finalmente se creó una etapa de estimulación sonora en el programa PySchopy, esta se encarga de mostrar una serie de sonidos por medio de una interfaz gráfica mientras se está realizando la adquisición de señales EEG, con el fin de procesar dichas señales y conocer la situación emocional del individuo. El programa está dividido en 4 etapas: la primera muestra las indicaciones durante 5 segundos, la segunda realiza el estímulo durante 5 segundos cuenta con 45 sonidos diferentes los cuales se van mostrando de forma alternativa, la tercera etapa se encarga de realizar un descanso de 2 segundos y la etapa número 4 consta de 10 segundos para agradecer su atención. Es importante mencionar que la etapa número 2 y 3 se repiten de forma seriada durante 45 veces.


CONCLUSIONES

Durante la estancia de verano se desarrolló un protocolo de adquisición de señales EEG a través de la Interfaz OpenBCI de 8 canales utilizando la tarjeta de adquisición Cyton, por medio de un programa creado en el lenguaje de programación Python utilizando la versión 3.6.8, donde se realizó la lectura de la señal EEG, la cual fue posteriormente pre-procesada y ordenada por canal de forma matricial. La información adquirida es visualizada a través de una interfaz gráfica, donde se observa la actividad cerebral registrada en cada canal. Adicionalmente, se creó un archivo de texto plano correspondiente a la matriz generada en el proceso de adquisición con el fin de tener un respaldo de la actividad cerebral registrada por la BCI. Se realizó una prueba de adquisición de señales EEG mientras se llevaba a cabo la estimulación sonora con el fin de conocer la situación emocional del individuo, en este caso la persona de prueba fue un integrante del equipo de investigación, sin embargo por cuestiones de tiempo ya no fue posible analizar dichas señales, por lo que solo fueron adquiridas y pre-procesadas.
Estrada Vilchis Jose Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

UMA DE ARAñAS.


UMA DE ARAñAS.

Estrada Vilchis Jose Alfredo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

La Unidades de Manejo para la Conservación y Aprovechamiento Sustentable de la Vida Silvestre (UMA) de arañas nace a partir de la problemática en la producción de antídotos en Chiapas, donde Chiapas es a nivel nacional el primer lugar en arañas con una contabilidad de 533, entre ellas 2 especificas que son la viuda negra y la violinista; que son muy toxicas para el cuerpo humano y habitan en el estado. Así que, si Chiapas ocupa el primer lugar, porque no darle importancia y más cuando las picaduras de arañas son promulgas en el estado. La problemática de que no se hayan una producción de antídotos para la mordedura de una araña, es de importancia ya que aparte de que Chiapas tenga a las arañas de más peligrosas, Chiapas carece de antídoto para su población, por motivos de precios muy elevados donde llegan a costar hasta 16 mil pesos, monto de dinero que hace que sea más imposible para su adquisición.



METODOLOGÍA

La enfasis que se le dio al trabajo de investigacion fue mas teorica que practica, aunque tambien se hicieron diferentes entrevistas con biologos y especialistas para reforzar el tema de la UMA.  


CONCLUSIONES

La realización de la UMA es una alternativa para la producción de antídoto, pero es un método al que se afecta al arácnido por sus daños que se le provocan para la extracción de su veneno, es un método que se pone en peligro la vida de la araña. Se hay ya nuevos métodos donde ya no se electrocutan las arañas, donde ya no habrá más muertes de arañas y donde ya no se reducirá la vida del caballo. Se trata de la sustitución del veneno de araña por venenos recombinantes donde se genera un antídoto de cuarta generación desarrollada en México y por si fuera poco también se puede sustituir la araña por un gusano o larva desarrollado en Argentina, el cual genera el veneno para la producción del antídoto.
Fabela Leon Jose Alfredo, Instituto Tecnológico de Toluca
Asesor: M.C. Alejandro Medina Contento, Corporación Universitaria Empresarial Alexander von Humboldt (Colombia)

PANORAMA GENERAL DE LA PRODUCCIóN ACADéMICA EN LA LOGíSTICA


PANORAMA GENERAL DE LA PRODUCCIóN ACADéMICA EN LA LOGíSTICA

Fabela Leon Jose Alfredo, Instituto Tecnológico de Toluca. Asesor: M.C. Alejandro Medina Contento, Corporación Universitaria Empresarial Alexander von Humboldt (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El panorama logístico actual desde la literatura tiene como fin el mejor funcionamiento de las empresas, dentro de esta literatura se dan a conocer conocimientos, herramientas y avances tecnológicos aplicables para la mejora continua de las organizaciones. Lo anterior permite la mejora en los índices de competitividad de las empresas, de allí el interés de esta investigación en donde se pretende identificar las diferencias existentes entre la realidad empresarial y la bibliografía en logística.



METODOLOGÍA

1.Investigación teórica sobre la logística y su desarrollo 2.Elaboración de un instrumento 3.Validación del instrumento en 2 empresas 4.Análisis de resultados y conclusiones


CONCLUSIONES

La comparativa entre la literatura de la logística y los resultados encontrados en las dos empresas estudiadas, demuestra la falta de aplicación de herramientas y/o conocimientos sobre la industria 4.0 en las mismas. Basado en los resultados bibliográficos obtenidos si se desea lograr un nivel de competitividad mayor en el mercado nacional y/o internacional por parte de las empresas estudiadas se debe iniciar con la aplicación de los conocimientos y herramientas actualmente existentes. Los resultados bibliográficos obtenidos mostraron 4 categorias importantes del enfoque literario de la logística, los cuales son: 1.Medio ambiental 2.Necesidades de formación 3.Mejoramiento de la cadena de suministro 4.Eslabones específicos
Fabian Torres Cynthia Anahy, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Rodrigo Espinoza Sánchez, Universidad de Guadalajara

COMPETENCIAS EMPRENDEDORAS DE LOS JóVENES EN BAHíA DE BANDERAS.


COMPETENCIAS EMPRENDEDORAS DE LOS JóVENES EN BAHíA DE BANDERAS.

Fabian Torres Cynthia Anahy, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Rodrigo Espinoza Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las necesidades de los habitantes y las poblaciones a nivel económico resultan altamente cambiantes y se encuentran en la mayoría de las localidades, y como respuesta a ello es que surge la voluntad de la población por emprender de tal manera que dicha acción responda a sus necesidades. La presente investigación aborda el tema que explica las competencias presentes en un grupo de emprendedores encuestados, de tal forma que se documentan estas características que tienden a lograr diversos beneficios, como lo son la generación de empleo con un mayor tiempo de vida en el mercado y este pueda ser rentable para el emprendedor, considerando que la mayoría de las personas tiene la capacidad para emprender un negocio, pero para asegurar el desarrollo del mismo, el emprendedor debe contar con competencias como: la autoeficacia, la autonomía, innovación, el locus de control, motivación de logro optimismo, tolerancia al estrés y la toma de riesgos. El objetivo de esta investigación es conocer las competencias emprendedoras de los jóvenes de Bahía de Banderas, y cómo estas pueden incidir en la creación de nuevas fuentes de empleo y bienestar social para sus familias.



METODOLOGÍA

Esta investigación fue elaborada con el método cuantitativo, aplicando un Test Adaptativo para la Evaluación de la Personalidad Emprendedora, se utilizó el instrumento planteado en (Pedrosa García, 2015; Segura 2018), en el cual los datos son medidos numéricamente y de estos mismo se realiza un análisis estadístico, el Test fue aplicado a actores claves los cuales fueron, 9 jóvenes emprendedores de Bahía de Banderas, que asisten a platicas de emprendurismo y talleres que ofrece el departamento de IMJUVE, este instrumento consta de 112 reactivos que ayudan a concretar si los emprendedores cuentan con las capacidades necesarias para emprender, dividiéndose en 8 competencias: Autoeficacia, autonomía, innovación, locus de Control, motivación de Logro, optimismo, tolerancia al estrés y toma de Riesgos, con una escala de Likert, donde: TD= Totalmente en desacuerdo D= Desacuerdo A/D= Ni de acuerdo, ni en desacuerdo A= Acuerdo TA= Totalmente de acuerdo. Para llevar a cabo el análisis de los datos, se utiliza IBM SPSS (Statistical Package for the Social Sciences) un programa estadístico para realizar bases de datos e interfaz en la mayoría de los análisis. En este caso se analizan la desviación estándar, la media y el porcentaje de cada una de las competencias: Autoeficacia, autonomía, innovación, locus de control, motivación de logro, optimismo, tolerancia al estrés y toma de riesgos, para conocer cuál es la relación entre ellas y de igual modo, en cuál de esas competencias los emprendedores se encuentran débiles o fuertes.


CONCLUSIONES

El emprendiendo para muchas de las familias representa una oportunidad de empleo y una muy buena fuente ingresos por lo que se debe capacitar a los jóvenes emprendedores para tener las competencias necesarias ya que, en el trascurso del tiempo, para sobrevivir a las crisis empresariales o crisis económicas que se presentan a nivel nacional y afectan a todos. Acorde a la información y los resultados de investigación se vislumbra que las competencias predominantes de los emprendedores de Bahía de Banderas son: la innovación y el locus de control, dando a conocer que muchos de los jóvenes tienen buenas ideas, son originales y asumen responsabilidades algo muy favorecedor para el municipio ya que cuenta con zonas turísticas, para el desarrollo de dichas ideas  ya que hay muy buenas oportunidades de negocios, al contrario, la competencia más débil es la tolerancia al estrés ya que los encuestados se presentan en un término medio en sus respuestas lo que quiere decir que no conocen del todo su capacidad para manejar el estrés en diferentes situaciones. A manera de conclusión general la investigación arroja que se deben trabajar en las diversas competencias para desarrollarlas de manera exitosa y darles una mayor esperanza de vida a los negocios. Palabras clave: Competencias, Emprendedores, Empresas y Capacidad.
Fajardo Hernandez Irma Aslhey Isabel, Universidad de Guadalajara
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.


ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.

Fajardo Hernandez Irma Aslhey Isabel, Universidad de Guadalajara. Maya Velazquez Lidia Viviana, Universidad de Guadalajara. Pavon Suarez Luis Alberto, Instituto Politécnico Nacional. Rodríguez Gutiérrez Luisa Cecilia, Universidad de Guadalajara. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la  mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indican las normas. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma. 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó en el tiempo determinado por las normas.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a lo calculado por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró que no lo hace tan resistente como el convencional, pero por muy poco, pero ayuda a tener un revenimiento menor. El concreto con PET en escama, presenta un mayor rendimiento al convencional, y una menor resistencia a la compresión. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo
Farfán Michaca Ulises, Instituto Tecnológico de Cuautla
Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit

EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT


EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT

Duran Castiblanco Marielena, Universidad de la Costa (Colombia). Farfán Michaca Ulises, Instituto Tecnológico de Cuautla. Zapata Herazo William Gustavo, Universidad de la Costa (Colombia). Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los residuos sólidos urbanos (RSU) son todos aquellos que provienen de las actividades diarias ya sea del hogar o de la industria como resultado de descartar materiales que se utilizan en dichas labores o los que provienen también de otras actividades tales como resultantes de la limpieza de las vías públicas. (DOF, 2003). Es decir, los RSU son todos aquellos desechos que proceden de actividades humanas que son normalmente sólidos y que se desechan como inútiles o indeseados como por ejemplo los productos de consumo, envases, embalajes, etc. La problemática ambiental se manifiesta con la escasez de los recursos naturales por la presión a estos para satisfacer las necesidades. El crecimiento de las ciudades causado por el desarrollo económico y el ritmo de vida actual con el que las personas viven ha prohijado un constante y desmedido aumento en la producción de RSU. Estas formas de consumo, son cuestionadas no solo por el manejo de los residuos sólidos urbanos, si no por los impactos ambientales, sociales, culturales, económicos y políticos que se derivan. Se habla de que la cantidad de RSU por cada mexicano es de 2.5 kg por día; estudios como el de SMA, D. F (2010) constatan que realizando una buena clasificación, tratamiento y reutilización se reduce en un 80% la generación de residuos. La ciudad de Tepic, Nayarit es una de las tantas capitales en el país de México que presenta problemas a la hora de disponer debidamente sus RSU. Presenta deficiencias desde el momento de su separación en la fuente hasta su tratamiento (el cual es nulo) en el Relleno Sanitario El Iztete debido a que no cuentan con la infraestructura adecuada, es decir, una planta de tratamiento y aprovechamiento de residuos sólidos, además de que este ya rebaso sus límites de capacidad. En tal sentido es conveniente preguntarse ¿Es factible realizar programas de educación ambiental continuos sobre el manejo de los RSU para el desarrollo sustentable en Tepic, Nayarit?



METODOLOGÍA

La metodología utilizada es la investigación participación y acción, debido a que se tiene en cuenta con la colaboración de agentes en busca de un mismo fin para intervenir en problemas sociales con el objetivo de una transformación social; igualmente es perceptual y cualitativa, debido a que implica la recopilación de datos a través de encuestas, además presenta en forma secuencial, organizada y clara los diferentes pasos efectuados para el desarrollo del proyecto, asimismo de la observación de las distintas muestras obtenidas. Para el presente se realizó una investigación sobre las problemáticas que causan los residuos sólidos urbanos, los efectos e impactos que estos generan al ambiente, economía, sociedad, cultura y política, con el fin de generar capacitaciones para el personal administrativo de la Universidad Autónoma de Nayarit (UAN) y a colonias aledañas a ella, y con ello hacer entender la importancia de la recolección, clasificación, reutilización y valorización de los residuos sólidos; asimismo se generó un taller de compras con el fin de crear conciencia sobre como mercar con responsabilidad los productos de subsistencia para así disminuir la generación de residuos sólidos urbanos en la ciudad de Tepic, Nayarit. Asimismo, se desarrolló un programa de actividades con el personal administrativo de la UAN y la colonia Indeco, el programa consistió de tres etapas desarrolladas a lo largo de seis semanas, el objetivo fue sensibilizar, concientizar y capacitar al personal administrativo de la UAN y a la colonia Indeco de la ciudad de Tepic, Nayarit sobre el cuidado del medio ambiente; para la sensibilización se definió el problema central e identificaron las causas y efectos de los diferentes impactos ambientales negativos que pueden ser atribuidos a la mala gestión de los RSU, además se notificó a los presentes sobre la situación actual del manejo de los RSU en la ciudad y las condiciones del relleno sanitario Iztete, para ello fue presentado un video en el cual se mostraba el entorno real del planeta; se trabajó la parte de concientización en el cual se analizaron las causas que propician la excesiva generación de residuos y alternativas para su reducción, se determinaron las acciones cotidianas en las cuales se consumen con exceso productos envasados en materiales inorgánicos como el plástico; se llevó a cabo la capacitación de los asistentes con ayuda de un taller de compras para estimular a la reflexión y análisis sobre la problemática ambiental y de tomar parte en el correcto manejo de los RSU, además de proporcionar información sobre cómo obtener compostaje con los residuos orgánicos, como ayudan y que se puede hacer con estos. De la misma forma, se tuvo en cuenta la aplicación del método Delphi el cual consiste en obtener una información que permite obtener la opinión de un grupo de expertos a través de la consulta reiterada. En base al puntaje de cada evaluador se puede inferir en el consolidado que componente es el de mayor importancia para el proyecto. Igualmente; se realizara una investigación considerando la problemática ambiental para identificar el lugar más perjudicado por esta, con el propósito de determinar el área de aplicación del proyecto, considerando las zonas de trabajo, influencia directa e indirecta, por último se ejecutara una matriz de importancia con ayuda de la metodología descrita por Conesa, en la cual se establece los criterios y puntajes que se deben tener en cuenta para su realización como lo son: su naturaleza, intensidad, extensión, momento, persistencia, reversibilidad, sinergia, acumulación, efecto, periodicidad, recuperabilidad, importancia; con el fin de especificar su identificación, es decir, si son impactos irrelevantes, moderados, severos o críticos


CONCLUSIONES

Durante la estancia se aplicó la metodología DELPHI con la cual se determinó que el suelo es el que más se está afectando por la problemática de los RSU, en segundo lugar, se encuentra la matriz agua por los daños que los lixiviados le pueden causar a ríos cercanos al relleno sanitario El Iztete y en último lugar se encuentra el componente aire por las emisiones de gases de efecto invernadero provenientes de los residuos. Al tratarse de una investigación que requiere de la participación y colaboración del personal administrativo de la UAN aún no se han demostrado los resultados de las capacitaciones en el campus de la universidad ya que se encuentran en periodo de vacaciones, por otro lado, la capacitación realizada en las poblaciones aledañas si han mostrado buenos resultados, debido a que separan correctamente los residuos aprovechables de aquellos que no lo son, lo mismo se espera para el área administrativa de la UAN.
Fernández Venegas Francisco Gerardo, Universidad de Guadalajara
Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)

DESARROLLO DE CóDIGO E INTERFAZ GRáFICA EN MATLAB PARA LA CONFIGURACIóN DE DISPOSITIVOS SHIMMER Y OBTENCIóN DE DATOS DE IMUS EN TIEMPO REAL: PROYECTO AGORA


DESARROLLO DE CóDIGO E INTERFAZ GRáFICA EN MATLAB PARA LA CONFIGURACIóN DE DISPOSITIVOS SHIMMER Y OBTENCIóN DE DATOS DE IMUS EN TIEMPO REAL: PROYECTO AGORA

Fernández Venegas Francisco Gerardo, Universidad de Guadalajara. Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los seres humanos día con día nos vemos expuestos a padecer una incapacidad, parcial o total, la cual nos dificulte o inhabilite para realizar alguna tarea o movimiento específico. Las causas pueden ser diversas, desde sufrir un accidente, contraer una enfermedad, nacer con alguna malformación o por el desgaste generado por la repetición de alguna acción a lo largo del tiempo. Las técnicas de rehabilitación avanzan y se mejoran hasta el grado de lograr resultados en tiempos muy cortos, esto dependiendo en gran parte del tipo de daño que fue causado, pero también con base en la aplicación correcta de un plan de acciones para habilitar nuevamente la parte afectada. Un exoesqueleto puede ayudarnos en diferentes maneras, desde brindar soporte o protección hasta la asistencia en movimientos que se vean afectados por alguna incapacidad. En el caso del exoesqueleto AGoRA, se pretende asistir la rehabilitación de la rodilla para generar un sistema más confiable basado en técnicas de rehabilitación con estándares positivos en los resultados. Para revisar el correcto funcionamiento del exoesqueleto en mención, es importante estimar las angulaturas de manera en que puedan ser comparadas con ángulos tomados con instrumentos que brindan una precisión alta para asemejar los resultados e incluso superarlos. También es importante brindarle libertad de movimiento a los sujetos que serán sometidos a las técnicas de rehabilitación, por lo que instrumentos de medición inercial que puedan comunicarse sin necesidad de cableados son imprescindibles. Los datos obtenidos por IMUs pueden ser canalizados a la obtención de posiciones en las tres dimensiones en tiempo real, lo cual, a su vez, puede ser empleado en la comparativa de posiciones alcanzadas durante la repetición de sesiones de rehabilitación para verificar una mejora o decrecimiento en los rangos de movimiento de una articulación específica (rodilla en este caso).



METODOLOGÍA

Investigación aplicada enfocada en la utilización de comandos específicos para generar una comunicación Shimmer-Matlab con la cual obtener datos de su acelerómetro giroscopio y acelerómetro en tiempo real. El desarrollo del proyecto puede ser dividido en tres etapas. Etapa 1: •           Revisión de literatura. •           Familiarización con el equipo Shimmer.   Etapa 2: •           Propuesta de arquitectura de software. •           Diseño de funcionalidades de interfaz gráfica. •           Habilitar conexiones y configuración para dos Shimmer de manera simultánea. •           Redactar manual de operación de arquitectura propuesta. •           Redactar protocolo experimental para pruebas con sujetos sanos.    Etapa 3: •           Verificación de funcionamiento en la transferencia de datos online. •           Diseño de interfaz para registro de sujetos de prueba. •           Propuesta de arquitectura de software para detección de angulaturas en la articulación de la rodilla. •           Realizar pruebas con/sin exoesqueleto en sujetos sanos.                          Para la parte de la estimación de ángulos, la metodología se basa en: Investigación cuantitativa enfocada en el cálculo de la cinemática de la rodilla en movimientos de flexo-extensión para determinar si existe, o no, una mejora considerable al momento de aplicar técnicas de rehabilitación utilizando un exoesqueleto. Para la verificación del funcionamiento correcto del algoritmo se realizan, primeramente, pruebas con sujetos sanos, es decir, sin complicaciones físicas o patologías que le impidan o dificulten los movimientos de flexo-extensión de la articulación de la rodilla. Se realizan pruebas en quince sujetos sanos, cuyos resultados son comparados con angulaturas tomadas con un goniómetro para comprobar el correcto funcionamiento del algoritmo. Los movimientos realizados por los sujetos de prueba se generan en igualdad de condiciones. El instrumento para la recolección de datos es una interfaz gráfica desarrollada en Matlab, la cual utiliza IMUs para obtener los datos en tiempo real. El análisis de datos se lleva a cabo de manera estadística y comparativa para validar la estimación correcta de las angulaturas de la articulación de la rodilla.


CONCLUSIONES

El desarrollo de esta interfaz gráfica da pie a la modificación de la misma para ser adaptada a diferentes proyectos que tengan como objetivo el monitoreo de las angulaturas de la articulación de la rodilla, así como la actividad de las IMUs en los tres ejes (x,y,z). Los beneficios que nos brindan las IMUs son de gran ayuda al momento de la estimación de angulaturas y posiciones de un punto de interés. Esto, en adición a una conectividad sin necesidad de cables, ayuda a facilitar la colocación de sensores, así como a brindar una mayor libertad de movimiento. Es importante facilitar medios a los usuarios destinados a manejar diferentes algoritmos para que puedan obtener los resultados esperados de manera correcta, en condiciones cómodas y rápidas, así como el fácil acceso a registros de interés. Las interfaces gráficas llegan a ser la respuesta más cercana en la interacción usuario-algoritmo. Se confía en que la interfaz generada, en conjunto con el algoritmo de deducción de angulaturas en la rodilla, será de gran ayuda para determinar si los procesos de rehabilitación con el exoesqueleto AGoRA brindan soluciones relevantes contra los métodos de rehabilitación convencional. Debido al tiempo destinado para la realización del proyecto y tomando en cuenta las complicaciones que se llegan a generar en investigación con distintos equipos de trabajo, se espera continuar con el proyecto en mención para conseguir mejores tiempos de respuesta, mayor fluidez en el muestreo de las gráficas en tiempo real y una precisión mayor al estimar los ángulos en tiempo real.
Fernandez Vertel Sebastian David, Corporación Universitaria del Caribe (Colombia)
Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO SERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA, TRáFICO Y CONTAMINACIóN EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.


MICRO SERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA, TRáFICO Y CONTAMINACIóN EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.

Barrios Vergara Luis David, Corporación Universitaria del Caribe (Colombia). Fernandez Vertel Sebastian David, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México es una de las ciudades más habitadas del planeta lo que ha ocasionado un alto índice de contaminación y sobrepoblación, haciendo esta última que la demanda de uso de transporte sea excesiva, dando como resultado la congestión del tráfico terrestre. Asimismo, para 2019 México desplazaría a Japón del décimo lugar en habitantes. La movilidad es un problema tanto local como global que se ve muy repercutido en la ciudad de México, la cual, a lo largo del tiempo.   



METODOLOGÍA

Se desarrolló un servicio de notificación que le proporcione al usuario mostrar los índices de la calidad del aire en la zona en la que se encuentra, notificaciones para considerar precauciones a partir del nivel de contaminación que hay en dicha zona de la ciudad, y por último, pero no menos importante, recomendaciones para usuario. La implementación de esta aplicación ayudara a evitar que las personas padezcan de enfermedades o malestares por exposición a altos niveles de contaminación, tomar conciencia de la contaminación ambiental, así como el elegir alternativas de modo de traslado más ecológicas.   Para dicho desarrollo lo primero que se realizo fue la Selección del crawler y web scraper para el recopilado de información en Twitter de acuerdo a los siguientes criterios de búsqueda y recopilación (Crear tabla comparativa de las herramientas):   Geolocalización (regiones o coordenadas) Keywords Tiempo Usuario (cuenta verificada, antigüedad...)   Por lo consiguiente se definió la estructura de la base de datos en MongoDB, con la obtención de una pequeña muestra (100 tweets aprox.) de diferentes tiempos, usuarios y localizaciones para modelar. Para dicha muestra fue necesario hacer una limpieza y preparación de dichos datos, para finalmente integrarlos a la base de datos.   También se realizó un scraping de la página web oficial de la calidad del aire de CDMX para obtener datos en tiempo real de lo que sucede en las estaciones localizadas en cada una de las delegaciones de la ciudad.   Se investigaron algoritmos, herramientas y frameworks para el procesamiento de lenguaje natural, análisis de sentimientos y predicciones, en los lenguajes Java, C, C# o Python   Por último, se selección de la tecnología para desarrollar el backend y frontend, para la visualización de la información y servicio de notificaciones a través de una aplicación web progresiva que informe y dé recomendaciones a las personas. Esto fue representado en un semáforo de forma gráfica, de tal modo que muestre al usuario el índice de calidad de aire que hay en la zona en que se encuentra el usuario en la Ciudad de México y zona metropolitana.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la recolección de datos de una red social (Twitter), así como el manejo de ellos en una base de datos no relacional (Big Data), se experimentaron e investigaron nuevas herramientas para el desarrollo del proyecto.   En el desarrollo del proyecto se extendió ya que es un tema muy complejo y se tuvieron que usar herramientas previamente no dominadas y conocidas, haciendo esto un obstáculo para la terminación del proyecto.  
Fierros Zamora Monserrat Sarai, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

INMOVILIZACIóN EN CéLULAS DE ESCHERICHIA COLI GENéTICAMENTE MODIFICADAS EN UNA MATRIZ DE ALGINATO-BACL.


INMOVILIZACIóN EN CéLULAS DE ESCHERICHIA COLI GENéTICAMENTE MODIFICADAS EN UNA MATRIZ DE ALGINATO-BACL.

Castillo Martinez Cinthia Paola, Universidad de Guadalajara. Fierros Zamora Monserrat Sarai, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las bacterias son los seres vivos más utilizados en los procesos biotecnológicos, por ejemplo, la enterobacteria E.coli es la principal en la lista, ya sea como medio o protagonista del proceso.  Un microorganismo de uso industrial debe producir la sustancia de interés; debe estar disponible en cultivo puro; debe ser genéticamente estable y debe crecer en cultivos a gran escala. Otra característica importante es que el microorganismo industrial crezca rápidamente y produzca el producto deseado en un corto período de tiempo. Otro requisito importante es la facilidad de separar las células microbianas del medio de cultivo; la centrifugación es dificultosa o cara a gran escala.  Debido a esto, el proceso de utilizar células libres tiene inconvenientes incluyendo la poca reutilización  y baja productividad. La inmovilización de células tiene algunas ventajas por encima de las células libres, como la más fácil separación del medio de reacción, el aumento de la estabilidad celular, la facilidad del proceso de separación y la aplicabilidad al sistema continuo. El método de inmovilización en alginato para inmovilizar células de E.coli utiliza iones bivalentes de (Ca+2 y Ba+2) para la reticulación de alginato.  Las perlas de alginato de calcio difieren en la estabilidad con respecto a las condiciones de reacción. La sensibilidad de las perlas de alginato de calcio frente a diversos reactivos químicos, como el fosfato, citrato y agentes no gelificantes (iones de sodio y magnesio).  Las perlas de alginato de bario muestran una conformación mayormente estable. Con lo mencionado anteriormente, se pretende elaborar perlas de alginato de bario que sirvan como matriz de inmovilización para E. coli genéticamente modificada la cual producirá metabolitos de interés creando así un biomaterial de características idóneas para su posterior uso en procesos biotecnológicos.



METODOLOGÍA

Cultivos En el proyecto se utilizó una cepa de Escherichia coli DH5α genéticamente modificada (E. coli GFPU0), esta contaba con un plásmido el cual expresaba un gen de resistencia a un antibiótico (ampicilina) además de un gen reportero el cual expresaba una proteína fluorescente (GFP). La misma fue cultivada en medio TB, medio LB y medio M9 con una concentración de ampicilina de 100 ppm   Cuantificación de la fluorescencia de E. coli GFPU0 Se realizaron 2 cultivos en tubos de 15mL los cuales contenían medio M9 y en su caso ampicilina a 100ppm, uno de E. coli DH5a GPFU0 y otro de E. coli DH5 sin modificar genéticamente como control de fluorescencia. Se incubaron por 16 horas a 37C° con una agitación de 150rpm. Al término de la incubación se midió la densidad óptica de los cultivos a una longitud de 600nm, y se ajustó la OD de los cultivos a 0.2 con el fin de estandarizar la medición. Enseguida se tomaron 200 µL de los cultivos y se transfirieron a placas de 96 pocillos para realizar la medida de fluorescencia se utilizó un fluorímetro (Fluoroskan, thermoscientific). Se reportó el resultado como absorbancia al cual se le resto el blanco y se compararon los resultados.   Inmovilización de E. coli DH5α GFPU0 en perlas de alginato-BaCl Se realizó un cultivo de E. coli DH5α GFPU0 en 50mL de TB con ampicilina a 100 ppm, se incubó a 37C° por 16 horas a 150RPM. Se tomó una alícuota de 200 µL para realizar conteo de unidades formadoras de colonias y el resto se centrifugó a 8000 rpm por 5 minutos, se resuspendió el pellet celular en buffer Tris-HCL 50mM pH: 8. Este procedimiento se realizó 3 veces para lavar restos de medio TB. El pellet final se resuspendió en 12.5mL de buffer Tris-HCL 50mM pH: 8 el cual fue mezclado con 50 mL de una solución de alginato de sodio al 2.5% para terminar a una concentración final de 2% de alginato en la solución. La solución fue bombeada a través de una manguera (masterflex) de 7 mm diámetro, el cual al final contaba con una aguja de 32 mm elevada a 25 cm de un recipiente con 200mL de BaCl.3M en agitación constante. Al pasar por la aguja el alginato formó perlas que cayeron al BaCl y se solidificó formando perlas que contienen en su interior las células de E. coli DH5α GFPU0. Las perlas reposaron en la solución de BaCl.3M por 1 hora para incrementar su estabilidad, se tomó una muestra de la solución en la cual se solidificaron las perlas para medir las UFC y seguido a esto se pesaron 5 g de perlas y se transfirieron a matraces de 50mL de medio TB, M9 y buffer Tris-HCL 50mM pH: 8. Se inocularon estas perlas en sus respectivos medios a 37C° a 150 rpm.   Conteo de Unidades Formadoras de Colonias (UFC) En todos los casos se tomaron 20 µL de muestra y se realización diluciones seriadas con solución salina (NaCl .9%). Se plaquearon en cajas Petri con agar LB con ampicilina a 100ppm.


CONCLUSIONES

Se logró el encapsulamiento correcto de células de E.coli DH5α GFPU0 dentro de perlas de alginato-BaCl2, logrando así uno de los objetivos específicos planteados al inicio del trabajo, así mismo, se observaron indicios de una correcta viabilidad de las células además de la estabilidad de las mismas y capacidad de reutilización ; lo que nos proporciona mejores cualidades para nuestro proceso, esta técnica de encapsulamiento permite la oportunidad del escalamiento del proceso a niveles mayores y con mayor rentabilidad en la producción de moléculas de interés.
Figueroa Bahena Vianey, Universidad Autónoma de Guerrero
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

ANÁLISIS HIDROLÓGICO Y CALIDAD DEL AGUA DE LA CUENCA DEL RÍO QUERÉTARO, 2019.


ANÁLISIS HIDROLÓGICO Y CALIDAD DEL AGUA DE LA CUENCA DEL RÍO QUERÉTARO, 2019.

Figueroa Bahena Vianey, Universidad Autónoma de Guerrero. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

El recurso hídrico tiene relación con las actividades humanas y naturales, sin embargo, esta relación ha tenido ciertos cambios y debido, principalmente, a la modificación en un contexto global (como el cambio climático), el crecimiento exponencial de la población y la llegada de las industrias. Todo esto ha tenido una repercusión en el recurso y en el territorio de la cuenca ya hablando en una escala mayor. El conocimiento básico de la cuenca es importante como unidad mínima para poder realizar gestiones de caracterización y diagnóstico del recurso hídrico para poder establecer parámetros o lineamientos que le sirva como base a la zona urbana e inclusive a proyectos actuales y futuros para la planificación correcta, sin dejar por un lado la importancia del cuerpo de agua. En esta unidad de escurrimiento, los estudios hidrológicos nos ayudan a prevenir riesgos en zonas urbanas, por lo cual en la actualidad tienen mucha importancia. Uno de los principales riesgos son inundaciones, que son causadas por factores como la modificación antrópica de los cauces y cambio de uso de suelo que en el cual con la zona urbana nos deja el suelo impermeable a causa de la pavimentación. Las lluvias intensas y duraderas son consecuencia del cambio climático y la contaminación producida por el hombre que repercuten de manera significativa en la disponibilidad espacial y temporal de los recursos hídricos.  Finalmente, sin dejar de lado y resaltando la calidad del agua que tiene la cuenca ya que si en algún momento se presentará una escorrentía mayor en la zona urbana podemos tener riesgo a enfermedades.



METODOLOGÍA

Realizar un Modelo Digital de Elevación (DEM, por sus siglas en inglés) como entrada, para delinear un sistema de drenaje automáticamente y cuantificar las características del sistema. Delineación de cuencas, se muestra una cuadricula de flujo acumulado de la salida designada del área de estudio. Discretización de la cuenca, se especifica el umbral del panorama, para establecer los canales de la corriente y la cuenca se divide en elementos según lo requiera el estudio y a estos elementos se les denomina discretización. A partir de este momento las tareas se vuelven específicas del modelo que se utilizará, en la elección de este proyecto se eligió el Modelo Cinemático de Escorrentía y Erosión (KINEROS 2, por sus siglas en ingles). Parametrización de la cuenca, en el cual se muestra las propiedades topográficas y las propiedades del uso de suelo. Este punto, se basa también en unir geométricamente los canales de Evaluación Geoespacial Automatizada de Cuencas Hidrográficas (AGWA, por sus siglas en ingles) y la cobertura del suelo médiate el sistema de información geográfica (SIG) en el cual la discretización se parametriza de acuerdo con la topografía de la cuenca y luego se cruzan con estos datos. En este paso se muestran los parámetros necesarios para la ejecución del modelo, como los parámetros hidrológicos, donde se agregan a las tablas de consulta para la discretización de corrientes por las clases de identidad. Archivo de precipitación para el modelo KINEROS 2, se crean archivos de lluvia. El usuario puede seleccionar entre varios eventos de lluvia preferidos o elegir construir su propio archivo de lluvia a través de un módulo AGWA, aquí es donde se agrega el hietograma. Elegir el modelo de entrada de la simulación para el modelo KINEROS 2, aquí nos muestra las condiciones del estudio hidrológico, en el cual la cuenca se ha subdividido en elementos del modelo; los parámetros hidrológicos en el cual se ha determinado para cada elemento y se han preparado archivos de lluvia. Esta sección de la metodología está separada para que la ejecución del modelo te permita editar archivos antes del modelo. Ver y describir los resultados obtenidos, en esta parte se encarga de analizar lo que se obtuvieron mediante toda la metodología.   NOTA: Adicional a la metodología se estuvo apoyando en un proyecto de análisis del agua del río Querétaro, donde mis compañeras del verano Mayra Dolores Aguayo de la Cruz y Elizabet Olmos Alba, me aportaron información obtenida del laboratorio para poder nutrir el proyecto con calidad del agua y poder obtener las conclusiones.


CONCLUSIONES

El presente proyecto de investigación realizado en la cuenca del Río Querétaro nos ha demostrado que la zona urbana corre riesgo con la calidad del agua y el escurrimiento puede ser mayor como posible escenario en el futuro, ya que el cambio climático contribuido a que la precipitación sea cada vez mayor. Como resultados obtenidos de la calidad del agua en la cuenca del río Querétaro llegada de la industria, el agua utilizada con el uso doméstico afecta la calidad del agua ya que esta agua no es tratada en su totalidad. En el área de la cuenca del río Querétaro se demostró que el agua está contaminada; mediante los estudios realizados se demostró que las posibles fuentes de contaminación tienen menor concentración que la que adquirió desde aguas arriba o escurrimientos de ese u otro punto. Los resultados obtenidos nos sirven para poder determinar un plan de prevención a la zona urbana y puedan confrontar problemas de salubridad y posibles pérdidas humanas a causa de las enfermedades que pueden contraer a causa del uso del agua de la cuenca.
Figueroa Moreno Israel, Universidad Autónoma de Baja California
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES


COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES

Campos Cuiniche Pablo Esteban, Universidad Autónoma de Baja California. Colima Ceceña Mariana, Universidad Autónoma de Baja California. Figueroa Moreno Israel, Universidad Autónoma de Baja California. Rocha Díaz Carlos Emilio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

A lo largo del último siglo, la industria aeroespacial ha generado un notable avance de innovación y mejora de nuevos materiales compuestos, los cuales buscan cumplir los requerimientos de normatividad en el área, como propiedades mecánicas y ligereza, sin embargo, presentan el inconveniente de ser contaminantes y una vez que termina su ciclo de uso ya no pueden ser reutilizados o ser reciclados. En consecuencia, se pretende genera nuevos materiales compuestos donde se apliquen polímeros a base de bioepóxicos y fibras naturales y de esta manera, generar materiales compuestos biodegradables, es decir, productos no contaminantes al medio ambiente y que puedan ser reciclados, siempre en pro de la conservación las propiedades tanto mecánicas como de ligereza requeridos en la industria aeroespacial. En este proyecto se desarrollará dos materiales compuesto a base de fibras naturales: coco y henequén con resina epóxica biodegradable.



METODOLOGÍA

Para la realización de este proyecto se utilizó resina bioepóxica SR GreenPoxy 56 reforzada con fibra de henequén y de coco formando dos materiales compuestos distintos. Dado que este subproducto tiene un grado de humedad relativamente alto, se llevó a cabo el experimento haciendo laminados tanto con fibra seca como fibra con humedad ambiente. Recorte de fibras Tanto la fibra de coco como las de henequén fueron recortadas con dimensiones de 25 x 25 cm, obteniendo 8 láminas de cada tipo de fibra, para posteriormente utilizar 4 de ellas en cada laminado. Proceso de secado El secado previo de las fibras se realizó en un horno de secado a una temperatura máxima de 100°C durante 5 horas siguiendo las condiciones estándar. La temperatura de secado se determinó en base al análisis termogravimétrico de la celulosa buscando la temperatura óptima para eliminar la humedad y no degradar la celulosa de la fibra. Una vez secas las fibras, se colocaron en el desecador para evitar que éstas adquirieran humedad nuevamente. Proceso de manufactura Para la fabricación de los materiales compuestos, se utilizó el proceso de laminado por impregnación al vacío en las 4 muestras. Previo a cada laminado, se preparó un molde de aluminio. Se colocó masking tape en el contorno del molde, esto con el fin de evitar colocar antiadherente en esas zonas y poder aplicar butilo para sellar la bolsa de vacío. Posteriormente se añadió el antiadherente utilizando un paño completamente húmedo siguiendo líneas rectas en dirección de 0° hasta cubrir la superficie del molde. Se esperaron 2 minutos y con un paño seco pasa en dirección de 90° con el fin de retirar el exceso y rellenar en las zonas donde pudo haber faltado. Después de 15 minutos transcurridos, se aplica la segunda capa siguiendo las direcciones contrarias. El procedimiento se repitió hasta completar 4 capas de antiadherente. Antes de utilizar el molde deben haber pasado mínimo 30 minutos. Sobre la orilla del molde se colocó butilo cuidadosamente. Posteriormente se adhirieron las mangueras de entrada y salida del sistema de igual manera con butilo. Conectado a las mangueras estaban las conexiones T. Como medio de difusión se fabricaron unos tubos a base de fibra de henequén envuelta en peel ply, las cuales se colocaron en la entrada y salida del sistema de vacío dentro de las conexiones T. En el centro del sistema se colocaron las 4 láminas de fibra de coco/henequén, con una placa de metal encima forrada con una película antiadherente para evitar que la placa se adhiera al laminado. Esta placa se utilizó con el fin de generar una presión uniforme y lograr un mejor acabado en el laminado. Además, se añadió una capa de peel ply de 7 x 25 cm a la entrada y salida, y una capa de Green mesh a la entrada como medios de distribución. El peel ply funciona como medio de transmisión de la resina y el Green mesh ayuda para dirigir la resina hacia las láminas de fibra. Por último, se colocó la bolsa de vació cuidando de que quedara completamente sellada con butilo, comenzando a sellarla desde la zona de la manguera de salida y haciendo presión entre la bolsa y el butilo. Una vez listo el sistema, se encendió la bomba de vacío durante 15 minutos. Seguido de esto, se preparó la mezcla de resina en un recipiente metálico y se ingresó al sistema por medio de la manguera de entrada. El flujo de ésta estuvo siendo regulando con una prensa troquelada. Después de ingresar toda la resina, se continuó aplicando vacío durante 5 horas más.


CONCLUSIONES

Se presentó un trabajo de manufactura de materiales compuestos reforzados con fibras en el que se utilizó la técnica de infusión por bolsa de vacío. Las fibras de coco utilizadas funcionaron como un buen refuerzo para el compuesto laminado, que junto con la matriz de resina bioepoxy, presentaron una buena adhesión interfacial a pesar de la humedad relativa de las fibras. De acuerdo con la experiencia adquirida en el desarrollo experimental, nos percatamos de la importancia de controlar diversas condiciones en el momento de llevar a cabo la infusión. Una de ellas es el vacío. Un buen sellado de la bolsa asegura que no existan entradas de aire, y así evitar la formación de concentradores de esfuerzos que afectan a las propiedades mecánicas del laminado, también nos dimos cuenta de la importancia de controlar la velocidad de flujo de la resina, ya que, permitir que la resina se difunda con menor velocidad, da como resultado un mejor relleno de la fibra y una superficie más homogénea y uniforme. Al final, se espera obtener laminados de fibras de coco y fibras de henequén con la capacidad de degradarse y de presentar un buen comportamiento ante esfuerzos. Para ello, se realizarán ensayos de tensión y compresión, así como también una caracterización óptica que nos permitirá predecir ciertas características del material. A partir de los resultados obtenidos, se podrá evaluar si sus propiedades son las adecuadas y si son una alternativa viable para la sustitución de algunos materiales en el sector aeroespacial.
Figueroa Palomino Figueroa Palomino Alheyda, Universidad de Sonora
Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas

PROPUESTA DE COMPONENTE PARA TECHO DE VIVIENDA, AISLADO TERMICAMENTE Y PREFABRICADO CON CARTON RECICLADO.


PROPUESTA DE COMPONENTE PARA TECHO DE VIVIENDA, AISLADO TERMICAMENTE Y PREFABRICADO CON CARTON RECICLADO.

Figueroa Palomino Figueroa Palomino Alheyda, Universidad de Sonora. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el material utilizado para la construcción de techos en las viviendas, en su mayoría son de concreto armado o lámina galvanizada. Su principal desventaja es su comportamiento térmico ya que almacenan calor durante el día y lo liberan durante toda la tarde y gran parte de la noche, provocando la insatisfacción de la o las personas que habitan la vivienda. El propósito es crear un componente aislante térmicamente para techo, a base de cartón reciclado ya que disminuiría esta problemática disminuyendo los niveles de temperatura de la vivienda, sin embargo, el cartón tiene ciertas limitaciones, como su Vulnerabilidad ante la humedad, es por ello que se debe proteger ante: agua, fuego, agentes químicos, luz ultravioleta y cambios de temperatura.



METODOLOGÍA

El cartón es un material ecológico y económico que está compuesto por varias hojas superpuestas de pasta de papel fabricado con la fibra de celulosa, la cual se obtiene de la madera; una vez utilizado puede ser reciclado y convertido nuevamente en cartón. Existen diferentes tipos, entre ellos se encuentra: -Cartón ondulado. Está formado por capas lisas de papel las cuales se encuentran unidas con adhesivo y cuenta con una capa intermedia corrugada. -Cartón alveolar. También conocido como nido de abeja está formado por hexágonos de papel, unidas con algún adhesivo o resina. Ambos son un material ligero que pueden ser utilizados para el prototipo, con una estructura resistente, trabajan bien a la comprensión y tienen un comportamiento térmico y acústico. En la actualidad existen muchas construcciones a base de cartón a pesar de aparentar gran debilidad, la mayoría de estas construcciones han utilizado tubos de cartón, los cuales fueron construidos a medida y en función de las necesidades del proyecto, solamente con cartón reciclado. La ventaja de utilizar estos tubos de cartón es que pueden ser creados en cualquier diámetro, grosor, longitud que se desee y uno de los factores más importantes en la construcción es, que estos tubos no son caros y es muy sencillo repararlos en caso de algún desgaste. Para que estos tubos fuesen más resistentes se impermeabilizaron con polivinilo clorado, dándole mayor firmeza y protección. Estos tubos no son utilizados solo para edificaciones pequeñas o solamente cuando se habla de desastres naturales, también pueden ser utilizados en grandes edificaciones. Una de sus principales debilidades del cartón es la humedad, sin embargo, es posible protegerlo, volviéndolo impermeable. Las posibles técnicas para logar esto, es utilizando cera caliente formando una capa uniforme sobre todo el cartón, de este modo, aunque se moje el cartón no se estropeara. La técnica más recomendada y sencilla es la utilización de algún barniz en aerosol, pues al aplicarlo sobre el cartón logra una protección extra, repela el agua y la suciedad. Tras investigar sobre algunas construcciones realizadas con cartón, se deduce que es un material que puede ser utilizarlo como componente para aislar térmicamente. Para poder crear este componente, se utilizará todo el cartón desperdiciado de diferentes empresas, las cuales no tienen la iniciativa de reciclar. Todo cartón puede ser utilizado, aunque sean distintos tipos y tamaños. El propósito es crear láminas de cartón con las dimensiones y espesores necesarios para cada tipo de techo de la vivienda. En este caso las medidas que se utilizaran para poder crear este componente para la vivienda climáticamente inteligente será de 50 x 55 cm. con un espesor de 5 cm para poder obtener mayor aislamiento térmico y resistencia. Teniendo en mano el cartón, se procede a cortarlo según las dimensiones que se necesiten, repitiendo esto hasta obtener varias capas las cuales serán pegadas con Resistol blanco hasta obtener el espesor deseado y una mayor firmeza. Una vez que las capas hayan pegado se procederá a impermeabilizar la pieza con cera, protegiendo al material ante la humedad, el cual es nuestro mayor problema y ante ataques biológicos. Para la colocación de cada pieza en el techo, se deberá instalar una estructura a base de carrizo o bambú con las dimensiones ya mencionadas anteriormente, para así proceder a colocarla sobre la estructura.  


CONCLUSIONES

A través de la investigación sobre algunas construcciones realizadas a base de cartón, solo se pudo realizar la propuesta y el prototipo de la primera fase. Sin embargo, por limitaciones de tiempo y recursos no se pudo realizar diferentes pruebas al componente para ver si en realidad funciona como aislante, reduciendo los niveles de temperatura en la vivienda, además de la falta de construcción de la estructura que sostendrá cada componente de cartón en el techo.
Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
Figueroa Valle Aldo Daniel, Instituto Tecnológico de Culiacán
Asesor: Dr. Mercedes Ruiz Carreira, Universidad de Cádiz (España)

BADGEPEOPLE: LEVELING-UP INNOVATION IN QUALITY IMPROVEMENT OF PEOPLE-DRIVEN PROCESSES WITH SIMULATION AND GAMIFICATION


BADGEPEOPLE: LEVELING-UP INNOVATION IN QUALITY IMPROVEMENT OF PEOPLE-DRIVEN PROCESSES WITH SIMULATION AND GAMIFICATION

Figueroa Valle Aldo Daniel, Instituto Tecnológico de Culiacán. Asesor: Dr. Mercedes Ruiz Carreira, Universidad de Cádiz (España)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, los datos generados por los distintos sistemas informáticos son una parte fundamental y algo valioso en los proyectos de cualquier área de estudio, ya que estos cada vez pueden ser analizados y estudiados de una mejor manera a través de la aplicación de algoritmos de machine learning de clasificación o predicción que permiten tener un mejor aprendizaje de la problemática y de lo que ocurre en el proyecto para al final poder tomar mejores decisiones. Para lo cual durante la estancia Verano de Investigación se generarán datos a través de un simulador que posteriormente serán analizados a profundidad con algoritmos de machine learning y finalmente se dará persistencia a los resultados, todo esto para poder generar conclusiones y tomar decisiones referentes a las necesidades del proyecto.



METODOLOGÍA

La metodología empleada para la realización del proyecto se llama Investigación-acción en donde se trabajará con las primeras tres etapas de esta. En donde se especifica primeramente la problemática que se tiene para posteriormente desarrollar un plan de acción o bien lo que se va a realizar con el fin de resolver la problemática planteada, finalmente se lleva a cabo el desarrollo del plan de acción para poder así ver los resultados que esta teniendo y el impacto en la problemática. Se utilizaron tres herramientas de software para la realización del proyecto, la primera llamada Anylogic es un simulador de sistemas que a través de un modelo de simulación que genera los datos que se utilizarán para analizarse. Luego con la herramienta WSO2 se tomarán esos datos en vivo para filtrarse en primera instancia y luego analizarlos con distintos modelos de machine learning de clasificación y de predicción. Finalmente tanto los datos generados en el simulador como el resultado del machine learning serán almacenados en una base de datos no SQL en el gestor de base de datos MongoDb, en donde dichos datos serán analizados más a fondo con ayuda de herramientas de visualización de datos en donde los resultados puedan verse de una manera más gráfica y entendible.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos tanto prácticos como teóricos en el manejo de las distintas herramientas de software utilizadas. Así como un mejor entendimiento de los algoritmos de machine learning que se pueden utilizar para analizar los datos. Y dado que el proyecto aún se encuentra en desarrollo no es posible mencionar resultados finales pero se espera que los resultados de la parte de machine learning sean los adecuados para los fines que se plantearon al inicio de la estancia.
Flores Bañuelos Mariana, Universidad de Guadalajara
Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima

MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA


MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA

Chan Ek Carlos Lauriano, Consejo Quintanarroense de Ciencia y Tecnología. Dzul Kinil Merly Estrella Darany, Consejo Quintanarroense de Ciencia y Tecnología. Flores Bañuelos Mariana, Universidad de Guadalajara. Reynaga Cobián Rabí Salvador, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el ámbito tecnológico encontramos la clave para tratar al comercio electrónico como una actividad económico-comercial única, pero es necesario hacer énfasis en la división del comercio tradicional y el comercio electrónico. Puesto que el comercio electrónico ofrece diversas bondades a todos los diferentes agentes económicos. No obstante, sigue existiendo la problemática sobre los medios digitales más eficaces y con mayor publicidad para el ofrecimiento de oportunidades de marketing para abarcar la mayor parte del mercado y que tanto los productores, proveedores de bienes/servicios incluyendo usuarios logren el tener acceso y la transmisión mundial a la unificación de hacer uso de las herramientas disponibles de e-commerce para mayor esparcimiento de forma sencilla y económica. La mayor problemática que enfrentan las PyMEs en el estado de Colima es que en ocasiones se sienten limitados y les es difícil la divulgación de sus productos ya sea que para el primer caso sean pequeñas empresas que están comenzando y quieren vender solo en línea, para el segundo caso porque ya están establecidas, pero aún no tienen reconocimiento ni físico ni digitalmente, o en tercer caso porque ya tienen resultados, pero buscan complementarlo para tener aún más éxito. Para solucionar la anterior problemática se elaboró esta investigación que permitirá el desarrollo de un modelo de Marketing Digital empleando el uso de tecnologías y herramientas especializadas para la segmentación de mercado.



METODOLOGÍA

Se utilizó la metodología de Diseño Centrado en el Usuario (DCU), es la aplicación en la que se practica la interacción persona -ordenador, se basa en la participación de las personas en busca de las necesidades del usuario por medio de procesos de diseño y evaluaciones, descubriendo la usabilidad y experiencia de uso, pasando por distintas etapas de diseño hasta llegar al usuario final. También se utilizó como método de medición una encuesta en línea de doce preguntas de opción múltiple elaborada en Google Forms, dirigida a las personas de dos AGEB en Villa de Álvarez del estado de Colima, con una población de 1721 habitantes en la AGEB 10021 donde incluye tres colonias y 2557 habitantes en la AGEB 10290 donde incluye dos colonias, la muestra fue de 278 personas. Gracias a la encuesta se concluyó que la mayoría de los encuestados esta entre los 15 y 30 años de edad, el 96% tiene un teléfono celular inteligente, el 92.7% de los encuestados respondió que si cuenta con acceso a internet lo cual no es limitante para hacer compras en línea y un 77.7% de los encuestados dijo que ha comprado por Internet, vemos que el porcentaje de las compras en línea disminuye a comparación de los usuarios que tienen acceso a internet  lo cual nos comprueba que existen varios obstáculos para hacerlo, uno de ellos es la falta de publicidad  y divulgación por parte de las PyMEs, un 32% de los encuestados también dicen que no hacen compras en línea por ser inseguras, esto le da un plus a nuestra intención ya que la permuta es directa con el cliente  y le da un grado más alto de confianza, el 94.3% de los encuestados expresan que siempre que hacen las compras en línea buscan los mejores precios, también es ventajoso para que las PyMEs  puedan ofrecer  sus productos sin que se eleve el precio a terceros. Entonces nos percatamos que los métodos utilizados son de buen provecho para el seguimiento y realización de la aplicación requerida por las PyMEs. Como resultante de los métodos utilizados realizamos el siguiente diseño en donde se plantea la descripción del Proceso paso a paso: Como primer paso seleccionaremos el producto a vender. Se tomarán 3 fotos desde diferentes ángulos del producto o se puede agregar imágenes desde la galería. Escribir el nombre del producto a vender. Se registrará una descripción específica del producto incluyendo medidas y/o peso. Se debe ingresar precio y existencia del producto a vender. Se registran los datos de contacto incluyendo la forma de pago, ya sea efectivo o tarjeta. Se genera una imagen o PDF incluyendo todas las especificaciones del producto. Se descargará o compartirá la imagen o el PDF generado.


CONCLUSIONES

Sobre los objetivos del proyecto concluimos que las herramientas tecnológicas que utilizamos si traen beneficios en cuanto al refuerzo en las PyMEs ya que encuentran menores barreras de mercado, lo que brinda un panorama donde tenga una mayor posibilidad de obtener clientes potenciales y por consiguiente generar mayores reducciones de costos ya que esto posibilita que empresas no tengan la necesidad de obtener un establecimiento de venta de sus productos y/o servicios al cliente de manera presencial. Se planteó el prototipo de la aplicación generalizando la descripción de sus procesos, interfaces, clases y/o módulos, que se tendrá un desarrollo innovador y fácil para las PyMEs a futuro.
Flores Cabañas Juan Pablo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia (Colombia)

DESAFíOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.


DESAFíOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.

Flores Cabañas Juan Pablo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El análisis de aprendizaje (Learning Analytics) es un área de rápido crecimiento de la investigación en Aprendizaje mejorado por tecnología. Tiene fuertes raíces en una variedad de campos, en particular inteligencia empresarial (BI), analítica web, minería de datos, etc. Sus fuertes conexiones con estos campos ha significado que los investigadores ahora deben trabajar juntos para identificar los desafíos y así obtener nuevas herramientas tecnológicas que puedan ayudar al estudio de Learning Analytics (LA). El análisis estadístico de los datos proporcionados por los usuarios de los dispositivos tecnológicos, que en el terreno comercial viene utilizándose para identificar las tendencias de gasto de los consumidores y predecir sus comportamientos de compra, empieza a usarse ahora, de un modo similar, con los estudiantes.



METODOLOGÍA

La metodología que se utiliza en la investigación es cuantitativa, porque es un procedimiento que se basa en la utilización de los números para analizar, investigar y comprobar tanto información como datos. La investigación o metodología cuantitativa es uno de los métodos más conocidos y utilizados en las materias de ciencias, como las matemáticas, la informática y la estadística.  El método es una revisión sistemática y se define  como un estudio interactivo, observacional, retrospectivo, secundario, en el cual se combinan estudios que examinan la misma pregunta. A su vez, dentro de la revisión sistemática existen dos formas: cuantitativa y cualitativa. Las diferencias están dadas fundamentalmente por el uso de métodos estadísticos, que permite la combinación y análisis cuantitativo de los resultados obtenidos en cada estudio. Además de ser una manera de evaluar e interpretar toda investigación disponible relevante respecto de un interrogante. El método de investigación adoptado consta de ocho pasos que son: 1) la motivación de la investigación, 2) las preguntas de investigación, 3) el proceso de búsqueda, donde se incluye; Búsqueda por palabra clave y Definir bases de datos, 4) los criterios de inclusión y exclusión del estudio, 5) la selección de documentos, 6) los criterios de evaluación de la calidad, 7) la síntesis de datos para tener un repositorio con la colección de los datos y 8) la interpretación y presentación de los resultados.


CONCLUSIONES

Con los datos recopilados de la revisión sistematica se creo un data set, posteriormente al proceso de mineria de datos se obtuvierón cuatro clusters. Cada cluster contiene estudios con los cuales comparten caracteristicas similares. Gracias al analisis cluster por cluster se identificarón los problemas que responden a la pregunta de investigación. ¿Cuáles son los problemas que Learning Analytics debe resolver para mejorar los procesos de enseñanza en los estudiantes de las universidades? Cluster 0: Learning analytics debe ayudar a estudiar el perfil del estudiante, desde una plataforma en línea y complementándose con el análisis del aprendizaje de los estudiantes desde los salones de clase, para ayudar a las plataformas a conocer y guiar al aprendizaje de los estudiantes para generar un modelo de aprendizaje personalizado por alumno. Cluster 1:Learning Analytics no solo debería analizar a estudiantes de ciencias de la computación, sino expandirse a otras áreas de conocimiento. Ademas de hacer análisis con muestras de estudiantes más grandes para tener escenarios diferentes y asi generar una evolución significativa en las plataformas de los cursos online. Cluster 2: Un gran desafio para Learning Analytics es inclurir el estudio del perfil de los profesores, para tener diferentes perfiles de enseñanza que puedan ser probados en estudiantes y asi generar varios metodos de aprendizaje por estudiante. Cluster 3: Para el cluster 3 existe el mismo desafio que el cluster 1.   
Flores Carmona Diana Arlett, Instituto Tecnológico de Acapulco
Asesor: Mtro. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO.


MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO.

Flores Carmona Diana Arlett, Instituto Tecnológico de Acapulco. González Muñoz Edgar, Instituto Tecnológico de Acapulco. Asesor: Mtro. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico de Estudios Superiores de Valle de Bravo, cuenta con un sistema de información el cual, tanto alumnos como personal docente y administrativo puede tener acceso, mediante una intranet, para así, realizar diversos trámites, como puede ser, en caso de los alumnos, la consulta de sus calificaciones finales, el registro de una o más actividades complementarias para su ciclo escolar en curso, o en el caso de docentes y directivos, consultar sus plantillas de trabajo, planes de estudio, realizar horarios de actividades, etc. Actualmente se encuentra un problema que impide la correcta optimización del sistema, esto, en la asignación de roles de usuario, ya que al usuario se le asigna un rol de acuerdo al puesto de trabajo al que está adscrito, lo cual genera un menú estático para hacer uso de las funcionalidades permitidas al usuario, sin embargo, algunos usuarios en un momento dado, se ven en la necesidad de hacer uso de funcionalidades que no están comprendidas dentro de su rol, volviendo un tanto compleja la asignación de estas funcionalidades, y de la misma manera, ocasionando conflictos al integrarlas al menú que tienen acceso.



METODOLOGÍA

Debido a la problemática descrita anteriormente, se realizó un proceso de análisis del funcionamiento del sistema de información del Tecnológico de Estudios Superiores de Valle de Bravo, sobre todo en la estructura de la base de datos. Una vez finalizada la fase de análisis, se ha llegado a la conclusión de proponer la siguiente solución: Realizar ciertas modificaciones a la base de datos con la que se trabaja, agregando diversas tablas que permitan llevar una buena gestión de los roles de usuarios, como almacenar los módulos con los que cuenta el sistema, así como las acciones que se puede realizar dentro de los mismos, al igual que las operaciones que el usuario podría ejecutar en ellas, como son registros, modificaciones, eliminaciones o bien, solo lectura. Por otro lado, almacenar los diversos grupos de usuarios disponibles, a los cuales puede pertenecer un usuario, y así, conocer a que módulos tiene acceso un grupo de usuarios, además, se tienen contemplados los privilegios extra, que es donde se almacenarán los diversos privilegios a los cuales los usuarios podrán tener acceso, independientemente del grupo de usuario al que pertenezcan. Con esto se busca que, a partir de estos permisos registrados para cada usuario en la base de datos, se muestre un menú para hacer uso de las diversas funcionalidades que tendrá permitidas, descartando la creación de múltiples menús para los usuarios, debido a la poca factibilidad que estos representan en cuanto a la optimización del sistema, incorporando así, un menú dinámico, que este en función de los permisos que tenga cada usuario. Es importante mencionar que, se busca realizar las actividades ya mencionadas, con la base de datos proporcionada por los asesores de investigación, esto implica una reducción de tiempo en cuanto al desarrollo, puesto que, solo se tendrían que agregar las tablas pertinentes. Aunado a ello, esta solución se desarrollará, en el Framework de Laravel, un entorno que optimiza el trabajo en gran medida, gracias a los beneficios que este brinda como la organización que permite el MVC (Modelo Vista Controlador), estructurando el código de forma entendible, para su futura mantenibilidad.


CONCLUSIONES

Es posible observar la importancia que tienen los sistemas de información en la optimización de procesos, sin embargo, para que esto sea así, debe ser implementado de forma óptima, potenciando su funcionabilidad y periodo de vida. Además, es importante comprender que cada sección o etapa del proyecto es de vital importancia, ya que están relacionadas entre sí, por ende, en caso de que una de ellas este mal estructurada, podría ocasionar fallos en las demás etapas, o bien, aumentar la complejidad del desarrollo, reduciendo el tiempo de elaboración. Por otro lado, el uso de un Framework como Laravel, permite aumentar el conocimiento entorno a la programación, permitiendo agilizar el desarrollo del sistema, aspecto fundamental en la elaboración de proyectos o bien, trabajos profesionales. Durante el tiempo de la estancia, ha sido posible adquirir más conocimiento, permitiendo analizar el problema de diversas perspectivas, para buscar una solución que se adapte correctamente al sistema, generando así, una experiencia cercana al ámbito laboral, permitiendo obtener una idea más clara del ambiente profesional.
Flores Castro Brenda, Instituto Politécnico Nacional
Asesor: M.C. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo

DISEñO DE CIMENTACIONES PARA PLATAFORMAS MARINAS ALIGERADAS


DISEñO DE CIMENTACIONES PARA PLATAFORMAS MARINAS ALIGERADAS

Flores Castro Brenda, Instituto Politécnico Nacional. Asesor: M.C. Prócoro Barrera Nabor, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Existen diferentes tipos de plataformas marinas; fijas tipo jacket o fijas tipo torre, autoelevables (PAE’s) y flotantes. Estas plataformas son estructuras cuya función es dar soporte al equipo de perforación y producción necesario para la explotación de yacimientos de hidrocarburos localizados bajo el fondo marino. El tipo de plataforma que será utilizada dependerá del tirante de agua y de la función que ésta debe realizar. En lo que se refiere al tirante de agua, la profundidad se puede clasificar, como: aguas someras, auas profundas y aguas ultra profundas. Para aguas someras el Instituto Mexicano del Petróleo diseña plataformas marinas fijas, tipo jacket y tipo Torre para diferentes servicios, perforación, producción, compresión, habitacionales y de telecomunicaciones. La normatividad aplicable para el Diseño de Cimentaciones para Plataformas Marinas fijas es el API RP 2GEO 2011 (American Petroleum Institute, Recommended Practice), donde se hacen las recomendaciones para el diseño y análisis de placas de apoyo temporal, modelación de la interacción suelo-pilote y el análisis y diseño de pilotes.



METODOLOGÍA

El trabajo realizado durante la estancia del Verano de Investigación Científica Tecnológica del Pacifico, fue el dimensionamiento de las placas base para las plataformas Yaxche-C y Onel-B, siendo estas estructuras aligeradas fijas. Basándome en el apoyo de programas creados en hojas de cálculo de Excel para el cálculo de los centros de gravedad de áreas compuestas, momentos de volteo generados por las fuerzas de oleaje, momentos de inercia de secciones compuestas utilizando el teorema de los ejes paralelos para el cálculo de esfuerzos generados por las fuerzas verticales y por los momentos de volteo, utilizando la fórmula de escuadría, para determinar los factores de seguridad para diferentes condiciones, por esfuerzos, por volteo y por deslizamiento. Los factores de seguridad para placas de apoyo fueron determinados, como la relación de la capacidad de carga del fondo marino, respecto a los esfuerzos generados por la carga vertical y las fuerzas horizontales inducidas por el oleaje y la corriente. La capacidad de carga por unidad de área de la cimentación de los suelos en los que se van a desplantar fue determinada con diferentes teorías para evaluar la capacidad de carga ultima de cimentaciones superficiales, tal como, Terzaghi, Skempton y las recomendaciones del API-RP-2GEO, aplicando los datos de los estudios geotécnicos realizados en los sitios de propuestos para la instalación de las estructuras. Con base en los resultados obtenidos, se diseñaron las placas temporales de estas plataformas, proponiendo un dimensionamiento y distribución de las placas de apoyo temporal para obtener valores óptimos en los factores de seguridad. Con respecto al diseño de pilotes de cimentación, se realizó el análisis de la distribución de espesores de pilotes faldón, a partir los elementos mecánicos obtenidos de un análisis estructural de las plataformas, proponiendo en caso necesario, el tipo de acero a lo largo de longitud del pilote y el espesor de la pared del pilote de acuerdo a la distribución de los momentos de flexión. Esto fue realizado con base en un programa creado en una hoja de cálculo de Excel, facilitando el análisis del mismo. Obteniendo también el peso neto de los pilotes propuestos para la deducción de los volúmenes del acero a utilizar. También se revisó la teoría para la modelación de la interacción suelo-pilote para la generación de los datos para el análisis del comportamiento suelo-pilote en el programa SACS, el cual determina la curva de capacidad axial última del suelo para el diámetro del pilote definido, mediante la cual, calcula el factor de seguridad a la penetración del pilote y determina los esfuerzos actuantes y permisibles para el cálculo de la relación de interacción a lo largo del pilote. Si los resultados obtenidos cumplen con la normatividad, se acepta el diseño del pilote, en caso contrario se propone otro diámetro o se incrementa la longitud a la penetración del pilote o bien se modifican los espesores o el tipo de acero.


CONCLUSIONES

 El trabajo descrito fue realizado en el Instituto Mexicano del Petróleo en la área de geotecnia marina sobre el diseño de cimentaciones para plataformas marinas fijas aligeradas, el cual fue de gran utilidad para mi desarrollo escolar y profesional, ya que con esto logre tener criterios mas claros sobre el diseño de cimentaciones superficiales y profundas y de la normatividad utilizada para el diseño de cimentaciones para plataformas marinas, tomando en cuenta los tipos de suelo en los cuales se van a desplantar. Así como los diferentes tipos de cimentaciones para el anclaje de las plataformas marinas, pilotes principales o tipo faldón, longitud de penetración, diámetro y espesores a lo largo del pilote y criterios aplicables en el proceso constructivo.
Flores Castro Elvia Judith, Universidad Autónoma de Occidente
Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato

CONVERSIóN TERMOQUíMICA DE RESIDUOS PLáSTICOS DE POLIPROPILENO EN HIDROCARBUROS


CONVERSIóN TERMOQUíMICA DE RESIDUOS PLáSTICOS DE POLIPROPILENO EN HIDROCARBUROS

Flores Castro Elvia Judith, Universidad Autónoma de Occidente. Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los plásticos son usados para todo tipo de aplicaciones industriales y su demanda es cada vez mayor, adicionalmente, son clave en la innovación de muchos productos en diversos sectores, como construcción, salud, electrónica, automotriz, embalaje y otros. Los plásticos tienen excelentes propiedades y son de bajo costo, esto provoca que haya una alta producción de ellos dando como consecuencia la gran generación de residuos. Una alternativa de mitigación a este problema es el reciclaje, refiriéndose a la acción de volver a introducir en el ciclo de producción y consumo productos materiales obtenidos de residuos plásticos. Uno de los métodos de reciclaje de plásticos es el reciclaje termoquímico, por medio de este proceso se modifican las estructuras químicas de los polímeros garantizando la reducción del volumen de residuos y la generación de productos como combustibles alternativos para motores de combustión interna. En el presente proyecto se desarrolló el proceso de pirolisis térmica, a residuos plásticos de Polipropileno (PP) y una mezcla compuesta de 50% de polipropileno, 25% de polietileno de baja densidad (LDPE) y 25% de polietileno de alta densidad (HDPE). Con el objetivo de analizar el rendimiento de los productos durante el proceso pirolítico y determinar las propiedades fisicoquímicas de los combustibles líquidos obtenidos a partir de la degradación termina de los residuos plásticos.



METODOLOGÍA

Se realizó la pirólisis de polímeros de posconsumo con ayuda de un Reactor Batch.  Primero se vertió al tanque del reactor procediendo a verificar que todo estuviese listo para iniciar el proceso. Se encendió el reactor y se fijaron las temperaturas correspondientes, para la obtención de los diversos hidrocarburos. Una vez que los polímeros comenzaron en degradarse del reactor empiezan a salir los gases hacia la campana de condensación, la cual contiene agua y condensara los gases. Los productos que se van condensando se recuperan en recipientes por niveles de temperatura. En todas las pruebas realizadas se utilizó un kilogramo de material. En la primera etapa se se pirolizó   polipropileno y después se realizó el proceso a una mezcla compuesta del 50% (PP), 25% (LDPE) y 25% (HDPE) Terminando esto, se midió el peso de los productos obtenidos para calcular el rendimiento y se realizaron las caracterizaciones fisicoquímicas. La viscosidad se calculó con base a la norma ASTM D445, D2170, ISO 3140 e ISO 3105. Aquí primero se calentó agua en un vaso precipitado sobre una parrilla de calentamiento para llevar la temperatura a 40°C, se colocó el viscosímetro en posición vertical dentro del paso precipitado y con una pipeta graduada de 25 ml se introdujo en su rama ancha el liquido obtenido, se esperó a que el líquido alcanzara la temperatura del agua. Para medir los tiempos de escurrimiento se succiono el líquido del tubo capilar con ayuda de una perilla hasta que el líquido alcanzara el límite de los dos bulbos, se liberó el líquido y se registró el tiempo que el menisco del líquido tarda en pasar desde la marca graduada superior hasta la inferior, con la ayuda de un cronómetro La viscosidad cinemática se determinó por la siguiente ecuación: V= kt Dónde: k= constante del viscosímetro. t= tiempo de retención entre los bulbos. La densidad relativa de cada uno de los productos líquidos se halló con base en la norma ISO3838, con la ayuda de un picnómetro.  Primero se determinó la masa del picnómetro vacío en una balanza analítica, posteriormente se pesó el picnómetro con agua destilada, luego se procedió a medir la masa de la muestra liquida de hidrocarburo y se calculó la densidad relativa, dividiendo la densidad del hidrocarburo en la densidad del agua.


CONCLUSIONES

El proceso de pirólisis de productos de posconsumo contribuye al medio ambiente con la disminución de los residuos plásticos, ya que todos los productos resultantes pueden ser utilizados en otras aplicaciones, contribuyendo así a mitigar uno de los principales impactos ambientales de tipo social que es la acumulación de residuos plásticos. Durante el proceso de pirólisis se observó que los residuos plásticos del PP y la mezcla se empezaron a descomponer desde los 390°C y 410 °C, respectivamente, y terminaron su degradación en los 480°C de. A la temperatura de 440°C se presentó un gran volumen de líquido, además se pudo percibir que los productos líquidos a mayor temperatura aclaran su color. A esta temperatura, el polipropileno fue aprovechado en un 80.08%, del cual, se obtuvo un porcentaje en cera de 33.9%. En cuanto a la mezcla,  se encontró un rendimiento del 84.3%, dando un mayor rendimiento de líquido con un 40.5%. Respecto a su caracterización, los productos líquidos obtenidos a partir del polipropileno, presentaron densidades relativas similares, el valor mínimo fue de 0.7815 y el mayor de 0.790,  lo cual tiene similitud con la densidad de la gasolina que puede estar en un rango de 0.650 - 0.770. Para la viscosidad, se obtuvieron valores hasta 2.8076 cSt, siendo similares al diésel que tiene una viscosidad cinemática de 1.9 - 4.1 cSt. Con relación a la mezcla compuesta por 50% de PP, 25% de LDPE y 25% HDPE, esta presentó en la densidad valores de 0.770 y 0.780, su valor mínimo de viscosidad fue de 2.0418 cSt  y el mayor 2.4853 cSt lo cual indica la variación de los productos líquidos según a las temperaturas que se degrado el polímero. En su caracterización los datos igual cumplen en el rango establecido de densidad y viscosidad del diésel. Estas comparaciones se hicieron con la finalidad de definir qué tipo de hidrocarburos se producían a partir del polímero utilizado, pero con esto se tiene que el líquido obtenido de productos puros, por sus propiedades fisicoquímicas, se puede mezclar con hidrocarburos a ciertos porcentajes, para poderlos utilizar en motores de combustión interna.
Flores Garduño Mauricio, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit

FABRICACIóN DE NUEVOS PRODUCTOS A PARTIR DE RESIDUOS SOLIDOS.


FABRICACIóN DE NUEVOS PRODUCTOS A PARTIR DE RESIDUOS SOLIDOS.

Flores Garduño Mauricio, Tecnológico de Estudios Superiores de Valle de Bravo. Toribio González Alejandra, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los residuos sólidos son todos los desechos (RSU) que proceden de actividades humanas y de animales que son normalmente sólidos, y que se desechan como inútiles o indeseados. Actualmente Tepic, Nayarit desecha 800 toneladas diarias de RSU, de los cuales, 37 % son orgánicos, 18 % papel y cartón; 14% plásticos diversos; 9% desechos sanitarios y 7% otros materiales. Debido a que el tema de RSU  presenta un déficit en educación ambiental   dentro de la región de Tepic Nayarit, se tiene que buscar disminuir en una cantidad estos mismos; así como disponer de una normatividad a fin de evitar los riesgos que causen  a la salud humana y al ambiente. Un punto desfavorable para trabajar, fue que la región es extensa, por lo cual se tuvo que elegir lugares estratégicos, que en este caso fueron la Universidad Autónoma de Nayarit (UAN), misma en la que se llevó a cabo el proyecto, así como la Colonia Indeco, ubicada dentro de la región; por lo cual se estableció un programa piloto en la UAN el cual pretende capacitar al personal administrativo para realizar un reciclaje correcto de los RSU orgánicos  e inorgánicos para hacer uso de estos en la  fabricar nuevos productos.



METODOLOGÍA

Se realizó una capacitación a los administrativos de la UAN la cual tuvo como propósito sensibilizar y concientizar al personal de los problemas ambientales ; así también enseñar la separación correcta de los RSU inorgánicos, principalmente el plástico que  debe ser de acuerdo a su número de clasificación que va desde el 1 hasta el 7.La capacitación es impartida todos los martes y jueves de cada semana con material didáctico. Posteriormente de instruir la separación correcta de RSU el personal nos entregó sus residuos separados correctamente.  Para la elaboración de la Composta se trabajó dentro de la UAN  en colaboración con la población de la colonia Indeco. Principalmente se buscó un área de compostaje la cual se ubicó dentro del laboratorio de RSU, partiendo con la elaboración de tres camas de compostaje, realizando una excavación de 3m de largo x 1m de ancho x 50cm de profundidad y una separación de 80cm entre estas mismas. Posteriormente se adaptaron dichas  camas  utilizando Bambu para   que actuará como protección. Aquí colocamos todos los desechos de origen orgánico, los residuos  se recogían  en  la colonia dos veces por semana, siendo los días martes y viernes respectivamente;  posterior a esto se procedió a vertir la materia dentro de las camas de compostaje  realizando una mezcla con diferentes tipos de sueloPara la elaboración de la Composta se trabajó dentro de la UAN  en colaboración con la población de la colonia Indeco. Principalmente se buscó un área de compostaje la cual se ubicó dentro del laboratorio de RSU, partiendo con la elaboración de tres camas de compostaje, realizando una excavación de 3m de largo x 1m de ancho x 50cm de profundidad y una separación de 80 cm entre estas mismas. Posteriormente se adaptaron dichas camas utilizando Bambu para que actuará como protección. Aquí colocamos todos los desechos de origen orgánico, los residuos  se recogían  en  la colonia dos veces por semana, siendo los días martes y viernes respectivamente;  posterior a esto se procedió a vertir la materia dentro de las camas de compostaje  realizando una mezcla con diferentes tipos de suelo . Por otra parte, para la elaboración de productos se trabajó con el plástico que entrego el personal,  fue  colocado en la trituradora para la obtención de un menor tamaño. Se hizo uso de los inertes y ABEC para fabricar tres block con las siguientes cantidades todos con un volumen de 0.0475 metros cúbicos. Replica 1: 5 kg de arena, 2.5 kg de cemento  y 1.6 L de agua sin ningún tipo de plástico. Replica 2: 3.5 kg de arena ,1.5 kg de cemento, 1.4 L de agua y 0.4 kg de inertes. Replica 3: 3.5 kg de arena ,1.5 kg de cemento, 1.2  L de agua y 1.2 kg de ABEC. Finalmente el HDPE y PET  se introdujo en la inyectora para fabricar una espátula  a base de plástico.


CONCLUSIONES

Todos los productos fabricados se someterán a pruebas para determinar si son factibles  y  analizar que no generen emisiones de gases que puedan dañar al medio ambiente  además que cumplan con los estándares de calidad.
Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO, MODELADO Y CONSTRUCCIóN DE UN ROBOT CARTESIANO DE 2 GDL.


DISEñO, MODELADO Y CONSTRUCCIóN DE UN ROBOT CARTESIANO DE 2 GDL.

Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla. Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El proceso de diseño juega un papel muy importante en la construcción de un prototipo, ya que este nos brinda una visión más clara del producto final además de que el modelo puede servir como guía al momento de la construcción pues cuenta como una documentación del proyecto. Una opción de modelado es el CAD (Diseño Asistido por Computadora, por sus siglas en inglés) pues a través de software CAD se nos permite realizar un conjunto de imágenes que al final serán el dibujo y/o los planos del proyecto, este nos permite realizar mejoras o corregir errores sin la necesidad de construir el prototipo físicamente. Esta técnica de diseño se utilizará para la construcción de un robot cartesiano (PPP) de 2 GDL, este es un tipo de robot industrial que cuenta con dos, tres o más ejes, según se requiera, estos tienen un desplazamiento lineal, y dependiendo de sus características sirven para crear dibujos, como sistemas de agarre y colocación (pick and place) o para cortar material como las fresadoras, entre otras aplicaciones.



METODOLOGÍA

Con el objetivo de realizar el análisis y síntesis del robot cartesiano de dos ejes (x,y) se consultaron diversas fuentes acerca de estos robots. Este análisis nos permitió la realización del bosquejo del robot, el cual tiene como característica que sus ejes forman un sistema de coordenadas ortogonales. Posteriormente se comenzó con el modelado de este para lo cual se empleó el software de CAD Lego Digital Designer, pues al utilizar materiales de esta marca, este programa nos brinda una exactitud mayor de la que se conseguiría con otros programas, facilitando la manufactura de las piezas a utilizar. Una vez que se analizó el modelo y se realizaron las correcciones necesarias para brindar una mayor estabilidad al prototipo, se procedió con la adquisición de materiales para el armado de la estructura del robot. Al finalizar, con el fin de comprobar que el diseño y su construcción son correctas, se realizaron pruebas de repetibilidad, para comprobar todas las posiciones de ambos ejes por separado y del mecanismo completo, esto con el fin de poder efectuar las correcciones pertinentes. Ya que el mecanismo fue revisado y corregido, se procedió con las pruebas mediante el software de Lego EV3 SOFTWARE en el que se emplea programación por bloques, nuevamente se realizaron pruebas de repetibilidad, al finalizar estas se realizaron las últimas correcciones, mismas que se pusieron a prueba para corroborar los resultados esperados con los obtenidos.


CONCLUSIONES

Durante esta estancia se logró adquirir y mejorar los conocimientos y habilidades relacionadas con el análisis y síntesis de mecanismos y el CAD. Al poner en práctica dichos conocimientos se logró el objetivo principal de la investigación: Diseñar y construir un robot cartesiano de 2 GDL, el cual tiene un correcto funcionamiento por lo que también se puede decir que el modelo que se obtuvo para este tipo de robot es confiable puesto que se logró obtener un modelo óptimo y repetible. Se pretende continuar con una etapa más del proyecto en la cual el robot pueda ser controlado vía Bluetooth y/o Wi-Fi a través de una interfaz en un dispositivo electrónico, para esto se requiere de la elaboración de un código en Matlab, el cual se podrá enlazar con los Software de Arduino y LabView, así como adquirir conocimientos de comunicación para poder realizar la interfaz y la comunicación entre esta y el mecanismo.
Flores Islas Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

PROCESAMIENTO DE SEñALES DE EEG MEDIANTE LA APLICACIóN DE MéTODOS DE EXTRACCIóN DE CARACTERíSTICAS PARA SU CLASIFICACIóN Y POSIBLE CONTROL ROBóTICO


PROCESAMIENTO DE SEñALES DE EEG MEDIANTE LA APLICACIóN DE MéTODOS DE EXTRACCIóN DE CARACTERíSTICAS PARA SU CLASIFICACIóN Y POSIBLE CONTROL ROBóTICO

Flores Islas Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las señales de EEG o electroencefalograficas son el resultado de una técnica de monitoreo electrofisiológica que permite registrar la actividad eléctrica del cerebro a su vez producida por la actividad neuronal como respuesta a un estímulo. El análisis de estas señales nos permite realizar la predicción de movimientos o patologías por lo cual existe gran aplicación en el desarrollo de sistemas computacionales capaces de realizar el reconocimiento de patrones muy a detalle que nos ayuden a entender el significado de las señales analizadas en un periodo de tiempo corto.



METODOLOGÍA

1. Obtención de las señales de EEG 2. Generación de imágenes de las mismas dimensiones según las etiquetas 1 y -1 que indican un movimiento especifico del sujeto de prueba (movimiento de mano o pie). 3. Aplicación de momentos de Hu, wavelet y extracción de otras características cómo promedio, media, desviación estándar, entropía, contraste, correlación y periodicidad. 4. Construcción de clasificador mediante el toolbox de Matlab aplicando redes neuronales o support vector machine, para el reconocimiento de la señal, además de conocer el movimiento que se realizó.  5. Construcción del sistema de control para el elemento robótico que genere el movimiento que el sujeto de prueba hizó. 


CONCLUSIONES

El procesamiento de imágenes en un proceso que ayuda generalmente para extraer características o patrones que nos ayuden a identificar ciertos parámetros los cuales podemos clasificar facilitando así el reconocimiento de los mismos cuando se ingresan al sistema pudiendo además generar una acción específica.
Flores Martínez Teresita de Jesús, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEñO ANALóGICO DE UN OSCILADOR CAóTICO CON SPICE


DISEñO ANALóGICO DE UN OSCILADOR CAóTICO CON SPICE

Flores Martínez Teresita de Jesús, Instituto Tecnológico Superior de Huauchinango. Rivera Huerta Dulce Idalia, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el área de las comunicaciones tiene un gran impacto en la vida social y económica del mundo, por lo que  se ha convertido en reto el envió seguro de información a través de la red. La mayoría de los usuarios comparten información ya sea relevante o irrelevante todo los días, y el acceso a ella no es limitado, es ahí donde el envió de información se ha vuelto un riesgo para aquellos que buscan seguridad en el traslado de información, con menos probabilidad de ser robada o alterada. El Reporte Global de Riesgos 2019, publicado por el Foro Económico Mundial, indica que el fraude o robo de datos se constituye como el riesgo global con mayor probabilidad de ocurrencia en este año, después de los relacionados con el medio ambiente y los desastres naturales. El robo de datos es particularmente relevante en un contexto en el que nuestra interacción con el entorno se realiza cada vez más a través de herramientas tecnológicas: teléfonos que registran la geolocalización permanente del usuario; instituciones financieras que conocen nuestros patrones de consumo; redes sociales que permiten identificar nuestros círculos de amistades, las noticias que leemos, nuestros gustos y preferencias; relojes que conocen nuestros hábitos de deporte, de sueño y hasta nuestro ritmo cardiaco;  así como cada vez más nuevos productos y servicios que son y serán capaces de obtener información acerca de los aspectos más íntimos de la vida.



METODOLOGÍA

En primera instancia se trató con información básica de la rama de electrónica, esto para generar conocimiento funcional para las actividades posteriores, dentro de ello se optó por algunos libros, proporcionando diversas herramientas de trabajo. Dentro de este bloque se conoció más a fondo el concepto de Electrónica, principalmente enfocada al diseño de circuitos integrados, así como la tecnología necesaria para el desarrollo de los mismos. Los circuitos integrados son dispositivos que se encuentran presentes en diversos aparatos de la vida cotidiana, un circuito integrado, es conocido también como chip; es una oblea semiconductora en la que son fabricados muchísimas resistencias pequeñas, también condensadores y transistores. Un circuito integrado se puede utilizar como un amplificador, oscilador, temporizador, contador, memoria de ordenador, o microprocesador, además estos se pueden clasificar como lineal o como digital, todo depende para que sea su aplicación. Dentro del circuito integrado se encuentra un elemento muy importante llamado transistor, en este caso el transistor MOSFET (transistor de efecto de campo metal óxido semiconductor), existen dos tipos de transistores, de tipo NPN y PNP. Los MOSFET hacen posible la implementación de circuitos integrados sin la necesidad de otros componentes, como resistencias o condensadores, además de que es un elemento fundamental en la fabricación de los circuitos, llegando a colocar más de 200 millones en un chip.   Dentro de la práctica se utilizaron diversas herramientas de software como el programa TopSPICE y Hspui, que son software de simulación para observar el comportamiento de los componentes.  Después de una pequeña introducción a la lógica de funcionamiento del software TopSPICE, se empezó a trabajar con la formación de bloques integradores, sumadores y multiplicadores para la estructuración de un oscilador caótico en un circuito integrado. En relación al oscilador caótico, se comenzó con la construcción del modelo matemático del mismo, para tener las bases suficientes para su desarrollo y simulación. El lenguaje matemático es lo que describe y constituye un modelo matemático; se quiere lograr la implementación de un sistema caótico, para lo cual lo principal es tener un sistema de ecuaciones que nos generen resultados. Se utilizaron funciones saturadas definidas a tramos (SNLF), para la formulación de las ecuaciones correspondientes, empezando con: x=y y=z z=-ax-by-cz+d, fx a=b=c=d1=0.7 El diseño del sistema caótico se revisó en versión analógica, ya que se trabajó con la descripción de códigos para el diseño y simulación de los distintos bloques que lo conforman, en este caso: bloques integradores, multiplicadores y sumadores. Para el diseño de los bloques se comenzó con la descripción del código de un MOSFET, en primera estancia se trabajó tanto con transistores PNP y NPN.  La primera descripción que se realizó fue de tipo NMOS, basándose en su diagrama correspondiente se dio origen al desarrollo del código en Hspui, e igualmente se hizo con el tipo PMOS. Después del análisis de los transistores se pasó al diseño de un OTA que es un amplificador en el cual la tensión diferencial de entrada produce una corriente de salida. El diseño del código del OTA nos brindó la base para la creación de los bloques que conforman el oscilador caótico, para el desarrollo de este código se comenzó con el análisis del circuito interno del mismo, conformado por diversos transistores. El código que se realizó se debe configurar de acuerdo al tipo de bloque que se quiera realizar, en nuestro caso especialmente se trabajó con el bloque integrador, se agregó al circuito distintas variables que definen al mismo. Para lograr la integración del bloque se tiene que pasar la señal cuadrática a una señal de diente de sierra, en donde el valor del capacitor tiene un papel fundamental.  


CONCLUSIONES

Durante el periodo del verano de investigación se obtuvo información sobre el funcionamiento de software para el diseño y simulación de circuitos integrados, se trabajó con la creación de códigos para transistores y OTA, específicamente para el diseño de los bloques correspondientes a un oscilador caótico, durante el proceso de trabajo se enfocó directamente a la construcción del bloque integrador, en última instancia sólo se logró que el capacitor realice la descarga pero no la carga.
Flores Ponce Angel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS DE LAS SEQUÍAS EN “EL BOSQUE LA PRIMAVERA” PERIODO HISTÓRICO Y FUTURO (CON CAMBIO CLIMÁTICO)


ANÁLISIS DE LAS SEQUÍAS EN “EL BOSQUE LA PRIMAVERA” PERIODO HISTÓRICO Y FUTURO (CON CAMBIO CLIMÁTICO)

Flores Ponce Angel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El cambio climático es una problemática ambiental que posee características únicas, las cuales tienen impactos mayores a largo plazo que involucran fenómenos ecológicos y climáticos, con lo cual se generan afectaciones de gran importancia en diferentes sectores en el país. Uno de los sectores que se ve afectado drásticamente, es el hídrico, ya que se presentan anomalías en las series futuras de precipitación y temperatura. Uno de los fenómenos climáticos que más afecta a las actividades económicas del país es la sequía.



METODOLOGÍA

La sequía es un peligro natural insidioso resultante de unos niveles de precipitaciones por debajo de lo que se considera normal. Cuando este fenómeno se prolonga durante una estación o por un período de tiempo mayor, la precipitación es insuficiente para responder a las demandas de la sociedad y del medio ambiente. La sequía debe considerarse como un estado relativo y no absoluto. Asimismo existen muchos métodos diferentes para vigilar la sequía. Por la extensión a la que afectan, las sequías son regionales, y cada región posee unas características climáticas específicas. Con el curso de los años los meteorólogos y climatólogos de todo el mundo han creado y utilizado muchos índices de sequía, que varían de unos índices sencillos, como el porcentaje de precipitación normal y los percentiles de precipitación, a otros más complicados, como el Índice de severidad de sequía de Palmer. No obstante, los científicos de Estados Unidos comprendieron que los índices debían ser sencillos y fáciles de calcular y tener pertinencia y significado desde el punto de vista estadístico. Además, el entendimiento de que los déficits de precipitación tenían diferentes impactos en las aguas subterráneas, el almacenamiento de agua en reservorios, la humedad del suelo, los bancos de nieve y los caudales fluviales llevó a los científicos estadounidenses McKee, Doesken y Kleist a elaborar en 1993 el Índice normalizado de precipitación (SPI).


CONCLUSIONES

Con la aplicación del spi se obtienen las sequias a periodos históricos así como futuros y así se elaboraron los mapas de sequias de la zona de estudios para los diferentes periodos de estudio. Permitiendo apreciar la sequía que se ha tenido en el bosque, la cual tiende a la normal, así como la que se espera que ocurra en los próximos años con condiciones anormalmente secas 
Flores Romero Jose Carlos, Instituto Tecnológico de Culiacán
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

DISEñO DE UN BUGGY


DISEñO DE UN BUGGY

Armenta Flores Miguel Antonio, Instituto Tecnológico de Culiacán. Flores Romero Jose Carlos, Instituto Tecnológico de Culiacán. Parra Reyes Angel Sahir, Instituto Tecnológico de Culiacán. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La idea de realizar un Buggy como parte de la linea de investigacion de sistemas automotrices fue para poder aprender a familiarizarnos con los diferentes aspectos que tiene un sistema automotriz haciendo analogia a un carro que es el perfecto ejemplo de tal sistema. Con este proyecto aplicariamos todos los conocimientos aprendidos de nuestra carrera, y en base a la experimentacion sabriamos en que ciertos campos de la ingenieria teniamos nuestras debilidades para poder trabajar en ellas y mejorarlas con ayuda del investigador.



METODOLOGÍA

La metodologia que utilizariamos era hacer el proyecto lo mas sencillo posible siguiendo las indicaciones de nuestro investigador, ya que hacer un proyecto mas complejo implicaria hacer un presupuesto con el cual no contabamos y conocimientos mas avanzados sobre el tema.  El proyecto seria con todas las partes que utiliza una cuatrimoto en sí, con la unica diferencia que seria el armazon o carroceria del Buggy, el motor con el cual contariamos seria un motor de moto de 250cc italika.


CONCLUSIONES

El proyecto se trabajó con todas las herramientas que se nos proporcionó en la escuela, lamentablemente no pudimos concluir el proyecto debido a que no se pudieron conseguir ciertas partes para el Buggy, pero en general aprendimos a como montar un direccion mecanica, como era el sistema de carburacion de un motor de moto, a como saber leer un diagrama electrico de una moto y a practicar con las herramientas de trabajo con las que contabamos. 
Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara

LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA


LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA

Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo. Avila Valencia Ana Claudette, Universidad de Sonora. Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora. Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El interés por impulsar el desarrollo de las Micro, Pequeñas y Medianas Empresas (MIPYMES), ha sido cada vez mayor en los últimos años, no sólo en México, sino también en casi todos los países desarrollados o en proceso de desarrollo. En los últimos años se ha incrementado la localización industrial en la área metropolitana, principalmente en algunas ramas de punta como la electrónica, automotriz, zapatera y la cibernética, lo que ha impreso un nuevo sello a la estructura productiva y a la fisonomía de los suburbios tapatíos. Jalisco es la cuarta economía más importante de México en base a su contribución del 11.9% al Producto Interno Bruto Nacional (PIB); por sectores de actividad económica, los porcentajes de aportación al PIB estatal en el año 2015 fueron los siguientes: agricultura, ganadería, aprovechamiento forestal, pesca y caza, 6%; las industrias manufactureras aportaron el 23%; el comercio, restaurantes y hoteles, 25%; los servicios financieros e inmobiliarios, 12%, y los servicios educativos y médicos, 8%. (INEGI, 2015). Para impulsar un negocio no sólo se requiere interés, inversión y tiempo, ya que esto no garantiza su permanencia. De acuerdo con una investigación efectuada en el Centro Universitario de la Costa (CUCosta), 75 por ciento de microempresas del sector comercio en Puerto Vallarta no sobreviven los primeros cinco años a partir de su creación. Para México, las PYMES son un eslabón fundamental, indispensable para el crecimiento del país. Contamos con una importante base de Micro, Pequeñas y Medianas empresas, claramente más sólida que muchos otros países del mundo, debemos aprovecharla para hacer de eso una fortaleza que haga competitivo al país, que se convierta en una ventaja real para atraer nuevas inversiones y fortalecer la presencia de productos mexicanos tanto dentro como fuera de nuestra nación.



METODOLOGÍA

La investigación a realizar es una investigación mixta, cualitativa y de campo,  en un primer momento de alcance descriptivo, para soportar la observación, revisión de documentos y aplicación de cuestionarios. La unidad de análisis del proyecto de investigación descrito se enfocará a las microempresas de comercio del municipio de la ciudad de Puerto Vallarta. La recolección de la información se realizará por medio de una muestra probabilística estratificada de forma proporcional, esto es, conforme al giro comercial de la microempresa, proporcional a la cantidad de estas en el registro de licencias y en un periodo determinado, para de forma analítico-sintético se analizarán los indicadores de las empresas del municipio de Puerto Vallarta y dar respuesta a las interrogantes y objetivos de la investigación. Como primera actividad de investigación se realiza la recolección documental o información de soporte de la investigación la cual en parte se desarrolla con el acceso a biblioteca digital de la Universidad de Guadalajara, proporcionada por nuestro investigador, maestro José Luis López, además del acceso a la biblioteca del Centro Universitario de la Costa. Con acceso a un basta base de información gracias a estos recursos, además del sitios en Internet, en donde pudimos expandir la investigación gracias a sitios del INEGI como el DENUE, Secretaría de Economía, etc.


CONCLUSIONES

Las tecnologías de la información y comunicación han sido fundamentales para el desarrollo de las actuales empresas de comercio, no sólo en Puerto Vallarta, sino en el mundo. En la actividad de investigación colaboramos principalmente en el trabajo de recolección y revisión de información, como parte de los aspectos fundamentales de esta y hasta los principios de la realización y desarrollo del instrumento de investigación. Con el trabajo realizado podemos concluir que: Un 75% de las microempresas no duran más de 5 años por falta de conocimientos de las TICs. De acuerdo con un estudio realizado por el INEGI en el año 2014, logramos identificar que hay un total de 4 millones 926 mil 061 pymes en México. (INEGI, 2014). Según la revista expansión, las Pymes generan 81% del empleo en México. Existen 4.2 millones de unidades económicas en México. De ese universo, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), esta publicación fue hecha por la revista Forbes. (INEGI, 2014)   Hemos culminado este proyecto con gran satisfacción. Obtuvimos muy buena atención por el maestro, fue directo, nos explicaba cualquier duda.
Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG


DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG

Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Guzman Miranda Isabel, Universidad Autónoma de Baja California. Thuiran Vergara Elvis Jose, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La movilidad es la actividad que la mayoría de las personas realizamos para trasladarnos de un lugar a otro, ya sea de la casa al trabajo o a la escuela y viceversa. Además, la movilidad es uno de los aspectos fundamentales para el desarrollo de las ciudades. La Zona Metropolitana de Guadalajara (ZMG) atraviesa un grave problema de movilidad que es traducido como un congestionamiento vial crónico, según refiere el Reporte Nacional de Movilidad Urbana en México 2014- 2015. Estadísticas indican que las personas invierten 33 horas aproximadamente durante el año demorados por el tráfico. Según el INEGI hasta 2017 existían 4,173 unidades registradas. Los ciudadanos que usan el transporte público se encuentran en constante preocupación debido a la pérdida de tiempo que lleva esperar entre ruta y ruta. En muchos de los casos durante el tiempo de espera, se presentan asaltos. El mayor problema que se presenta en la actividad de movilidad es que la mayoría de las personas esperan alrededor de 15 a 20 minutos en esperar su ruta, lo cual les genera un retraso en sus actividades diarias, generando estrés, preocupación a las personas.



METODOLOGÍA

Se utilizó Android Studio para desarrollar una aplicación móvil llamada IoBus para poder resolver la anterior problemática. IoBus, es una APP (actualmente para Android) que, entrega en tiempo real la ubicación de la ruta deseada. Las actividades seguidas para el desarrollo de la app IoBUS, fueron las siguientes: Como primera actividad, se realizó la lectura y desarrollo de actividades para la comprensión y el manejo del entorno de Android Studio. En esta actividad se desarrolló la primera app, la cual fue un juego didáctico. Al finalizar esta actividad se tenía el conocimiento de las herramientas básicas de desarrollo de Android Studio. Siguiendo con la asignación de los módulos que componen IoBUS, se desarrolló la interfaz para el registro e inicio de sesión de usuarios, y se realizó la lectura de JSON y headers en http. Continuando con el desarrollo del módulo Dashbard para el chofer y creación de dispositivos IoT, y con la consulta sobre bases de datos SQLiTe. Posteriormente se implementó las funciones de registro de usuarios, de eliminar y de mostrar dispositivos conectados. Por último, se hizo la conexión a una API, con ello se ejecutó a prueba de errores y se hizo la corrección de los errores producidos.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir diversos conocimientos enfocados a la programación orientada a objetos, uno de ellos fue a utilizar el IDE de Android Studio, el cual es el entorno de desarrollo integrado oficial para la plataforma Android. Fue un software nuevo para todos los integrantes del equipo ya que nunca habíamos utilizado esta plataforma de desarrollo, pero gracias al apoyo de nuestros asesores pudimos interactuar y desarrollar una aplicación funcional la cual permitió obtener rutas, así como registrar usuarios. Aprendimos a consumir servicios de una API de google Maps la cual nos permitió visualizar los datos que los usuarios van a utilizar para poder observar la ruta del transporte. Además, nos permite crear mapas de manera muy sencilla y rápida. Se utilizó esta API para crear una aplicación móvil llamada IOBus, que también fue creada con código nativo para Apple.   Interactuamos con la parte del desarrollo de la aplicación de IOBus en Xcode, con el fin de que pudiera ser ejecutable en un sistema operativo iOS, se vio la parte del desarrollo de interfaces con esta herramienta, y se nos hizo muy práctica ya que el lenguaje es de alto nivel, y ofrece a los desarrolladores todo lo necesario para crear aplicaciones para Mac, iPad y iPhone, de una forma muy sencilla.   Además, tuvimos la oportunidad de conocer Flutter que es un framework mobile de Google que se utiliza para crear interfaces, pero esta utiliza una versión Cross-Platform, la cual permite el desarrollo de aplicaciones nativas de alta calidad en iOs y Android en un tiempo record. Nos facilitó el trabajo a comparación con las otras dos plataformas, es una un framework que se ha utilizado por desarrolladores, es gratuito y con código abierto.   Esta estancia nos sirvió mucho, pues nosotros desconocíamos por completo el mundo de desarrollo de aplicaciones móviles. Ahora nos han abierto más el interés por implementar nuevos métodos y estrategias en el área de la tecnología y un mayor interés por el área del desarrollo de nuevas tecnologías. Asimismo, agradecemos al programa Delfín y a nuestros asesores, puesto que gracias a ellos hemos tenido la oportunidad de crecer como personas adquiriendo experiencias y nuevos conocimientos.
Francisco Cuautenco Ramiro, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2


DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2

Francisco Cuautenco Ramiro, Instituto Tecnológico Superior de Huauchinango. García Cabrera Pedro Antonio, Instituto Tecnológico Superior de Huauchinango. Hernandez Velazquez Jonathan Ricardo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en fabricar un prototipo de las herramientas que tiene el droide tipo R2-D2, esto con fin de crear una réplica a tamaño real con todos los movimientos que se pueda realizar, de igual manera el diseño tendra sus debidas modificaciones, pues el droide presenta distintas herramientas en los diseños encontrados que presentan errores, incongruencias de pocision y funcionamiento. Ya teniendo los diseños, pruebas de electronica y mecanica del driode se creara un prototipo para una empresa especialisada en animatronicos.



METODOLOGÍA

Semana 1 Metodología: Se nos dio un curso de técnicas básicas, intermedias y avanzadas del programa SolidWorks en el cual aprendimos a realizar operaciones, planos y ensambles más complicados.     Semana 2 Metodología: Se hicieron medidas e investigaciones de las posiciones donde irían las piezas, se hicieron diseños a partir de los ya existentes, modificándolos para que el funcionamiento pudiera ser acorde a lo necesitado, las piezas que se nos dieron a realizar fueron: Pinzas que funcionaran con servomotor Sierra circular Brazos de interfaz a computadoras ( Solo realizando operación de salida y entrada al Droide) Dispositivo de entrada y salida de los brazos Propulsores    Semana 3 Metodología: Mediante SolidWorks se crearon los diseños, al constantemente presentar errores, se iban cambiando hasta perfeccionar los diseños, al igual se siguieron tomando medidas para establecer un límite de tamaño en fusión del movimiento de salida de la pieza, asi como también se tomaron en cuenta las medidas de motores a usar y herramientas que no fueran a ser impresas.   Semana 4 Metodología: A la hora de hacer impresiones notamos errores en los ensamblajes, dándonos a entender que necesitábamos una diferencia en piezas que fueran ensambladas a presión de al menos .3 milímetros, haciendo entonces que se cambiaran parte de los diseños, así como también rediseñar las partes que tuvieran desperdicio de material debido a extrucciones inservibles.   Semana 5 Metodología: Se comenzó por hacer impresiones de prueba y de esta forma ver los errores de impresión, errores de ensambles, etc. Y de esta forma ir cambiando y reimprimiendo las piezas hasta perfeccionarla.   Semana 6: Metodologia: Continuando con las impresiones de prueba y cambios en los diseños para su perfección, debido a lo tardado de la impresión de las piezas ( De 1, hasta 7 horas) se avanzó lento, pero en lo que algunas piezas se imprimían, otras se revisaban y se programaban los servos a utilizar


CONCLUSIONES

Las piezas que se hicieron para los brazos del droide se realizaron lo mas fieles a los diseños existentes, esto con la ayuda de las habilidades obtenidas en los cursos de SolidWorks y la ayuda de los compañeros de trabajo. Las impresiones en 3D tienen un diseño que ahorra material y que a su vez cuentan con estetica, presentando un modelo presentable y economico en cuanto a gasto de material de impresion se refiere.
Franco Franco Santiago, Universidad Autónoma de Manizales (Colombia)
Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León

CORROSION ELECTROQUIMICA DE ALEACION DE ALUMINIO 2055 (AL-LI) CON UN RECUBRIMIENTO ANODIZADO


CORROSION ELECTROQUIMICA DE ALEACION DE ALUMINIO 2055 (AL-LI) CON UN RECUBRIMIENTO ANODIZADO

Franco Franco Santiago, Universidad Autónoma de Manizales (Colombia). Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El proceso de anodizado es un método de protección contra la corrosión que se le realizara a los aluminios, con la finalidad de minimizar el deterioro ambiental de estos metales no-ferrosos. En este proyecto de investigación se realizará el proceso de anodizado a la aleación de Al-Li 2055 y se caracterizará su comportamiento ante la corrosión en presencia de NaCl y H2SO4, la técnica de caracterización será espectroscopia de impedancia electroquímica. Finalmente, las muestras en estudio se observarán en sección trasversal por medio de microscopia electrónica de barrido, para observar la morfología y espesor de la capa de óxido de aluminio.



METODOLOGÍA

El material empleado fue una aleación de Aluminio -Litio 2055, Las muestras se preparando haciendo cortes y obteniendo un total de 5 muestras y una de ellas se trabajó como blanco de referencia. El proceso de anodizado se realizo empleando Acido Sulfúrico a la concentración de 3.5%. En la celda de anodizado se utilizó como cátodo a una barrada de plomo y se empleo una fuente de corriente para aplicar 1 A como se indica en la norma ASTM. Una vez anodizadas las muestras se procede a caracterizarlas por medio de técnicas electroquímicas las cuales permitirán conocer la velocidad de corrosión.  


CONCLUSIONES

De acuerdo a las gráficas obtenidas por la impedancia electroquímica se podrá comparar el comportamiento según el espesor del anodizado realizado a cada muestra, con el fin de caracterizar la velocidad de corrosión que puede tener cada anodización.  los diagramas a interpretar son el Nyquist, el cual grafica la impedancia real contra la imaginaria y los diagramas de Bode que grafican, la magnitud de la impedancia versus la frecuencia, y ángulo de fase versus la frecuencia. los datos obtenidos se estudiarán por medio del programa origin suministrado por el centro de investigación.
Franco Hernández Pablo Isaac, Instituto Tecnológico de Toluca
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

MAQUINA DE INFERENCIA(SWORD QUEST)


MAQUINA DE INFERENCIA(SWORD QUEST)

Franco Hernández Pablo Isaac, Instituto Tecnológico de Toluca. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Nuestra empresa está en desarrollo de un juego con la cual la mayoría de las personas interesadas podrán jugar desde su computadora, portátil o su celular.   Los requerimientos que necesita el juego son muy simples, cualquier computadora Intel i3 puede correr el juego sin ningún problema y no requiere un gran espacio de memoria por lo que los celulares también podrán utilizarlo sin ningún problema, claro que por el momento estamos limitado a dispositivos con Android con la versión Marshmallow o la 6.6 en adelante y en computadoras solo las que cuenten con el sistema operativo Windows.   El proceso se manejará de la siguiente forma, se divide en dos procesos importantes el usuario con los programadores que será conocido como proceso Desarrollo del juego y el segundo proceso en donde los involucrados serán los publicistas y los usuarios que será conocido como Distribución.    Para el desarrollo de dicha aplicación, no se cuenta con equipo, solamente la infraestructura necesaria para el desarrollo de dicha aplicación.



METODOLOGÍA

  RFI   Se necesita realizar al usuario una encuesta sobre la realización del juego y la movilidad, entender que es lo que prefieren respecto a los niveles, dificultad y la forma en la que se comunican con la aplicación si es de forma escrita o seleccionar.   RFP   El lenguaje donde se desarrollará el juego es java Debe ser capaz de usarse en diferentes lugares sin la necesidad de internet El proyecto deberá estar completo en un periodo de 12 meses Se requerirá que cuente con una versión ejecutable con compatibilidad con las computadoras y tengan cualquier versión de Windows Se requerirá que cuente con una versión móvil Manual de instrucciones del juego Manual de ayuda del juego Audífonos para una inmersión más completa         COSTO/BENEFICIO   Costos Administrativos:   Renta del Motor para juegos, costo mensual $125.00 pesos ($1,500.00 por 12 meses). Programador de Gráficos e Interfaz, costo mensual $500.00 ($6,000.00 por 12 meses). Programador de Código para Inteligencia, costo mensual $650.00 ($7,800.00 por 12 meses). Programador de Android Studio, costo mensual $750.00 (9,000.00 por 12 meses). Costo total de Administración Mensual: $2,025.00 Costo total de Administrativos (12 meses): $24,300.00   Costos Materiales:   Elementos o materiales para comenzar con el desarrollo del videojuego (todo debe de estar en digital): Guion del videojuego                  $ 5,000.00 Traducciones del videojuego        $ 3,000.00 Música / efectos de sonido $ 3,500.00 Ilustraciones / Paisajes                 $ 17,000.00   Total:                                                                   $28,500.00             Costos de Desarrollo:   Realizar el análisis para el videojuego, se requieren 2 personas y su costo estimado es de $30,000.00 Realizar los diseños que se requieren de para el videojuego, se requerirán una persona y su costo estimado es de $70,000.00 Construcción y creación del código del videojuego, se requieren 2 personas y su costo estimado es de $200,000.00 Pruebas para identificaciones de posibles errores, se requiere 10 personas y su costo estimado es de $10,000.00 Creación de un manual de información y ayuda sobre el videojuego, se requieren 2 personas y su costo estimado es de $10,000.00 Costo total del desarrollo:                     $320,000.00 Costo propuesto: Costo total del desarrollo x 1.45 = $464,000.00       Análisis final de costo para obtener el costo estimado total: Costo total estimado   Costo Administrativo + Costo Materiales + Costo de desarrollo $24,300.00             $28,500.00             $464,000.00      Costo total estimado: $516,800.00                  


CONCLUSIONES

Se llega a la conclusión de que se puede recuperar la inversión en un largo plazo, e igualmente podemos tener más beneficios como:   Se conseguirá una reputación en futuros proyectos relacionados (Beneficio intangible). Se consiguen materiales para posibles actualizaciones o mejoras (Beneficio tangible). Beneficio económico a largo plazo ya que puede superar expectativas y generar ganancias (Beneficio tangible).   Mostrando los beneficios anteriores aproximamos que tenga alrededor de 10,000 descargas mensuales (promedio de las descargas de un juego desconocido a nivel mundial) y el videojuego tiene un precio de $25.00 por descarga, además de contar que mensualmente existen gastos publicitarios de $1,500.00 mensuales podemos decir que comenzaremos a tener ganancias en un periodo a no más de 3 meses:   Inversión      <  Meses [(Descargas x Precio) - Publicidad]  $516,800.00   <       3     [ (10,000      x    25    )  - 1,500    ]   Donde aproximadamente tendremos lo recuperado de lo invertido y tener una ganancia aproximada de $ 250,000.00.  
Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Franco Navarro Chrystopher Daly, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN DE LAS ZONAS VULNERABLES A INUNDACIÓN EN LA ZONA DE QUINCEO.


CARACTERIZACIÓN DE LAS ZONAS VULNERABLES A INUNDACIÓN EN LA ZONA DE QUINCEO.

Franco Navarro Chrystopher Daly, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la sociedad se encuentra arraigada la idea de que las consecuencias de los desastres naturales son inevitables, ya que se  cree que estos son hechos del destino, mala suerte o incluso por factores divinos o sobrenaturales. Debido a este tipo de creencias y al desinterés por parte de las autoridades no se cuenta con una cultura de de prevención, por lo cual es importante determinar la vulnerabilidad de una población ante un desastre natural ya que ésta es un indicador con el cual se facilita la cuantificación de posibles víctimas así como las pérdidas económicas para con esto posteriormente hacer propuestas ya sean estructurales o no estructurales que reduzcan la vulnerabilidad y ayuden a mitigar los efectos de los desastres naturales como son las inundaciones.



METODOLOGÍA

Se aplicó una metodología cuantitativa ya que, en base a datos catastrales, poblacionales, socioeconómicos, así cómo características físicas de las diferentes estructuras habitacionales de las viviendas en la zona donde se desarrolló la investigación. De igual manera con ayuda de los softwares IBER, ArcGIS y Excel, se llevaron a cabo actividades de modelado, cartografía, así como representaciones gráficas de los resultados obtenidos.


CONCLUSIONES

De la investigación llevada a cabo se ha logrado obtener el potencial de pérdidas humanas tanto pérdidas económicas con lo cual se logró cartografiar los resultados de manera que se pueden identificar fácilmente las zonas más vulnerables a inundación en la zona de estudio.
Gaitan Hernandez Gloria Estefany, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

ESTUDIO DE MERCADO Y ANÁLISIS FINANCIERO PARA LA IMPLEMENTACIÓN DE INSTRUMENTACIÓN DE BAJO COSTO EN CULTIVOS


ESTUDIO DE MERCADO Y ANÁLISIS FINANCIERO PARA LA IMPLEMENTACIÓN DE INSTRUMENTACIÓN DE BAJO COSTO EN CULTIVOS

Gaitan Hernandez Gloria Estefany, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el tema del agua es muy importante ya que es un recurso que se agota rápidamente y es por ello que necesitamos crear un sistema eficaz que permita que los métodos de riego actuales sean sostenibles y sustentables. La escasez de agua es un problema real, una cuestión mundial que nos afecta a todos. El mayor uso es el agrícola, con el 76.04% del volumen concesionado para uso consuntivo. La fuente predominante es la superficial, con el 63.6% del volumen concesionado para este uso. La superficie sembrada varía entre 21.4 y 21.6 millones de hectáreas durante el periodo 2006-2017. Al año 2016, la superficie sembrada bajo riego en México fue de 6.5 millones de hectáreas, de las cuales un poco más de la mitad se ubican en 86 distritos de riego, y el restante en más de 40 mil unidades de riego. SEGÚN CONAGUA, 2017. El uso eficiente del agua requiere un compromiso no solo de los proveedores, sino también de todos los productores, lo que requiere un intercambio de información y concientización, de ambas partes.



METODOLOGÍA

Con el fin de obtener una idea más clara sobre las necesidades de los agricultores en la región de Tacámbaro, Michoacán en torno a los sistemas de riego actuales y más usados por las personas en sus cultivos. Se requiere realizar un nuevo estudio con otras técnicas de recolección de información, por lo que se va a implementar el modelo Canvas Early Adopter en donde se pretende conocer los principales problemas con los que se enfrentan los agricultores en sus sistemas de riego. Este modelo consiste en dejar que el cliente hable sobre sus problemas y necesidades sin mencionar la idea que se tiene del producto para llegar a conocer lo que realmente necesita y partir de ahí para el desarrollo de un nuevo producto o adaptar la idea del producto actual a sus necesidades. Por el método de Pensamiento de Diseño o Desing Thinking se va a realizar un acercamiento con el cliente y después se va a generar una propuesta de valor creando el modelo Canvas Early Adopter y ofrecer una visualización más general del modelo de negocio.


CONCLUSIONES

De la presente investigación se logró concluir que los métodos utilizados para encontrar una propuesta de valor que realmente cumpla con las necesidades de los clientes son efectivos. Al realizar las entrevistas se pudo notar que  la persona se expresó con mayor confianza ya que las preguntas se iban dando con naturalidad demostrando que se le ponía la suficiente atención, aplicando el modelo mom-test propuesto en el Canvas Early Adopter para encontrar nuestros primeros clientes. En el método de lienzo lean Canvas se puede obtener información detallada del cliente al hacer pensar en todo aquello que el cliente puede llegar a sentir y con que se puede aliviar, proporcionando claves para el desarrollo de un producto adaptado a sus necesidades, cuidando siempre la parte ambiental y sustentable.
Galindo Ordoñez Tadeo, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Jesús Vázquez Bustos, Instituto de Investigaciones Eléctricas

DISEñO, MODELADO, ENSAMBLAJE Y PRUEBAS DE COMPONENTES PARA UN SISTEMA DE AUTOMATIZACIóN DE PRUEBAS DE CORTO CIRCUITO.


DISEñO, MODELADO, ENSAMBLAJE Y PRUEBAS DE COMPONENTES PARA UN SISTEMA DE AUTOMATIZACIóN DE PRUEBAS DE CORTO CIRCUITO.

Galindo Ordoñez Tadeo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Jesús Vázquez Bustos, Instituto de Investigaciones Eléctricas



PLANTEAMIENTO DEL PROBLEMA

El control y automatización son parte del avance tecnológico, el cual nos lleva a la creación de nuevas técnicas para facilitar y/o disminuir los riesgos en el trabajo y los accidentes. Por esta razón los ingenieros del Instituto Nacional de Electricidad y Energías Limpias (INEEL) llevaron a cabo un proyecto en los laboratorios de alta potencia y de alta corriente de LAPEM (Laboratorio de Pruebas a Equipos y Materiales) con el fin de automatizar las pruebas de corto circuito que ahí se llevan a cabo para la certificación de equipos tales como interruptores, seccionadores, restauradores y transformadores de alta potencia. Lo anterior a fin de visualizar y registrar con exactitud y precisión todas las variables eléctricas que se necesitan durante el desarrollo de las pruebas, a la vez de disminuir los riesgos que existen al aplicar las pruebas en laboratorio.



METODOLOGÍA

Se realizó un análisis de los componentes que se necesitan controlar y la forma más efectiva de control dando como resultado la creación y desarrollo de un proyecto de control y automatización integral, el cual entre sus alcances incluyó la fabricación de gabinetes y la integración de equipos de medición y control remotos los cuales llevaran como objetivo el control por medio de sensores los cuales a la par darán como resultado un  señalamiento de cuales se encuentran en uso pero sin duda alguna cumpliendo la meta principal.  Se efectúa el control de un conjunto de cuchillas que cuentan con un sistema mecánico con apoyo de un motor el cual efectúa el proceso de apertura y cierre de las cuchillas. En este proyecto tuve la oportunidad de participar en el diseño de piezas internas del gabinete, y aprendizaje de herramientas CAD tales como: (altium solid works), al igual que lleve a cabo el apoyo de ensamble de los mismos con colaboración del grupo de ingenieros que se encargan del proyecto me lograron dar la explicación de cómo serían las conexiones de los gabinetes los cuales llevan un cable UTP de 5 metro de largo, el cual tiene una gran eficiencia en conexiones de corto alcance y otro de fibra óptica el cual me explicaron que tiene un valor mínimo de pérdida de calidad de la señal de los datos obtenidos, aún cuando este se encuentra a gran distancia del lugar en el que se van a analizar los datos, con lo que se brindará un mejor funcionamiento y confiabilidad de los sistemas de control. Este proyecto utiliza una interfaz desarrollada en National Instruments LabVIEW, la cual cuenta con más de 900 variables que logran ser leídas por una tarjeta de adquisición de National Instruments la cual tiene como nombre Bus-Powered USB; esta hace la lectura de los sensores que se conectan a las cuchillas de las cuales se quiere tener el control de apertura y de cierre para mantener la seguridad del personal que se encuentra en el área de pruebas.


CONCLUSIONES

En la estancia he aprendido sobre el uso de nuevos componentes y dispositivos que pueden ayudar a la creación de nuevos proyectos que me darán la oportunidad de tener un mejor avance tecnológico en la parte de control y automatización esto me llevo a investigar más sobre el uso que le damos a las cosas y cómo podemos hacer que estas funcione de una manera más sencilla y sin la existencia de algún incidente. Además de que tuve la experiencia de diseñar  (PCB) en donde me enseñaron sus formas de usar el programa altium y las variables que este conlleva como normas, reglas y condiciones en las que estará trabajando esta placa.
Gallardo Pérez Horacio Alí, Universidad de Guadalajara
Asesor: Dr. Pablo García Tahoces, Universidad de Santiago de Compostela (España)

ESTIMACIóN AUTOMáTICA DE LA GEOMETRíA DE LA LUZ AóRTICA POR SEGUIMIENTO DE ELIPSE


ESTIMACIóN AUTOMáTICA DE LA GEOMETRíA DE LA LUZ AóRTICA POR SEGUIMIENTO DE ELIPSE

Gallardo Pérez Horacio Alí, Universidad de Guadalajara. Asesor: Dr. Pablo García Tahoces, Universidad de Santiago de Compostela (España)



PLANTEAMIENTO DEL PROBLEMA

En la medicina es necesario contar con evidencia confiable y certera para brindar con base en los resultados un diagnóstico correcto de las patologías presentes en el cuerpo humano, o bien si solo se busca su análisis. El veredicto del médico es el que cuenta al final, si bien puede hacer un diagnóstico correcto del paciente, puede no hacerlo, por esto mismo el médico cuenta con distintas herramientas que le asisten a la hora del diagnóstico. Hoy en día con el avance tecnológico en todas las disciplinas, es posible su aplicación con distintos fines médicos, como lo son las herramientas informáticas, las cuales pueden proporcionar datos más confiables y certeros con valores robustos y precisos. En particular, la presencia de aneurismas, disecciones, trombos murales, o alargamientos se consideran actualmente unas de las principales anomalías de la aorta torácica, y el uso de las imágenes de los escáneres de tomografía computarizada se han empleado ampliamente para estudia estos, además, la correcta medición de distancias, la presencia de diferentes texturas, o la caracterización de las formas son algunas de las tareas principales a tratar. El desarrollo de herramientas totalmente automatizadas que se pueden aplicar a una amplia variedad de tomografías computarizadas de tórax volumétricas es actualmente un gran desafío al que se enfrenta la medicina.



METODOLOGÍA

Se seleccionaron carpetas procedentes de tomógrafos (CT), se hizo un análisis somero de las diferentes carpetas proporcionadas por el PACS (Picture Archiving and Communication System), mediante un umbral de cortes por carpeta se tamizaron los archivos de interés precedentes de los casos utilizados en estudios pertenecientes a pacientes seleccionados por los radiólogos, en base al tipo de prueba que le ha sido realizada. Para la agilización del proceso se creó un script en Java para hacer el proceso automático para la manipulación de ficheros. A partir de las carpetas seleccionadas se analizaron y se extrajeron aquellas que contenían los cortes relacionados con imágenes de aorta torácica, aorta abdominal y/o aorta completa. Con ayuda de la herramienta de visualización de imagen de ITK-SNAP, se analizaron los casos correspondientes y se creo una tabla en Excel para llevar un registro de la información de las carpetas correspondientes de cada paciente, guardando el nombre del paciente, ID, numero de registros, tipo de estudio, numero de cortes, fecha de adquisición, tiempo de adquisición y dimensiones de la imagen, así como algunas observaciones de la imagen. Después, se añadió una columna para anotar el tiempo de instancia del registro, ya que en muchos de los casos se repetían las fechas de adquisición, así que se analizaron nuevamente las imágenes para optar por la opción más conveniente según su contraste y características de visuales. El siguiente paso fue el cambio de formato de los archivos a DICOM y su anonimización, para esto se creó un script que cambió las extensiones de los archivos a DCM.                            Se programó un primer script para ejecutarse por carpeta y después uno que podía ejecutarse en todas las carpetas en automático para el cambio de formato. Una vez hecho esto, se cargaron los archivos con el nuevo formato al programa de anonimización DICOMAnonymize, para que este nos modificara el nombre del archivo y asignara un nuevo nombre con el objetivo de proteger los datos de la institución y del paciente. Se añadió una nueva columna a la tabla de los registros con los nuevos nombres anonimizados, con el fin de conocer a cuál paciente corresponde. Una vez anonimizados los casos de los pacientes se hizo uso del programa dcm2Hdr para generar dos archivos a partir de cada caso de los pacientes, este nos daba como producto un archivo con extensión Hdr y otro img. Para este paso se creó otro script para hacer el proceso en automático, el cual ejecutaba líneas de comandos necesarias para ejecutar el programa y añadir las direcciones de los archivos reduciendo los tiempos que esto llevaría hacer manualmente. Por último, con el programa para la estimación automática de la geometría de la luz aórtica por seguimiento de elipse, se hicieron pruebas con pacientes con casos presentes en diferentes fechas, con el objetivo de ver el progreso del tratamiento en las imágenes. Al ejecutar el programa se podían visualizar diferentes ventanas, las cuales mostraban el seguimiento de la elipse, el recorrido completo de la aorta, la aorta estirada y la opción para poder visualizar el recorrido en 3D. En cada una de las opciones se podían observar las distintas vistas anatómicas las imágenes, además se guardaron las distintas ventanas en junto con un archivo que contiene una tabla con información de los cortes, la posición en el plano y las distancias de la elipse, esto para cada uno de los casos. Con estos datos se hicieron gráficas y se obtuvieron los valores máximos del diámetro de la elipse de las distintas fechas de adquisición de los casos, para así poder analizar la evolución cuantitativamente.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos sobre el proceso que se lleva a cabo en cada paciente hasta su diagnóstico, en específico la labor de crear herramientas para agilizar el proceso. Con los softwares que me fueron brindados fue posible comprobar la efectividad del proyecto con nuevos casos de pacientes, en los cuales los resultados fueron positivos, demostrando los alcances del proyecto que van desde la automatización del proceso hasta la detección de patologías con los datos suficientes proporcionados. Pude conocer más sobre la aplicación de las matemáticas y la informática en la medicina que están presentes en el procesamiento de imágenes.
Gallardo Rojas Karina Itzel, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

CARACTERIZACIÓN DE UNA CELDA FOTOVOLTAICA Y UN COLECTOR SOLAR Y DETERMINACIÓN DE LA VIABILIDAD DEL SISTEMA


CARACTERIZACIÓN DE UNA CELDA FOTOVOLTAICA Y UN COLECTOR SOLAR Y DETERMINACIÓN DE LA VIABILIDAD DEL SISTEMA

Gallardo Rojas Karina Itzel, Instituto Tecnológico de Ciudad Juárez. Ortiz Reyes Dulce María, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Determinar la eficiencia en condiciones de operación a campo abierto del arreglo fotocelda-colector solar a partir de los parámetros característicos.



METODOLOGÍA

Recopilación de información acerca de la geometría del arreglo fotocelda-colector solar. Adquisición de datos de corriente, voltaje, temperatura y radiación a través de un módulo de acondicionamiento de señales y resguardo de información a una memoria SD. Análisis de datos utilizando un modelo matemático que describe el comportamiento del sistema para determinar la eficiencia de la celda y el colector. Comparación de la eficiencia de la celda fotovoltaica y del colector para un día con radiación estable y otro con radiación variable. Determinación de la viabilidad del arreglo fotocelda-colector solar respecto a la eficiencia y al gasto promedio en un hogar.


CONCLUSIONES

Se determinará la viabilidad del sistema fotocelda-colector solar a partir de las gráficas de eficiencia y el análisis de gastos de construcción y consumo en un hogar promedio. Para trabajo a futuro configurar-optimizar un arreglo fotocelda-colector solar en condiciones de uso real en Ciudad Juárez de tal forma que la fotocelda trabaje bajo temperaturas recomendadas para mayor eficiencia y obtener agua caliente aprovechable.
Gallegos Coria Carlos Alfredo, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO


RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO

Gallegos Coria Carlos Alfredo, Universidad de Sonora. Martinez Cañez Carlos Alfonso, Universidad de Sonora. Romero Alvarez Jose Sebastian, Universidad de Sonora. Vega Tapia Jose Alberto, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México ha sido víctima de numerosos eventos sísmicos a lo largo de la historia, siendo los más referenciados, los terremotos de septiembre de 1985 y 2017, debido a la magnitud de daños que causaron en la infraestructura de la metrópoli. Debido a ello, y con el fin de que no se repita una destrucción de igual magnitud, es necesario analizar a detalle las características de las edificaciones que se vieron colapsadas o en algunos casos gravemente dañadas, así como la relación que estas guardan con cada uno los sismos mencionados. De esta manera, será posible estimar el comportamiento de futuras obras civiles que compartan características similares haciendo posible un diseño estructural más seguro y confiable frente a eventos de tal magnitud. Con ayuda de software de diseño estructural dinámico se determinarán las deformaciones máximas de azotea con respeto al tiempo, así como las deformaciones máximas de entrepiso que presentan edificaciones de concreto reforzado de 7 y 10 niveles sometidos a las respuestas sísmicas que se registraron en los terremotos del 19 de septiembre de 1985 y 2017 en la ciudad de México para suelos tipo blando (IIIB) e intermedio (II). 



METODOLOGÍA

Según el servicio geológico mexicano la ciudad de México se encuentra en zona sísmica B lo cual representa ser un zona intermedia donde se registran sismos no tan frecuentemente o son zonas afectadas por altas aceleraciones que no sobrepasan el 70% de la aceleración del suelo, aunado a lo anterior el tipo de suelo predominante en la CDMX (de transición/intermedio y blando) genera preocupación en los organismos a cargo de impulsar las obras civiles que dan pie a las grandes y pequeñas edificaciones en la ciudad. Lo anterior debido a que por efectos de sitio las ondas de los sismos se ven amplificadas en los suelos blandos de la CDMX, a pesar de encontrarse en suelo tipo B, su cercanía con la subducción de las placas de Cocos y Rivera con las placas Norteamericana y del Caribe genera la preocupación antes descrita de los expertos en el tema. Por ello, resulta necesario sensibilizar los modelos desde la etapa del pre-diseño y así lograr el comportamiento optimizado en la estructura mediante el uso de análisis dinámicos reduciendo el número de iteraciones. Del reporte efectuado por Roberto Meli y Eduardo Miranda, por parte del Instituto de Ingeniería de la UNAM, Evaluación de los efectos de los sismos de septiembre de 1985 en los edificios de la Ciudad de México, podemos ver que las construcciones que se vieron afectadas con un daño severo, en su mayoría, corresponden a edificios de 9 o más niveles. De igual manera, realizando una investigación en la cual se contabilizaron los edificios colapsados a causa del sismo del 19 de septiembre del 2017, se obtuvo que el número de niveles en los edificios colapsados ronda entre 2 y 7, teniendo un aumento significativo al llegar a los edificios de 4 niveles, dando como promedio los edificios de 4.4 niveles. Concluyendo así que el número de niveles de interés para este estudio ronda entre 4 y 9 niveles. Por lo cual se decidió analizar edificios de 7 y 10 niveles para ambos registros sísmicos. Los registros sísmicos utilizados fueron obtenidos del servicio sismológico nacional y la red acelerográfica de la UNAM.  Del SSN se obtuvo el registro sísmico del 2017 para suelos intermedios en la estación llamada DX3720170919181440, de la red acelerográfica de la UNAM se obtuvieron los registros restantes, para los de 1985 se utilizaron las estaciones sismex viveros y SCT B-1 para suelo intermedio y blando respectivamente, en el registro sísmico del 2017 para suelo blando se utilizó la estación SCT B-2. Para el análisis dinámico de las estructuras se empleó el software de análisis estructural RUAUMOKO. De los resultados obtenidos por el programa fueron de total interés los periodos fundamentales de cada estructura y los datos correspondientes a las deformaciones máximas de entrepiso. A su vez, con ayuda de DYNAPLOT (una extensión del mismo RUAUMOKO), se obtuvieron las deformaciones de azotea para cada instante de tiempo que abarcan los registros sísmicos evaluados. Cabe señalar que se consideraron dos direcciones de análisis (x, y) para los mencionados valores de deformaciones.


CONCLUSIONES

En los datos recopilados se observa que para el sismo del 19 de septiembre de 2017 los edificios de 7 y 10 niveles desplantados en suelo intermedio sufrieron una deformación mayor tanto para cada entrepiso como en azotea, comparándolos con los edificios desplantados en suelo blando. Mientras que para el sismo del 19 de septiembre de 1985 los edificios desplantados en suelo blando sufrieron una mayor deformación. Por lo cual se concluye que el sismo de 2017 fue más adverso para los edificios situados en suelo intermedio al contrario del sismo de 1985, en el cual los edificios situados en suelo blando se vieron más afectados por el nivel de deformaciones. Lo anterior puede deberse al tipo de onda liberadas en cada sismo y al hecho de cómo se amplifican o atenúan cada uno al llegar a los diferentes tipos de suelo en la CDMX. También otras de las diferencias son la duración del sismo y su cercanía con el epicentro, aun cuando el tipo de falla es el mismo para ambos casos.
Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Gálvez Camargo Rubén, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES

Gálvez Camargo Rubén, Consejo Sudcaliforniano de Ciencia y Tecnología. Gil Lemus Heriberto, Consejo Sudcaliforniano de Ciencia y Tecnología. Guluarte Camacho Michelle, Consejo Sudcaliforniano de Ciencia y Tecnología. Ramirez Ramirez Giselle, Universidad Autónoma de Sinaloa. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

  Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Galvez Parra Kevin, Instituto Tecnológico de Culiacán
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

DESARROLLO DEL ALMACENAMIENTO DE DATOS EN REALIDAD VIRTUAL


DESARROLLO DEL ALMACENAMIENTO DE DATOS EN REALIDAD VIRTUAL

Galvez Parra Kevin, Instituto Tecnológico de Culiacán. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Desde su creación el Grupo de Realidad Virtual del INEEL ha venido desarrollando diferentes proyectos. Por ejemplo, el desarrollo de un simulador basado en Realidad Virtual de un ROV (Remotely Operated Vehicle), para maniobras en aguas profundas, o también el desarrollo de un simulador de una red eléctrica que este se dedica a conocer sobre el mantenimiento de esta red. Estos sistemas pueden ser utilizado para el entrenamiento de operadores. Sin embargo, a la fecha el sistema no registra ningún dato sobre como un operador va progresando en su aprendizaje. Así, el registro de estos datos sería de gran utilidad para saber cómo mejorar o asistir el aprendizaje de los operadores.



METODOLOGÍA

Para este proyecto se utilizó una conexión entre el programa donde se lleva a cabo el desarrollo el simulador y un servidor que en este caso utilizamos PHPmyAdmin. El programa que se usó para este enlace fue WAMP. Una vez que se llevó a cabo la conexión, pasamos a lo que viene siendo el plato fuerte que era la lógica del programa, es decir, que datos voy a ocupar del simulador para que en estos se guardaran en la base de datos o que datos ocupo de la base de datos para validar ciertos aspectos del simulador. Por ejemplo: el Log in, tomar ciertos datos como la sesión, el usuario y la posición del operador. Conforme se iba desarrollando los simuladores era como iba creciendo la base de datos, ya que no había una base de datos predefinida. Entonces como iban subiendo cambios de los avances de los simuladores se iban creando nuevas tablas con sus respectivos atributos, para así tener un historial de los avances que hacia el usuario en cada sesión. Se obtuvo un avance considerable pues ya que son proyectos muy extensos, por lo tanto, es un proyecto que no ha finalizado pero que tienen las bases para seguir continuando con el crecimiento de las bases de datos y quizás optimizarlos para obtener valores necesarios, no tan recurrentes para no obtener valores tan poco significativos y que no se vuelva una base de datos tan pesada en cuestión de capacidad de almacenamiento.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos prácticos y lógicos de la conexión de base de datos hacia un simulador de realidad virtual a base de investigaciones y con la ayuda de expertos para conocer la lógica del código y algunas ideas que se llevó a cabo durante el proyecto.
Gálvez Tovar Rafael Alejandro, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN TRáFICO DE VIDEO STREAMING


CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN TRáFICO DE VIDEO STREAMING

Gálvez Tovar Rafael Alejandro, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Los grandes servicios de video necesitan hacer pruebas constantes tanto a sus servidores como la manera en la que transmiten video, para asegurar la calidad del servicio que están proporcionado y la percepción de dicha calidad de los usuarios finales, estos termino son comúnmente abreviados como QoS (Calidad del Servicio por sus siglas en inglés) y QoE (Calidad de Experiencia, también por sus siglas en inglés).  Este procedimiento también debería ser realizado al querer realizar un servicio de Streaming que estuviera conectado a un servidor. Para realizar estas pruebas se necesita un conocimiento de todo los que implica un video: la codificación, los formatos, la compresión y los tipos de fallas que pueden presentarse; es necesario apegarse a una estandarización de igual forma. Sin embargo, la información de que tipo de pruebas se pueden hacer no es tan abundante en español como lo es en inglés, donde se puede consultar a diversas instituciones que regulan estas prácticas. El objetivo de esta investigación es realizar la definición de los conceptos básicos concernientes a video como la codificación, los pixeles y el sistema de compresión. Además de definir los tipos de Streaming, los protocolos que utiliza y las recomendaciones para cuidar de la QoS y la QoE.



METODOLOGÍA

Se utilizó una investigación sobre los conceptos básicos de video, la codificación y compresión de video, los servidores de Streaming y los métodos y las recomendaciones que se encargan tanto la QoS como la QoE en una transmisión de video. Además de ello, se realizó la instalación de un servidor de Streaming en una computadora y se le generó trafico para medir la QoS. En una definición básica, un video es una tecnología que junta una serie de imágenes para crear una ilusión de movimiento por medio de medios electrónicos.  Sin embargo, esto no solo implica la reproducción, sino el procesamiento, almacenamiento y transmisión. Se le denomina Streaming a la reproducción continua de video a través de una red de computadoras. Un servidor de Streaming sube, almacena y reproduce el video para poder realizar esta operación. Se puede decir que para que funcione un servidor de Streaming, existen dos protocolos: RTSP y RTP. El primero es un protocolo de transmisión de video que se encarga de la sesión en un intercambio de información de Streaming. Mientras que el segundo se encarga de la transmisión del contenido en Streaming o en cualquier otro medio. Se define a QoE al nivel de satisfacción del cliente final hacia un producto o un servicio. Mientras que QoS se puede definir como la calidad a nivel técnico, ósea, la calidad que es percibida en la prueba de calidad. Si bien asegurarse que un Streaming de video cumpla con los parámetros de QoS es primordial, es posible que la calidad sea medida como muy buena, pero para el usuario final no sea así, para esto entran las pruebas de QoE. Estas metodologías se pueden dividir en subjetivas y objetivas. Las metodologías subjetivas están basadas completamente en la visión y la percepción humada contada. A pesar de no contar con un método cuantificable, estos resultan ser más efectivos, pues están más apegados a la condición humana. Por otro lado, las metodologías objetivas se basan en fórmulas matemáticas y algoritmos para predecir la calidad. A pesar de la efectividad de los métodos objetivos es en realidad menor que los métodos subjetivos, estos son preferidos en muchos casos al ser más baratos y cuantificables.


CONCLUSIONES

En esta investigación se obtuvo un mayor conocimiento en como es que los servidores de Streaming funcionan, como es que se puede instalar uno y como es que se ciudad su calidad y cuales son las metodologías para conseguirlo La ITU, se encarga de estandarizar una gran cantidad de recomendaciones muy útiles para monitorear, probar y encontrar fallas en una transmisión de video. Sin Embargo, estas recomendaciones no se llevan a cabo debido a la ignorancia de la existencia de dichas, la falta de recursos, dinero o la falta de comprensión de estas técnicas. Sin embargo, no todas las técnicas necesitan de una enorme calidad de video e incluso pueden ser hechas en el hogar de una persona, a pesar de que los resultados no sean la más precisos La calidad de Servicio y la calidad de experiencia debería ser un factor importante y las técnicas deberían de ser utilizadas para mejorar el servicio de video, no solo de grandes empresas, sino de servicios de Streaming de pequeñas empresas, proyectos personales o instituciones.
Gamez Aguilar Josvan Alejandro, Universidad Autónoma de Occidente
Asesor: Dr. Reyna Valladares Anguiano, Universidad de Colima

ANáLISIS DE TRES JARDINES PúBLICOS EN COQUIMATLáN, COLIMA


ANáLISIS DE TRES JARDINES PúBLICOS EN COQUIMATLáN, COLIMA

Gamez Aguilar Josvan Alejandro, Universidad Autónoma de Occidente. Asesor: Dr. Reyna Valladares Anguiano, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En México, la inseguridad en áreas públicas no solo es causado por la delincuencia, también la influencia de los aspectos urbanos son causantes de generar un ambiente que no permite la interacción entre las personas en el espacio público. Estudios elaborados por diversos autores (Newman, Jacobs, Valladares y otros) dan como resultado que existe mayor delincuencia en lugares con grafitis y mal mantenimiento que en lugares cuidados y bien mantenidos, ya que esto crea un ambiente propenso a ser poco utilizado y en consecuencia a la larga se vuelve inseguro. La mayor problemática que se presenta es el mantenimiento de las áreas y la accesibilidad que tienen para mantener un ambiente de sociabilidad y vitalidad del sitio, por lo que durante el verano de investigación se estudiaron los aspectos urbanos de tres jardines públicos de Coquimatlán, Colima.  



METODOLOGÍA

Primero se hizo una revisión teórica sobre el contenido de la investigación, el cual fue aportado por la Dra. Valladares Anguiano, retomando palabras claves que serían de importancia a la hora de hacer el levantamiento de información. Igualmente tuvimos un primer acercamiento al contexto, enfocándonos en los usos del suelo del contexto inmediato de los jardines, luego llevamos a cabo un levantamiento urbano más detalle de las zonas a estudiar, apoyándonos de mapas satelitales ya que la localidad no tiene planos catastrales actualizados, dando como resultado un plano base, del cual partió el resto de la investigación. Entre los elementos analizados estuvieron: vegetación; uso de suelo; viviendas; movilidad urbana; servicios públicos y actividades del área de cada uno de ellos se hicieron los planos respectivos, así como el análisis de la información que dio como resultado un informe que conjunta la información de los tres sitios. El levantamiento de dicha información se hizo por medio de observación posteriormente nos enfocamos a datos específicos de los jardines, por ejemplo, el porcentaje de personas que acuden a cada uno de los jardines. Esto se llevó acabo a base de observación en tres horarios promedio que era la mañana, tarde y noche, los cuales fueron propuestos por la investigadora a cargo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimiento teórico y práctico de la relación entre urbanismo y seguridad, poniendo en práctica los elementos base del diseño urbano y ambiental, esto a partir de la guía de la Dra. Reyna Valladares. Para terminar, se llegó a la conclusión sobre los aspectos que influyen en un buen jardín público, tales como una adecuada imagen urbana, el acceso al sitio, el tener servicios públicos bien mantenidos, así como actividades en el contexto que permitan la sociabilidad y presencia de personas en los espacios públicos, ya que un jardín forma parte de la sociedad y le da una identidad territorial a la población.
Garcia Aguilar Mayela, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato

DESARROLLO DE UNA PELICULA COMESTIBLE CON MUCILAGO DE CHIA UTILIZADA PARA REDUCIR LA PERDIDA DE PESO EN FRUTAS


DESARROLLO DE UNA PELICULA COMESTIBLE CON MUCILAGO DE CHIA UTILIZADA PARA REDUCIR LA PERDIDA DE PESO EN FRUTAS

Garcia Aguilar Mayela, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El deterioro de frutas y hortalizas es un problema que tiene impacto a nivel económico, influye en la perdida de agua en frutas teniendo como consecuencia una pérdida en el peso, que es proporcional al precio a pagar. Por esta razón, se han desarrollado nuevas tecnologías para minimizar el deterioro de productos perecederos, como frutas, durante el almacenamiento. Entre ellas se han desarrollado películas comestibles que ayudan a disminuir la perdida de agua, mejoran la apariencia estética y pueden aportar propiedades funcionales a los alimentos. La semilla de chía posee, dentro de otros nutrientes un mucilago compuesto principalmente por polisacáridos que  tiene una gran capacidad de retención de agua, emulsificante, espesante, entre otros. Por lo que esta tiene la capacidad de formar películas comestibles en combinación con proteínas mejorando las propiedades mecánicas y funcionales.



METODOLOGÍA

Las actividades realizadas se seccionaron en 5 etapas. En la primera etapa se seleccionó el mejor método de extracción del mucilago de la semilla de chía para obtener el mayor rendimiento posible. Las técnicas consistieron en precipitación del mucílago con alcohol absoluto y la segunda por extracción mecánica. La segunda etapa consistió en plantear la formulación de la película comestible, para esto se establecieron diferentes formulaciones con la siguiente materia prima; goma arábiga, alginato, glicerol y mucílago seco de la semilla de chía. En la tercera etapa una vez que se seleccionó la mejor formulación de la película comestible se replicó para proceder con las siguientes dos etapas. Como cuarta etapa se realizó la caracterización de la pelicula comestible mediante las pruebas de análisis del perfil de textura, solubilidad y espesor.  a) Prueba de análisis de textura La prueba se realizó en un texturómetro TX.TA plus, para esta pruebas las películas se dejaron 24 horas a temperatura ambiente, una vez cumpliendo con el tiempo requerido las películas se cortaron con un área de 6 x 6 cm2 , se midió el espesor de cada película con ayuda de un vernier y finalmente se realizó las pruebas de textura para determinar firmeza, elasticidad y fuerza a) Prueba de solubilidad Se cortó un cuadro de película de 6 cm x 6 cm, se deshidrató, se pesó y se sumergieron en 80 ml de agua destilada con agitación continua a 130 rpm durante una hora. Las muestras se filtraron usando papel filtro a peso constante, después el papel se colocó en un horno de convección forzada a 65ºC durante 24 horas. Finalmente se determinó el peso del papel y la solubilidad de calculó por diferencia de peso seco inicial y final.   c) Películas aplicación en las frutas La fruta selecciona fueron manzanas. Se cortó la fruta con dimensiones similares y se tomó el peso de las mitades sin película, después se agregó la película y se tomó el peso nuevamente. Se utilizaron 2 tratamientos; el primero la fruta se mantuvo a temperatura ambiente y el segundo en refrigeración, considerando el control  (fruta sin película). Las manzanas se pesaron cada 24 horas durante 2 semanas. Como quinta y última etapa se evaluó la aplicación de la pelicula comestible en frutas a temperatura ambiente y en refrigeración, se monitoreó la perdida de peso cada 24 horas durante 10 dias.


CONCLUSIONES

La extracción mecánica fue la elegida por ser la mas confiable para la obtención del mucilago y el alginato de sodio por ser un mejor agente gelificante. La caracterización de la pelicula dió como resultado una dureza de 33.28 ± 8.18, Cohesividad de 2.67 ± 0.39, Elasticidad de 1 y Masticabilidad de 86.75 ± 7.14. La fruta de prueba con pelicula a temperatura ambiente tuvo una perdida del 66% de agua y en refrigeración del 22%, para el caso del control ambiente hubo una pérdida del 60% y el control en refrigeración 18%. Lo que nos indica que hubo más pérdida de peso con la pelicula pero el fruto no presento oxidación, por lo que es necesario seguir estudiando su aplicación en diferentes frutas para determinar su alcancé.
Garcia Alvarado Brandon Emmanuel, Instituto Tecnológico de Reynosa
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

IMPLEMENTACIóN DE METODOLOGíA MICEE (METODOLOGíA INCLUSIVA, COLABORATIVA, EDUCATIVA Y EXPERIENCIA DE USUARIO) PARA PERSONAS SORDAS.


IMPLEMENTACIóN DE METODOLOGíA MICEE (METODOLOGíA INCLUSIVA, COLABORATIVA, EDUCATIVA Y EXPERIENCIA DE USUARIO) PARA PERSONAS SORDAS.

Garcia Alvarado Brandon Emmanuel, Instituto Tecnológico de Reynosa. Nava Cruz Ricardo Hassan Javier, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

A lo largo del paso de los años, ha existido la discriminación y/o marginación dentro de los grupos sociales por no contar con ciertas capacidades, en este caso las personas con discapacidades físicas, aunque se ha batallado para igualar la situación y lograr un entorno inclusivo para que cualquier persona se pueda desenvolver libremente y sin complicaciones en el entorno que le rodea, todavía falta mucho por hacer, cabe mencionar que el primer esfuerzo nacional para la atención de personas con discapacidad se realizó el 13 de enero de 1977 con la creación del Sistema Nacional para el Desarrollo Integral de la Familia (DIF), apoyando así a personas como los sordos, pero no solo termina ahí, también implica la parte educativa. Luna, M. (2013) menciona que la educación inclusiva no es solo brindar acceso a las personas a escuelas sino también a eliminar barreras que limitan el aprendizaje, tales como celulares o computadoras las cuales no son accesibles para personas con discapacidad pues no son totalmente inclusivas. Esto implica según Arencibia, J. que exista una experiencia negativa (UX) es decir que al utilizar ciertas tecnologías se frustren y tengan con ello un resultado muy negativo en su experiencia, retomando el tema educativo Solis, M. yAugusto, M. en base a estudios y pruebas que realizaron, llegaron a la conclusión de que preexiste una tendencia negativa en el aprendizaje hacia las personas sordas en este caso, el tema de comprensión lectora. El aprendizaje de la lectura constituye una de las tareas más importantes a las que se tiene que enfrentar el niño con sordera. Aunque el lenguaje escrito tiene el potencial para suministrar al niño con sordera un modo alternativo de comunicación que le permite acceder a mucha información, gran proporción de niños con sordera nunca llegan a alcanzar unos niveles de lectura competentes. Augusto, J. (2002) Dificultades lectoras en niños con sordera.   Mencionado todo esto, se tienen datos de que uno de los problemas que presentan las personas sordas es la comprensión lectora, para ser más específicos lectoescritura, por lo que   Se pretende implementar y probar la iteración número 2 de la metodología MICEE: (Metodología Inclusiva, Colaborativa, Educativa y Experiencia de Usuario) para detectar posibles mejoras, utilizando las variables de trabajo de discapacidad auditiva de nacimiento y tema educativo de compresión lectora.   Se optó por escoger a las personas con discapacidad auditiva, pues es una población bastante vulnerable y que no muchas personas y/o organizaciones los apoyan, además que la Universidad Autónoma de Aguascalientes facilita el acceso al DIF de Aguascalientes donde se encuentran este tipo de personas, y el tema educativo de la lectoescritura pues constituye en un proceso de aprendizaje en el cual los individuos aprenden a leer y escribir. La lectura y la escritura se constituyen como una posibilidad real y concreta de que las personas sordas y las oyentes interactúen con un alto grado de autonomía.



METODOLOGÍA

La metodología MICEE consta de 4 fases, las cuales son: Conocer. Formar. Construir. Medir.   En la fase Conocer identificamos las necesidades del sistema por parte de los usuarios, de igual forma identificamos el contexto físico, ambiental, preferencial, emocional y cognitivo de cada tipo de usuario, mediante una entrevista y observaciones, obteniendo así productos clave como: Herramientas de aprendiza: Necesaria para saber cómo aprenden lectoescritura ambos usuarios. Requisitos de usuario: Información sobre las necesidades individuales de cada usuario para la aplicación.   En la segunda fase, la fase Formar se buscó comprender los requisitos del sistema para identificar los que se implementaran en la aplicación, dándole un valor de prioridad e importancia. En esta etapa tuvimos productos clave como: Diagrama Entidad - Relación: Con el cual identificamos como se van a relacionando las pantallas del software con el usuario. Técnica de Importancia de Fiabilidad: Importante pues todos los requerimientos los ponemos en valuación en una gráfica de importancia y fiabilidad. Interfaces del Sistema: Bocetos de cómo serían las pantallas del sistema. Cabe mencionar que, en esta etapa, se empezó con el desarrollo de la aplicación en el entorno de desarrollo Android Studio y la base de datos Firebase, pues en la primera iteración se trabajaron con dichos softwares.   En la fase Construir, se desarrolló por medio de código el sistema con las características de contenido educativo, inclusión, colaboración y UX. Correspondiente a la etapa de implementación del ciclo de vida clásico llamado cascada., en esta etapa tuvimos productos clave como: Evidencia Versión Sistema: Que muestras las capturas de pantalla de la aplicación. Ambiente de Desarrollo: Donde se muestran los programas y/o herramientas que se utilizaron para la implementación del software.   En la última fase, la fase Medir se verifico y valido el sistema. Se buscó descubrir defectos durante la prueba de la aplicación. En esta fase obtuvimos los resultados finales y los últimos productos clave los cuales fueron: Resultados de Métodos Aplicados: Los cuales son encuestas realizadas hacia ambos usuarios (personas sordas de nacimiento y personas promedio), con las respectivas respuestas. Con estos últimos datos obtenidos se realizó una escala de valores y formularios base para representar los resultados finales.


CONCLUSIONES

Como conclusión, fue una gran experiencia participar el XXIV verano de la investigación científica y tecnológica del pacifico 2019 Programa Delfín. Ya que adquirimos grandes conocimientos y nuevas experiencias que servirán para poder desarrollarse de forma personas y profesional.
García Avendaño José René, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Arnulfo Rosales Quintero, Instituto Tecnológico de Tuxtla Gutiérrez

RESOLUCIóN DE EJEMPLOS DE FENóMENOS DE TRANSPORTE MEDIANTE EL SOFTWARE MATEMáTICO MAPLE 18


RESOLUCIóN DE EJEMPLOS DE FENóMENOS DE TRANSPORTE MEDIANTE EL SOFTWARE MATEMáTICO MAPLE 18

García Avendaño José René, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Arnulfo Rosales Quintero, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

En  las ciencias de ingeniería, física y química, el estudio de los fenómenos de transporte se refiere al intercambio de masa, energía, momento y momento angular entre los sistemas estudiados. La transferencia de masa, momento y calor comparten un marco matemático muy similar, y los paralelos entre ellos se explotan en el estudio de los fenómenos de transporte para establecer conexiones matemáticas profundas que a menudo proporcionan herramientas muy útiles en el análisis de un campo que se deriva directamente de los demás. Los fenómenos de transporte son omnipresentes en todas las disciplinas de la ingeniería. Algunos de los ejemplos más comunes de análisis de transporte en ingeniería se ven en los campos de ingeniería de procesos, química, biológica​ y mecánica, pero la asignatura es un componente fundamental del currículo en todas las disciplinas involucradas de cualquier manera con la mecánica de fluidos, transferencia de calor, y transferencia de masa. Cada aspecto de los fenómenos de transporte se basa en dos conceptos primarios: las leyes de conservación , y las ecuaciones constitutivas. Las leyes de conservación, que en el contexto de los fenómenos de transporte se formulan como ecuaciones de continuidad, describen cómo se debe conservar la cantidad que se está estudiando. Las ecuaciones constitutivas describen cómo la cantidad en cuestión responde a diversos estímulos a través del transporte. Entre los ejemplos destacados se incluyen la Ley de Conducción de Calor de Fourier y las ecuaciones de Navier-Stokes, que describen, respectivamente, la respuesta del flujo de calor a los gradientes de temperatura y la relación entre el flujo de fluido y las fuerzas aplicadas al fluido. Estas ecuaciones también demuestran la conexión profunda entre los fenómenos de transporte y la termodinámica, una conexión que explica por qué los fenómenos de transporte son irreversibles. Por otro parte resolver dichas ecuaciones de manera analítica conlleva a un consumo de tiempo elevado, por lo que el uso de softwares matemáticos es una herramienta eficaz para resolver sistemas complejos de ecuaciones con menor tiempo y trabajo, brindando resultados de una manera más eficiente. Es por ello que durante el verano de investigación se realizaran ejemplos de fenómenos de transporte mediante programación, utilizando el software matemático MAPLE 18.      



METODOLOGÍA

Se utilizó el software matemático Maple 18, en un computador laptop con un procesador Intel Core i5-3317U CPU 1.70 GHz, memoria RAM de 6.00 GB y sistema operativo Windows 10 de 64 bits. Los ejemplos matemáticos de transferencia de calor, momento y masa se obtuvieron de los libros: -J.P. Holman. (1999). Transferencia de calor. Mexico: CECSA.    -C.J. Geankoplis. (1998). Procesos de transporte y operaciones unitarias. Mexíco: CECSA. -R. B. Bird, W. E. Stewart, and E. N. Lightfoot (1961). Fenomenos de Transporte. New York: John Wiley and Sons, Inc. Para la resolución de los ejemplos antes mencionados, se siguió el siguiente algoritmo -Definición de condiciones del problema y los valores iniciales -Programación de las ecuaciones lineales y diferenciales -Definición las condiciones de frontera -Resolución mediante métodos numéricos o algoritmos propios de MAPLE.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre programación de métodos numéricos, métodos algebraicos y algoritmos en el  software MAPLE 18. Se logró resolver los siguientes ejemplos de fenómenos de transporte: Transferencia de momento -Perfil de velocidades no estacionario -Flujo alrededor de una esfera -Flujo en medios porosos (Teoría de la perturbación) -Torque en cilindro y esfera concéntricos con velocidad de rotación interna y  externa. Transferencia de calor -Transferencia de calor por conducción en estado permanente en una pared compuesta. -Transferencia de calor por conducción en estacionario en un tubo con aislante -Transferencia de calor en una aleta de enfriamiento -Calentamiento súbito de una esfera -Capa limite térmica en una placa plana -Flujo de calor en una placa -Convección forzada a través de un tubo. Transferencia de masa -Contra difusión equimolar -Absorción de acetona en una torre de etapas a contracorriente -Cálculo de la altura de una torre de absorción empacada -Cálculo de la altura de una torre de enfriamiento
Garcia Bailon Edward Clemente, Instituto Tecnológico de Tepic
Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro

CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO


CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO

Garcia Bailon Edward Clemente, Instituto Tecnológico de Tepic. Ontiveros Hernández Miriam Vianey, Instituto Tecnológico de Tepic. Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un problema de gran envergadura que con el paso del tiempo ha ido incrementando. Actualmente los estudios realizados a ríos en diferentes zonas del mundo dejan entrever que las principales razones que provocan la contaminación de éstos son agentes químicos, urbanos e industriales así como material sólido (disuelto o en suspensión) generado por acción del hombre, que afectan negativamente los procesos naturales de respiración y fotosíntesis de todo organismo que los habitan, ocasionando su muerte prematura. En el caso del río Querétaro se ha detectado un aumento significativo de desechos, esto como consecuencia de acuerdos establecidos entre empresas y organismos gubernamentales que les permiten depositarlos en el río, para posteriormente en plantas de tratamiento reducir sus índices de contaminación. El mal estado del río es tan grande, que para poder recuperarlo se necesita un alto costo de inversión. Los estudios que se realizan al río no determinan un método para disminuir los efectos provocados por la contaminación, por tal motivo es necesario proponer un sistema capaz de clarificar el agua del rio con material disponible en la región a un costo accesible.



METODOLOGÍA

El objetivo primordial es establecer y comparar diferentes sistemas de biofiltración que permitan clarificar muestras de agua obtenidas del Río Querétaro con ayuda de materiales pétreos y la presencia de Papiro (Cyperus papyrus), que en conjunto reducirán los índices de contaminación de las muestras. Para llevar a cabo el proyecto, se decidió muestrear 3 puntos específicos del río Querétaro: aguas arriba (La cañada localidad de El Marqués), aguas abajo (Las Adjuntas, cerca de los límites entre Querétaro y Guanajuato) y un punto intermedio dentro de la ciudad de Santiago de Querétaro (Avenida universidad, cerca de la UAQ C.U.); a fin de establecer condiciones iniciales (muestras de control). Las muestras obtenidas en cada uno de los puntos, se depositan en un prototipo de biofiltración que previamente se armó para el tratamiento de aguas; el cual consta de columnas horizontales con presencia de materiales como tezontle y piedra pómez de diferentes granulometrías; así como Papiro (Cyperus papyrus) con el fin de cuantificar y aumentar la remoción de partículas suspendidas presentes en el agua muestreada por medio de la filtración. La filtración (proceso desarrollado en los prototipos de columnas horizontales) no es el único método utilizado para el proceso de clarificación de las muestras obtenidas de diferentes puntos del río, se pueden utilizar otros como lo son la floculación (proceso cuyo principal componen es el yeso en cantidades especificas), la oxidación (mismo proceso que la floculación solo que aquí el componente principal es el agua oxigenada) y la combinación de ambas, buscando obtener resultados óptimos utilizando la cantidad mínima de material. Para establecer conclusiones es necesario tener parámetros a evaluar, los cuales se obtendrán de los resultados arrojados de las pruebas de pH, turbidez y solidos totales aplicadas a las muestras, ya sea de entrada (control) y a las que ya se les ha aplicado el método de clarificación.


CONCLUSIONES

Una vez comparados los resultados obtenidos de las pruebas realizadas, se determinó que con las muestras clarificadas se obtuvieron mejores índices de pH, turbidez y sólidos totales que con las muestras de control; aun así, estos índices no cumplen con lo establecido en la norma NOM-127-SSAI-1994, por lo que se seguirán realizando pruebas para encontrar una solución eficaz y eficiente al proceso de clarificación.
Garcia Beltran Julio Alfredo, Universidad de Sonora
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

REFUERZO DE HIDROGELES ACRíLICOS CON CELULOSA NANOCRISTALINA DE FIBRA DE AGAVE TEQUILANA WEBER VARIEDAD AZUL


REFUERZO DE HIDROGELES ACRíLICOS CON CELULOSA NANOCRISTALINA DE FIBRA DE AGAVE TEQUILANA WEBER VARIEDAD AZUL

Garcia Beltran Julio Alfredo, Universidad de Sonora. Vazquez Escalante Diana Laura, Universidad de Sonora. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los hidrogeles por sus propiedades fisicoquímicas pueden ser útiles en operaciones de separación en la biotecnología, el procesamiento de productos agrícolas, materiales súper-absorbentes, sistemas de administración de fármacos y biomateriales en general. Sin embargo, muestran propiedades mecánicas generalmente pobres debido a la naturaleza aleatoria de las reacciones de entrecruzamiento de polímeros y su alta absorción de agua, lo que limita su uso en diversas aplicaciones. Debido a lo anterior, en la síntesis de hidrogeles es necesario buscar nuevas estrategias para la incorporación de agentes de refuerzos naturales o sintéticos. La zona metropolitana de Guadalajara junto con el estado de Jalisco produce una gran cantidad de planta de agave azul (agave tequilana weber variedad azul), el cual este produce el tal llamado tequila. En esta investigación se trató de utilizar la celulosa del agave azul para darle diferentes características a los hidrogeles, el cual se dará una mayor dureza.



METODOLOGÍA

Se hicieron hidrogeles con una consistencia de 40% monómero y 60% agua, con una fase polimérica 50/50, de los cuales se hacia una solución con diferentes composiciones, de los cuales fueron de 0%, 0.05%, 0.1% y 0.2% de celulosa nanocristalina, en el cual se determinará la mejor composición para las necesidades que se necesiten. Para la creación de los hidrogeles se hizo una solución de 20 mililitros con las diferentes sustancias: Acido acrílico Acrilamida. n-metilenbisacrilamida Agua destilada. Bencil alfa Nanocritales de fibra de agave tequilana weber variedad azul. Después de obtener nuestra solución se coloca bajo un foco de ultravioleta de aproximadamente de 500 nanometros de longitud de onda, de los cuales empieza el proceso o lavado para poder hacer xerogeles; primero se secan hasta llegar casi un peso contante; después se sumergen en agua destilada, para poder eliminar el monómero sobrante; para después secarlos hasta llegar casi a un peso contante. Ya obteniendo xerogeles, se podrá comenzar a determinar la cantidad de agua que puede absorber los hidrogeles, esto pudiendo hacer una cinética de los hidrogeles y poderle hacer las diferentes caracterizaciones necesarias para el estudio de estas.


CONCLUSIONES

Se obtuvieron 96 hidrogeles en total; con 24 hidrogeles por cada composición, en el cual obteniendo los xerogeles se seleccionaron los 7 mejores hidrogeles por cada composición, para poder hacer cinética, en el cual se sumergieron por determinado tiempo los cuales fueron: Primer día: cada 10 minutos durante 8 horas. Segundo día: cada 20 minutos durante 8 horas. Tercer día: cada 30 minutos durante 8 horas. Por cuestión de tiempo y factores no asociados del cual no se pudo hacer el programa pactado, en el cual tuvimos todos los objetivos, pero se pudo hacer:   Se hizo cinética de las composiciones de 0% y 0.05% de celulosa. Se hizo reología de 6 hidrogeles de la composición de 0%, de los cuales determinamos el módulo de Young y punto de quiebre de los hidrogeles. Por ya antes dicho, por los factores no asociados, no se pudo completar los estudios necesarios, de los cuales fueron pactados en el programa.
Garcia Bucio Graciela, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes

DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.


DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.

Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes. Garcia Bucio Graciela, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Tinajero Juan Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Sanchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las MIPYMES independientemente del sector en el que se analicen, es evidente que se han convertido en un factor indiscutible para el crecimiento económico de nuestro país, sin embargo, debido a la mala planeación, escases de recursos, mala administración financiera entre otros factores se han posicionado en el sector como uno de los más desalentadores en términos de consolidación y crecimiento a corto mediano y largo plazo, en datos de la encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas (ENAPROCE), presentado por el INEGI(2015), nos muestran que el promedio de vida es menor a los 2 años, sumándole que el 75% de las mismas no logra consolidarse o desaparecen de manera definitiva en el mismo lapso de tiempo, datos alarmantes que nos invitan a realizar una retrospectiva minuciosa a fin de subsanar los errores cometidos en el pasado con la finalidad de fortalecer de manera holística a las empresas y a los stakeholders que forman parte de esta importantísima cadena de valor. La presente línea de investigación se centra principalmente en conocer si los modelos actuales para la elaboración de proyectos de inversión, contienen los elementos necesarios para el correcto uso de los emprendedores que les permitan tener una visión certera del panorama de sus inversiones, por último y con el fin de dar solución al problema, es necesario el desarrollo y aplicación de un modelo de inversión con el objetivo de conocer si impacta en el éxito o fracaso de las micro, pequeñas y medianas empresas agroindustriales del estado de Michoacán.



METODOLOGÍA

IDEA: Al iniciar se tomó en cuenta a donde se pretendía llegar con este proyecto, que beneficios daría  y por lo tanto la realización que este mismo tendría y así concretar la idea para el comienzo del trabajo. PLANTEAMIENTO DEL PROBLEMA: Para su elaboración en primer lugar se tomó en cuenta la factibilidad que tendría la investigación durante el tiempo que se estaría trabajando, expresando el tiempo en forma real y de igual manera llegar resolver las incógnitas que se obtuvieron en la elaboración de la idea. REVISIÓN LITERARIA: Este punto es clave para para la selección y formulación que se obtendrá en la investigación, para iniciar con la revisión se analizó el estudio de los temas que tuvieran cierta  relación, teniendo una visión más teórica, aceptando información necesaria y rechazando lo innecesario. Utilizando páginas confiables. ELABORACIÓN DEL INSTRUMENTO: Se desarrolló una encuesta con el fin de obtener los resultados. HIPÓTESIS ¿El factor principal factor de fracaso de las MIPYMES en el estado de Michoacán se debe a la incorrecta o nula planeación estratégica de los proyectos? DEFINICIÓN Y SELECCIÓN DE LA MUESTRA. Encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas ENAPROCE (2015), representan un total de 3505 empresas en total.


CONCLUSIONES

Se observa en la investigación elaborada una contribución a obtener información de las MIPYMES del estado de Michoacán, donde actualmente en la región de Los Reyes de Salgado se encuentra conformado en su mayoría por microempresas, estas empresas se caracterizan por una escasa formación de desarrollo de las habilidades empresariales, insuficientes sistemas de información, problemas de comercialización, bajo control administrativo y deficiente análisis mercadológico. Es por ello que para que una empresa sea exitosa y ampliamente competitiva se debe regir bajo un plan de negocios; tomando en cuenta los análisis y planes al momento de crear la empresa y hacerla crecer. Se llevó acabo el análisis de la relación que existe entre el éxito competitivo de cuatro factores relacionados con el ambiente interno y externos de las MIPYMES, específicamente en las áreas de: administración, técnicas, mercadológicas y financieras. Estas cuatro áreas mencionadas anteriormente son eficaces al momento de su desarrollo. Resultados obtenidos: un 64% de las empresas gira entorno a servicios en donde se enfoca como principal éxito en la cuestión de oferta y demanda de productos puesto que incrementa las ventas y sus precios los fijan de acuerdo al costo. En las agroindustrias encuestadas no elaboran ningún tipo de plan que garantice el éxito puesto que el 59% cree que no es útil planear los aspectos mercadológicos, así mismo el 61% dijo que no es de utilidad la elaboración de un plan financiero. Solo por abarcar algunos resultados, sin embargo en las 29 preguntas de la encuesta en su mayoría se obtuvieron resultados alarmantes.
García Cabrera Pedro Antonio, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2


DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2

Francisco Cuautenco Ramiro, Instituto Tecnológico Superior de Huauchinango. García Cabrera Pedro Antonio, Instituto Tecnológico Superior de Huauchinango. Hernandez Velazquez Jonathan Ricardo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en fabricar un prototipo de las herramientas que tiene el droide tipo R2-D2, esto con fin de crear una réplica a tamaño real con todos los movimientos que se pueda realizar, de igual manera el diseño tendra sus debidas modificaciones, pues el droide presenta distintas herramientas en los diseños encontrados que presentan errores, incongruencias de pocision y funcionamiento. Ya teniendo los diseños, pruebas de electronica y mecanica del driode se creara un prototipo para una empresa especialisada en animatronicos.



METODOLOGÍA

Semana 1 Metodología: Se nos dio un curso de técnicas básicas, intermedias y avanzadas del programa SolidWorks en el cual aprendimos a realizar operaciones, planos y ensambles más complicados.     Semana 2 Metodología: Se hicieron medidas e investigaciones de las posiciones donde irían las piezas, se hicieron diseños a partir de los ya existentes, modificándolos para que el funcionamiento pudiera ser acorde a lo necesitado, las piezas que se nos dieron a realizar fueron: Pinzas que funcionaran con servomotor Sierra circular Brazos de interfaz a computadoras ( Solo realizando operación de salida y entrada al Droide) Dispositivo de entrada y salida de los brazos Propulsores    Semana 3 Metodología: Mediante SolidWorks se crearon los diseños, al constantemente presentar errores, se iban cambiando hasta perfeccionar los diseños, al igual se siguieron tomando medidas para establecer un límite de tamaño en fusión del movimiento de salida de la pieza, asi como también se tomaron en cuenta las medidas de motores a usar y herramientas que no fueran a ser impresas.   Semana 4 Metodología: A la hora de hacer impresiones notamos errores en los ensamblajes, dándonos a entender que necesitábamos una diferencia en piezas que fueran ensambladas a presión de al menos .3 milímetros, haciendo entonces que se cambiaran parte de los diseños, así como también rediseñar las partes que tuvieran desperdicio de material debido a extrucciones inservibles.   Semana 5 Metodología: Se comenzó por hacer impresiones de prueba y de esta forma ver los errores de impresión, errores de ensambles, etc. Y de esta forma ir cambiando y reimprimiendo las piezas hasta perfeccionarla.   Semana 6: Metodologia: Continuando con las impresiones de prueba y cambios en los diseños para su perfección, debido a lo tardado de la impresión de las piezas ( De 1, hasta 7 horas) se avanzó lento, pero en lo que algunas piezas se imprimían, otras se revisaban y se programaban los servos a utilizar


CONCLUSIONES

Las piezas que se hicieron para los brazos del droide se realizaron lo mas fieles a los diseños existentes, esto con la ayuda de las habilidades obtenidas en los cursos de SolidWorks y la ayuda de los compañeros de trabajo. Las impresiones en 3D tienen un diseño que ahorra material y que a su vez cuentan con estetica, presentando un modelo presentable y economico en cuanto a gasto de material de impresion se refiere.
García Candelario Ana Patricia, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato

ESTIMACIóN DE REDUCCIóN DE COSTOS EN LA DISTRIBUCIóN DE MAQUINARIA AGRíCOLA UTILIZANDO UN PRONóSTICO DE SUAVIZACIóN EXPONENCIAL.


ESTIMACIóN DE REDUCCIóN DE COSTOS EN LA DISTRIBUCIóN DE MAQUINARIA AGRíCOLA UTILIZANDO UN PRONóSTICO DE SUAVIZACIóN EXPONENCIAL.

García Candelario Ana Patricia, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El taller de Villagrán desconoce la cantidad de dinero que se ahorra año con año en la transportación de  maquinaria agrícola desde que implementó el estudio optimización de distribución de maquinaria agrícola en zonas de operación en el año 2014.



METODOLOGÍA

Para determinar de una manera eficiente la cantidad que se quiere conocer, es necesario decretar un modelo  que nos ayude a calcular de manera exacta el pronóstico que estamos buscando.  Por ello, es importante conocer.  ¿Qué es un pronóstico y cuál es su propósito? Pronosticar es predecir eventos (usualmente futuros) desconocidos. Los pronósticos proporcionan la información de entrada para el proceso de toma de decisiones.    El propósito de pronosticar es reducir el riesgo en la toma de decisiones. Las técnicas de pronóstico se dividen en 2 grupos: cuantitativas y cualitativas o tecnológicas.   Existen 6 condiciones esenciales que determinan la técnica que se utilizará: El horizonte que se contempla. El nivel de detalle. El número de productos u objetos que se debe predecir. El uso del pronóstico. (si es para control o planeación).   El costo del pronóstico. La existencia o inexistencia de un proceso de planeación. Considerando entonces todos estos criterios, se determina que la técnica a utilizar será la cuantitativa ya que nuestro pronóstico requiere de datos históricos y el uso será de planeación.  Dentro de esta técnica, existen diferentes métodos para pronosticar los cuales son los siguientes: Promedio simple. Promedio ponderado.    Suavización exponencial. Suavización exponencial doble. Estacional multiplicativo. El método a utilizar será el de suavización exponencial, ya que este método no necesita de gran volumen de datos históricos de la demanda.  Cabe destacar que es el método de pronóstico más usado tanto por pequeñas como grandes empresas, debido a que la formulación es sencilla, pues solo requiere el pronóstico anterior, la demanda real del periodo de pronóstico y la constante de suavización. En nuestro caso esta última será tomando en cuenta la inflación. Por lo que la fórmula para calcular  nuestro pronóstico de ahorro quedará de la siguiente manera: Xj = ( CR - CPL ) ( 1 - i )                 (1) Dónde: Xj= Ahorro proyectado para el año j, donde j=2014, 2015,2016,…, n. CR=Costos Reales de trasportación de maquinaria del año anterior al que se quiere pronosticar. CPL=Costos utilizando la programación lineal  en  trasportación de maquinaria del año anterior al que se quiere pronosticar. i= Tasa de Inflación del año que se quiere pronosticar. Con la aplicación de la ecuación (1), se pudo realizar el pronóstico de los últimos años, así como darnos cuenta que efectivamente la inflación causa un gran impacto en los costos de distribución. Ahora bien, para evaluar este proyecto, se utilizará el método más conocido para evaluar proyectos de inversión a largo plazo, el VPN (Valor Presente Neto), ya que nos permite determinar si una inversión cumple con el objetivo básico financiero: MAXIMIZAR la inversión. Para ello, será  necesario aplicar fórmula dos veces, la primera tendrá que ser tomando en cuenta los costos reales y la segunda será  tomando en cuenta los costos que se tienen al utilizar programación lineal.   Considerando en ambas ocasiones una TIR del 5%. Una vez aplicada la fórmula del VPN, si comparamos los resultados obtenidos podemos observar de manera más clara el gran impacto que generó el haber  aplicado  la programación lineal en el taller.


CONCLUSIONES

Gracias a la elaboración de este trabajo el taller de Villagrán ahora tiene una fórmula que le ayuda a determinar los pronósticos de ahorro que tendrá los próximos años en la distribución de maquinaria agrícola con exceso de dimensiones a las zonas de operación.  Así mismo con el desarrollo del presente, el taller de Villagrán logró darse cuenta de manera muy detallada la gran cantidad de dinero que se ahorró desde que decidió implementar el estudio de programación lineal, lo cual ahora puede decir resultó una muy buena inversión.   Por lo que podemos concluir se cumplió con el objetivo de estudio.
García Carbajal Yasmín, Instituto Tecnológico de Morelia
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA


SISTEMA DE CONTROL DE ACCESO Y MONITOREO POR RFID PARA LA COORDINACIóN DE TECNOLOGíAS PARA EL APRENDIZAJE DEL CENTRO UNIVERSITARIO DE LOS VALLES DE LA UNIVERSIDAD DE GUADALAJARA

Alomía Hernández José Ramón, Universidad Veracruzana. Ayala Padilla Abraham, Instituto Tecnológico Superior de Ciudad Hidalgo. Cardona Martínez Salvador, Universidad de Guadalajara. García Carbajal Yasmín, Instituto Tecnológico de Morelia. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la identificación por radiofrecuencia (RFID) es una de las tecnologías con mayor crecimiento dentro de la industria de las tecnologías de la información y las comunicaciones (TIC) y de la identificación automática. En este contexto, RFID es una tecnología que puede utilizarse en un amplio espectro de aplicaciones, tales como control de acceso, seguimiento, seguridad, control de inventario, logística, entre otros. El objetivo es optimizar el control de acceso a los servidores garantizando la estadía de los equipos en el área de trabajo mediante el monitoreo constante, utilizando la tecnología RFID    para administrar eficientemente horario de entradas y salidas del personal.



METODOLOGÍA

El acceso por RFID se llevará a cabo a través de un Arduino Nano usando los siguientes componentes: • Módulo RFID RC522. • ESP8266-01. • Buzzer. • Led. • Reguladores de voltaje para 5V y 3.3V. • Cerradura eléctrica /Motor DC. • Sensor magnético. Se pretende desarrollar el módulo de acceso haciendo uso de ESP8266 debido a su bajo coste potencia de conexión y transmisión de datos, por lo que no es necesario hacer uso de una Raspberry Pi para la transmisión y evolución de datos de los usuarios. Una vez finalizadas las pruebas de funcionamiento y conexión en Protoboard se pasará a hacer el diseño de circuito impreso o PCB, se conseguirá o creará una carcasa para el circuito para finalmente realizar la conexión eléctrica-electrónica del circuito. El ESP8266 es la parte esencial de el modelo de acceso ya que a través de el el sistema RFID puede acceder al servidor y consultar el tag que se está leyendo en el momento y permitir el acceso. El sistema cuenta con las siguientes características: Comunicación Serial entre Arduino Nano y ESP8266 lo que permite tener una comunicación a internet. Comunicación I2C para LCD lo que permite ahorrar gran cantidad de pines y sólo utilizar los destinados a I2C Sensor magnético para mandar una notificación cuando la puerta haya sido abierta o cerrada, no basta con tener el acceso permitido desde el identificador RFID. Generalizando el funcionamiento de software y comunicación se encuentran los siguientes pasos para hacer la autenticación. El sistema está en espera de una lectura de tarjeta. El usuario acerca la tarjeta de identificación al sistema y este envía una señal hacia el ESP8266 a través de sus puertos seriales para así realizar una petición al servidor del tag. Se comprueba el acceso realizando una conexión con la API en la raspberry, verificando si el tag se encuentra entre los usuarios registrados dentro de la dirección URL. De ser así se manda un pulso eléctrico a la cerradura y esta debe ser desbloqueada. Una vez abierta la puerta el campo magnético del sensor desaparecerá y notificará al servidor que la puerta ha sido abierta. El sistema tendrá una espera de 7 segundos después de que el campo magnético del sensor de abra para dar tiempo al usuario para que cierre la puerta, de no ser así el buzzer emitirá un sonido constante y no permitirá que se ingrese otro tag hasta que el sensor magnético detecte que la puerta ha sido cerrada correctamente. De esta manera se puede implementar fácilmente una aplicación móvil o web de análisis de datos para monitorear qué es lo que está ocurriendo con los módulos en distintos puntos así como poder hacer la autenticación a través de las aplicaciones, sin necesidad de tener una tarjeta magnética, sólo la autenticación escolar.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los componentes y equipos necesarios para el monitoreo constante de los servidores, sin embargo, al ser un extenso trabajo sólo se logró llegar a un prototipo funcional con la contrachapa. Los diseños de los PCBs están listos para ser enviados a maquilar para que después se les suelden los componentes y por último ser instalado en la puerta.
García Castañeda Cathleen Daiana, Instituto Tecnológico del Valle de Morelia
Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia

RESIDUOS AGRíCOLAS LIGNOCELULOSOS COMO PRECURSORES DE CARBóN ACTIVADO PARA LA ELIMINACIóN DE HERBICIDAS PRESENTES AN AGUA.


RESIDUOS AGRíCOLAS LIGNOCELULOSOS COMO PRECURSORES DE CARBóN ACTIVADO PARA LA ELIMINACIóN DE HERBICIDAS PRESENTES AN AGUA.

García Castañeda Cathleen Daiana, Instituto Tecnológico del Valle de Morelia. Maya Sánchez Alejandra, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia



PLANTEAMIENTO DEL PROBLEMA

Existe una extensa preocupación por la presencia de plaguicidas organoclorados presentes en el agua residual agrícola, ya que estos contaminantes provocan serias afectaciones a la flora, fauna y seres humanos al ser consumidos en concentraciones pequeñas, debido a esto es necesario desarrollar nuevas tecnologías para la remoción de este tipo de compuestos. Por ejemplo; un elemento presente en los plaguicidas es el 2,4 diclorofenol el cual produce afectaciones al ser inhalado o absorbido por la piel, tales como irritaciones y quemaduras, en casos extremos la muerte. Existen varias tecnologías para la remoción de estos componentes tóxicos entre ellas la adsorción cuyo elemento de mayor importancia es el material adsorbente como el carbón activado. Debido a lo anterior la finalidad de este trabajo fue desarrollar un carbón activado a partir de desechos agrícolas lignocelulosos y probarlo en la remoción de 2,4 diclorofenol presente en solución acuosa. Lo anterior se llevó a cabo determinando las condiciones de tiempo y temperatura de carbonización, así como la relación entre la masa y el agente activante. El carbón activado fue caracterizado determinando grupos funcionales y distribución de carga. Finalmente se determinó el efecto del pH en la remoción de 2,4 diclorofenol.



METODOLOGÍA

El carbón activado a partir de residuos agrícolas fue preparado activando el desecho agrícola con una solución de cloruro de zinc a relaciones molares entre la masa y el agente activante de 1, 2.5 y 3.5. Posteriormente la mezcla fue calcinada en una mufla a una temperatura de 500 C durante 44 minutos, finalmente el carbón fue enjuagado repetidas veces y secado a 80 °C durante 24 horas. Los materiales fueron caracterizados determinando sitios ácidos, básicos, carboxílicos, fenólicos y lactonicos mediante titulaciones potencio métricas. La distribución de carga y el punto de carga cero se determinaron mediante equilibrio de pH. Por otra parte, se determinaron los datos experimentales de las isotermas de adsorción a diferentes pH en reactores en lote a temperatura y volumen constante. La máxima capacidad de adsorción se obtuvo determinando concentraciones iniciales y finales mediante espectrofotometría de uv visible y llevando a cabo un balance de masas.


CONCLUSIONES

Los resultados preliminares muestran que es posible sintetizar carbón activado a partir de un residuo agrícola lignoceluloso de gran abundancia, el carbón activado obtenido muestra relativamente buena eficiencia en sus propiedades mecánicas y cierta característica hidrofilica. La concentración de sitios ácidos totales varió con respecto a la relación molar entre la masa y el agente activante siendo estas de 1.56, 1.70 y 1.63 mmol/g para las relaciones de 1, 2.5 y 3.5 M, respectivamente. Además se encontró que la densidad de sitios básicos totales 2.5519, 2.9880 y 2.8696 mmol/g para las relaciones de 1, 2.5 y 3.5 M, respectivamente. Los puntos de carga cero se encontraron a valores de pH de 5.77, 5.66 y 5.67 para las muestras con relaciones de 1, 2.5 y 3.5 M. Lo anterior indica que se favorecerán la remoción de cationes o de compuestos de carácter positivo a valores mayores a los puntos de carga cero como el 2,4 diclorofenol. Finalmente, se encontró que la capacidad de adsorción es altamente dependiente del pH de la solución. La remoción de 2,4 diclorofenol aumenta al aumentar el pH de 5 a 9 teniendo una máxima capacidad de adsorción 97 mg de contaminante removido/g de material utilizado, a una concentración en el equilibrio de 80 mg/L y 25°C. Los resultados muestran que es factible utilizar este carbón activado en la eliminación de compuestos tóxicos presentes en agua residual agrícola.  
García Contreras José Guadalupe, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIóN DE LOS RECURSOS HíDRICOS DE LA CUENCA DEL LAGO DE CUITZEO POR MEDIO DE EVALHID


EVALUACIóN DE LOS RECURSOS HíDRICOS DE LA CUENCA DEL LAGO DE CUITZEO POR MEDIO DE EVALHID

García Contreras José Guadalupe, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El lago de Cuitzeo es uno de los lagos más antiguos del mundo y el segundo cuerpo de agua más grande de la República Mexicana, además, es de gran importancia para la región, ya que contribuye a regular el clima de la cuenca; además es sustento y hábitat de diversas especies acuáticas. Forma parte de la red hemisférica de reservas para aves playeras como sitio de categoría regional. ​ La economía local depende, en gran medida, de la pesca de charal, carpa, mojarra y tilapia, así como de la caza de rana. Además, la agricultura de la zona usa el agua del lago para el cultivo de maíz, sorgo, avena, trigo y hortalizas. Según el Instituto Nacional de Ecología y Cambio Climático, la cuenca del lago de Cuitzeo se encuentra en una situación de extrema alteración con respecto a su dinámica funcional.​ Esto tiene que ver con diversos aspectos perturbadores, como la desmesura en la desviación y extracción de agua para fines agropecuarios y pecuarios, la contaminación urbana y por medio de fertilizantes, la tala ilegal, además de problemas asociados al cambio climático, es por esto que se ve la necesidad de realizar un balance hídrico para poder determinar la cantidad de agua que se genera en los diferentes afluentes de la cuenca, la precipitación que se infiltra y la que se evapotranspira. La finalidad que tiene éste estudio es conocer la extracción que se tiene en el lago, ya sea para abastecimiento, requerimiento de aguas para cultivos, evaporación, etcétera. Para así mismo conocer el volumen mínimo de agua para mantener el lago o en el mejor de los casos poder recuperarlo.   



METODOLOGÍA

La gestión en los recursos hídricos en México tiene un gran rezago si lo comparamos con otros países como España o Suiza, por ende, la información para poder evaluarlos es limitada y en algunos casos obsoleta. Es por esto que se recurre a diferentes métodos de modelaciones matemáticas donde interviene también la probabilidad y la estadística. Al inicio del verano se empezó delimitando la zona de estudio partiendo de un punto de salida para poder generar la cuenca de estudio, conociendo que la cuenca es endorreica, se sabe que el punto de salida se encuentra dentro del Lago de Cuitzeo donde convergen la mayoría de corrientes. Para lograr delimitar nuestra zona nos apoyamos del software ArcGIS, el cual es una herramienta para la captura y análisis de información geográfica donde nos arrojó una superficie de estudio de 4003 kilómetros cuadrados. Para poder realizar mapas donde podamos representar de mejor manera la investigación, requerimos de modelos digitales de elevación que son descargados del Instituto Nacional de Estadística y Geografía (INEGI) y shapes obtenidos de la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (CONABIO). Para el análisis de la climatología recopilamos información de la base de datos climatológica nacional (sistema CLICOM), donde descargamos la información del registro histórico de precipitaciones y temperaturas de 88 estaciones cercanas a la cuenca de estudio. Una vez obtenida dicha información iniciamos con el proceso de validación de estaciones, el cual consta de someter la información de cada estación a diferentes pruebas de homogeneidad, tendencia y persistencia donde bajo un criterio establecido pudimos elegir aquellas estaciones que cuentan con la información suficiente y de calidad para realizar la modelación ya que muchas de las estaciones cuentan con un periodo de registro corto o con muchos vacíos de datos. El resultado de estas pruebas arrojó que solo 44 estaciones nos servirán para proceder con nuestra modelación. Como ya se había mencionado, las estaciones cuentan con vacíos de datos, por lo tanto, se debe hacer un llenado de estaciones, esto junto con la aplicación de las pruebas para la validación de información se logró apoyándose en un programa desarrollado por estudiantes de la Maestría de los Recursos Hídricos (UMSNH) llamado GESTAD. El llenado se puede realizar por diferentes métodos de probabilidad y estadística, en este caso se usó principalmente por los métodos de isoyetas (IDW), regresión múltiple y regresión lineal. Con los datos ya capturados hasta el momento se analizan los periodos en los que coinciden la mayoría de datos entre cada estación para poder ingresarlos al software EvalHID. Al realizar esta discretización entre estaciones sólo resultaron 14 estaciones con un periodo de registro de precipitaciones que va de 1981 a 2006, por último, para poder realizar la modelación, se procede a descargar la información de las estaciones hidrométricas ubicadas dentro de la cuenca, esta información se descargó del Sistema de Información Hidrológica de Morelia (SIHM), una plataforma de datos elaborada por ingenieros miembros del Departamento de Hidráulica de la UMSNH y a recopilar los shapes de las subcuencas y puntos de salida de cada una de éstas con apoyo de ArcGIS. Se trabajará en desarrollar el modelo y obtener los datos de precipitación efectiva, escurrimiento y evapotranspiración real.


CONCLUSIONES

Durante el periodo de trabajo en esta estancia, se han obtenido conocimientos en diferentes softwares para la gestión integral del agua, de igual manera se han ido obteniendo más conocimientos sobre el área de investigación y mejorando los que ya se tenían, sin embargo, se presentaron algunos problemas con la validación y llenado de datos, lo cual no nos permitió avanzar de la manera prevista, además de que el estudio que se ha ido realizando es bastante extenso por la información recopilada y la cuenca a modelar, es por esto que no se pueden mostrar los resultados obtenidos. Se continuará trabajando hasta terminar la modelación donde se espera obtener datos con cierta similitud a los obtenidos en otras modelaciones hechas con otros softwares de los que se tiene registro en diferentes trabajos de tesis a nivel licenciatura y maestría elaborados en el Departamento de Hidráulica de la UMSNH.
García Delgado Evelyn, Universidad de Colima
Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)

FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL


FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL

García Delgado Evelyn, Universidad de Colima. Solís Salazar Luis Diego, Universidad de Colima. Vázquez Polanco Mario Alejandro, Universidad de Colima. Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las espumas metálicas es un tema de creciente importancia, no sólo por las ventajas que presentan estos materiales para una amplia gama de aplicaciones en diseño ingenieril, sino además por la variabilidad que suelen exhibir sus propiedades mecánicas y por lo compleja e imprecisa que puede llegar a ser su caracterización, por lo que se buscan nuevos métodos de obtención para mejorar su calidad y reproducibilidad.



METODOLOGÍA

El presente estudio muestra la elaboración y caracterización de las propiedades mecánicas de las espumas base 90% Zinc -  10% Aluminio de celda cerrada a 0.5 mm/min como velocidad de deformación. Como parte del análisis, se han realizado ensayos cuasiestáticos de compresión en la prensa de carga Master Loader 5030 en el laboratorio de materiales de la Universidad Nacional de Colombia (UN) sede Manizales, siguiendo la norma ASTM E9-89a mediante probetas de diámetros medios de 45 mm y alturas del 80% del diámetro, como se establece en la norma mencionada. Se ha realizado la elaboración de moldes con concreto refractario, así como la preparación de la aleación Zn-Al10% mediante los cálculos previos para el pesado del material. Se fabricaron metales porosos por infiltración de rellenos removibles, siendo un método nuevo empleado por los investigadores de la UN. Las pruebas de compresión se realizaron a tres espumas metálicas con diferente tamaño de grano de NaCl (2.4 a 3.4 mm, 3.4 a 4.4 mm y 4.0 a 4.8 mm). El tratamiento de datos se llevó a cabo en Excel y Origin 8.5.1 para el cálculo de las propiedades mecánicas (módulo de elasticidad, esfuerzo de fluencia, esfuerzo de meseta, deformación de densificación y absorción de energía).


CONCLUSIONES

Se han trazado las curvas esfuerzo-deformación unitaria (σ-ε) de la espuma metálica para la velocidad de deformación utilizada, con una carga de 50 KN en un tiempo medio de 45 minutos. Se evaluó su capacidad de absorción de energía por deformación, siendo la espuma III (tamaño de poro de 4.0 a 4.8 mm) la que mostró mejores resultados en las pruebas de compresión, con propiedades prometedoras para su uso en absorción de energía de impacto en automóviles, con lo que se comprueba la importancia del tamaño de poro y la densidad como principales factores en la capacidad plástica de los metales celulares obtenidos.  
Garcia Fuentes Jose Francisco, Instituto Tecnológico de Colima
Asesor: Dr. José Ángel Cabral Miramontes, Universidad Autónoma de Nuevo León

EVALUACIóN DE LAS PROPIEDADES MECáNICAS DE RECUBRIMIENTOS NANOESTRUCTURADOS WC-CO UTILIZADOS EN LA INDUSTRIA AERONáUTICA


EVALUACIóN DE LAS PROPIEDADES MECáNICAS DE RECUBRIMIENTOS NANOESTRUCTURADOS WC-CO UTILIZADOS EN LA INDUSTRIA AERONáUTICA

Garcia Fuentes Jose Francisco, Instituto Tecnológico de Colima. Asesor: Dr. José Ángel Cabral Miramontes, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existe una gran variedad de aleaciones y materiales con buenas propiedades mecánicas, térmicas y de alta resistencia a la corrosión para la elaboración de turbinas, cajas de engranes, trenes de aterrizaje de aviones, etc. Sin embargo, estas aleaciones pueden tener un costo muy alto y en algunos casos dañan al medio ambiente. En este sentido, están surgiendo nuevas tecnologías para conseguir materiales con alta resistencia al desgaste y a un costo accesible, un ejemplo de estas tecnologías son los recubrimientos con base de WC-Co. Dichos recubrimientos han demostrado que la adición de partículas nanoestructuradas como VC, WC y una combinación de cristales de WC de tamaño micrométrico y nanométrico han presentado buenas propiedades mecánicas en los recubrimientos. Los recubrimientos nanoestructurados WC-Co aplicados por un rociado térmico HVOF son actualmente sustitos satisfactorios de cromo duro en trenes de aterrizaje de aviones, barras hidráulicas, válvulas de bola, rodillos de impresión, etc. En la presente investigación se pretende aportar información de las propiedades mecánicas que puede tener las diferentes combinaciones de polvos micro y nano estructurados WC-Co fabricados por diferentes tipos de flamas contra un material nanoestructurado comercial.  



METODOLOGÍA

La metodología para la preparación de los recubrimientos fueron los siguientes: Adquisición del sustrato (Acero inoxidable 304), los polvos de WC (comerciales micro y nano estructurados) y los polvos de VC (polvos comerciales). Limpieza con sand blast para remover óxidos y grasas en la superficie del sustrato. Mezclar las 8 diferentes combinaciones de los polvos WC-Co. Montar la pistola HVOF en brazo robótico con la finalidad de controlar la velocidad transversal. Regular la flama (Reductora, Estequiometrica u oxidante)  de la pistola HVOF. Aplicar el recubrimiento sobre el sustrato. Después de obtener los recubrimientos, se procedió a realizar la metalografía, la cual consiste en los siguientes pasos: Corte transversal de las muestras en tamaños de 1x1x1/4 de pulgada para facilitar el manejo de estas. Montaje en baquelita hecha de una resina fenólica. Desbaste con lijas de carburo de silicio de grano 80, 320, 500, 800, 2400, 4000.  El pulido final se hizo con paño y alúmina. Para remover contaminantes (alúmina y otras impurezas sobre la superficie), las muestras se pasaron a una limpieza ultrasónica. Después se le paso alcohol y se le seco con una pistola de aire para evitar que se oxide las muestras.   Al finalizar la limpieza ultrasónica de las muestras, se procedió a analizar las muestras y los polvos con los que fueron fabricados en el microscopio electrónico de barrido (MEB) y posteriormente se hizo un ensayo de microdureza Vickers a los recubrimientos. Las condiciones para el ensayo Vickers, consistió en usar un probador de dureza Vickers modelo Wilson Hardness 402 MVD con una carga de 100 N.m, con un tiempo de 10 segundos y un indentador piramidal de diamante. Se hicieron 15 mediciones en diferentes lugares del recubrimiento y se procedió a sacar un promedio. La porosidad se obtuvo con ayuda de las imágenes obtenidas en el microscopio electrónico de barrido (aumento de 1000x) y un software de nombre “IMAGEJ” con la versión 1.52a se realizó el análisis de la porosidad en los recubrimientos.


CONCLUSIONES

Se obtiene mayores durezas cuando se usa una flama Estequiometrica en la mayoría de las combinaciones de polvos. Se obtiene una mayor porosidad cuando se usa una flama reductora. Se obtuvieron durezas HV100 de entre 1200 y 1550 para las diferentes combinaciones de polvos micro y nano estructurados de WC-Co. Se observa en el MEB que la morfología de los polvos micro y nanoestructurados es semiesférica con presencia de partículas satélite en el caso del polvo microestructurado.
García Galindo María del Carmen, Universidad Autónoma del Estado de México
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

IMPLEMENTACIóN DE UN SISTEMA TUTOR INTELIGENTE EN EL CURSO PROPEDéUTICO DE INGRESO A LA UNIVERSIDAD AUTóNOMA DE AGUASCALIENTES.


IMPLEMENTACIóN DE UN SISTEMA TUTOR INTELIGENTE EN EL CURSO PROPEDéUTICO DE INGRESO A LA UNIVERSIDAD AUTóNOMA DE AGUASCALIENTES.

García Galindo María del Carmen, Universidad Autónoma del Estado de México. Morales Hernandez Virginia, Universidad Autónoma del Estado de México. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Actualmente la duración de un curso propedéutico presencial no es suficiente para resolver todas las dudas que los alumnos se plantean, debido a que el grupo es amplio lo cual evita que se les brinde la misma atención a todos los estudiantes, generando así que muchos de ellos se queden con dudas que a corto plazo les ocasionan problemas y lagunas de confusión en su formación académica, evitando que su progreso sea exitoso. Por lo anterior, durante el verano de investigación se continuó con el desarrollo de un sistema tutor inteligente que permite llenar estos posibles vacíos que se generan por la falta de tiempo del docente para atender de manera personalizada a un estudiante cuando los grupos son numerosos o bien cuando el estudiante está tomando el curso a distancia. El contar con una herramienta de apoyo inteligente elaborado con objetos inclusivos le permitirá al docente mejorar su proceso de enseñanza-aprendizaje en beneficio de cada alumno, reflejándose en el rendimiento académico de ellos.



METODOLOGÍA

El estudio se llevó acabo en la Universidad Autónoma de Aguascalientes en el departamento de Ciencias de la Computación, con los alumnos de nuevo ingreso a la Carrera de Ingeniería en Computación Inteligente.  Se realizaron estudios exploratorios sobre Sistemas Tutores Inteligentes (STI) y plataformas de Sistemas para la Gestión del Aprendizaje (LMS), seleccionando los más adecuados para el desarrollo de un sistema tutor inteligente. Posteriormente se evaluó la calidad de los materiales instruccionales realizados en la primera etapa del proyecto, basándonos en una rubrica de evaluación de objetos de aprendizaje (OA). Con base a los resultados obtenidos en el proceso anterior, se desarrollaron nuevos objetos de aprendizaje categorizados por tipos de aprendizaje en los cuales se incorporaron materiales instruccionales.  Los nuevos materiales se desarrollaron en la plataforma Exelearning, debido a que es un editor XHTML que permite la creación de contenidos e-learning, además de ser fácil de utilizar y bastante flexible para exportar, importar y reutilizar contenidos, permitiendo crear cursos digitales completos. Estos recursos se llevaron a cabo considerando el nivel de conocimiento categorizado en básico, intermedio y avanzado, cada uno enfocado a las tres preferencias de aprendizaje siguientes, auditivo, textual y visual, además, a los objetos de aprendizaje se les implemento un chat de dudas elaborado con apoyo de Dialogflow, mediante el cual el alumno puede preguntar todas las interrogantes que le surjan respecto a algún tema del curso. Los materiales instruccionales elaborados se agruparon en objetos de aprendizaje, mostrando temas de la carrera de Ingeniería en Computación Inteligente, quedando de la siguiente forma:  el curso básico aloja temas de programación básica como son: Algoritmo, Diagrama de Flujo, Variables, Lenguajes de programación, Entornos de programación, Operadores, Condicionales y Ciclos. El curso intermedio explica temas enfocados a Programación Orientada a Objetos (POO), tal como:  Funciones, Clases, Objetos, Métodos, etc y el curso avanzado se enfoca en temas de desarrollo web, tal como HTML y HTML5, CSS y CSS3, PHP, etc.  Una vez concluido el desarrollo de los OA , se importaron a la plataforma Schoology de forma que en conjunto actúan como un LMS. Es importante mencionar que los resultados de la medición del nivel de conocimientos, así como la identificación de estilo de aprendizaje se obtuvieron de la implementación de un chatbot, el cual mediante una entrevista al estudiante determina que tipo de curso es el más adecuado para él. Mencionando que los estilos de aprendizaje considerados para este proyecto se establecieron con base al modelo de Felder-Silverman que clasifica las preferencias de aprendizaje en 4 dimensiones de las cuales solo se tomaron en cuenta las de estilo visual o verbal, activo o reflexivo. Cabe destacar que esta fase se desarrolló por otro equipo de trabajo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la forma en que trabaja un STI, permitiéndonos desarrollar e implementar uno enfocado al curso propedéutico de programación impartido en la Licenciatura de Ingeniería en Computación Inteligente dependiente de la Universidad Autónoma de Aguascalientes, clasificando y aportando a los alumnos recursos de apoyo con base a su nivel de conocimientos y estilo de aprendizaje, mencionando que también se desarrolló un chatbot de dudas apoyado en técnicas de inteligencia artificial, el cual se implementó a todos los OA. Se espera que cuanto mejor y mayor sea la atención educativa y apoyo que se les brinde a los alumnos de nuevo ingreso en la resolución de sus dudas e impartición de temas de forma personalizada, su formación académica sea cada vez mas encaminada al éxito, inculcando en ellos el aprovechamiento positivo del uso de los avances tecnológicos, manteniéndolos a la vanguardia educativa y tecnológica.
García Gálvez Leslie, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. María Elena Calderón Segura, Universidad Nacional Autónoma de México

DROSOPHILA MELANOGASTER COMO MODELO BIOLóGICO PARA DETECTAR DAñO EN ADN INDUCIDO POR CONTAMINANTES AMBIENTALES.


DROSOPHILA MELANOGASTER COMO MODELO BIOLóGICO PARA DETECTAR DAñO EN ADN INDUCIDO POR CONTAMINANTES AMBIENTALES.

García Gálvez Leslie, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. María Elena Calderón Segura, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Drosophila melanogaster cepa Oregón, es una mosca silvestre de la fruta, conocida por ser un modelo biológico ya que tiene un 75% de homología de sus genes con los del ser humano. El mapa genético es pequeño, por lo que hace que el trabajo sea más fácil, ya que cuenta con tan solo 8 cromosomas. El manejo de esta especie es fácil por los siguientes motivos: Tamaño, pocos cromosomas ya mapeados y su ciclo de vida se integra en 4 estadios: huevo, larva (primer, segundo y tercer instar de larva), pupa (pre pupa, pupa), adulto, esto es controlado en un ambiente promedio el cual consta de 10 días a una temperatura de 25° C. Mantenimiento. Se emplean tubos falcon donde se vierte el alimento previamente preparado; el alimento esta compuesto de harina, levadura,  sacarosa, agar-agar  y ácido propiónico. La preparación del alimento consiste de la mezcla de los ingredientes mencionados con 375 ml de agua regular, la mezcla debe calentarse durante 15 minutos evitando la fermentación de la levadura, la mezcla es vertida en los tubos Falcón y  tapado con algodón el cual permite el acceso de oxígeno al tubo, se deja reposar el alimento en el refrigerador, después de 30 minutos se recambia el alimento.  



METODOLOGÍA

Diferenciación de sexo entre D. Melanogaster. La Hembra tiene las siguientes características:    Mayor tamaño, terminación del abdomen puntiaguda, pigmentación del abdomen transparente, sin peines sexuales.     El macho tiene las siguientes características: Menor tamaño, erminación del abdomen redondo, pigmentación del abdomen obscura, pelos sexuales ubicados en las dos primeras  patas. Manipulación  y extracción de ovarios de D. Melanogaster.  Se colocan las moscas cepa  Oregon en un tubo Falcon a 4° C durante 20 min, para asegurar  que están durmiendo e identificar   a las hembras y separar a los machos en otro tubo; para disectar los ovarios, con unas pinzas se sujetan las moscas y por la parte media se hace una incision  para extraer los ovariosy mantener en amortiguador de fosfatos (PBS, PH 7.0) Exposición vÍa oral de D. Melanogaster  cepa Oregon   insecticida cetoenol Envidor Preparación del alimento con plaguicida. En pedazos de papel aluminio previamente esterilizado se pone levadura, se agregan una concetración de a50, 80,  110 y 140 µM en  bolitas de alimento que tenga una buena consistencia que no esté seca ni pegajosa.  Tratamiento de la cepa con el plaguicida. Grupos de  10 hembras en tubos  Falcon con el alimento previamente elaborado con el plaguicida se expusieron  a 50, 80,  110 y 140 µM por 72 horas analizar el daño en el ADN en las células ováricas  mediante el ensayo cometa alcalino.


CONCLUSIONES

  Ensayo cometa alcalino: Se realiza una mezcla de células ovaricas de de todos los grupos experimentales así como, el  testigo negativo con 80 μL de agarosa de bajo punto de fusión (0.5 %) a  37°C, se colocanen un portaobjeto  con una capa de agarosa normal (1 %,) (dos laminillas por organismo). Los portaobjetos de dejaran solidificar a 4°C durante 5 minutos. Posteriormente, las laminillas serán sumergidas en una solución de lisis final fría (2.5 M NaCl, 100 mM EDTA, 1 % Triton X-100, Tris, pH=10)  por 1 hora. Transcurrido este tiempo, las laminillas serán sumergidas en amortiguador alcalino frío (300 mM NaOH y 1 mM EDTA pH 13), en una cámara  electroforesis horizontal durante 20 minutos para permitir el desenrollamiento del ADN. Posteriormente, se realizará el corrimiento por 20 minutos a 25 V y 300 mA, inmediatamente, las laminillas se lavarán tres veces por 5 minutos cada uno con amortiguador neutralizante (0.4 M TRIS pH=7.5). Las laminillas se   fijarán en metanol absoluto frío por 10 min, posteriormente se secarán a temperatura ambiente y se guardarán en una caja obscura para su posterior observación. Para evaluar el daño en el ADN, se tiñen laminillas con 50 µL del colorante Gel Red (4 µg/ml) para cuantificar en 150 núcleos, los cometas (núcleos con fragmentación del genoma) y obtener longitud de la cauda (la distancia entre el primer y último fragmento de ADN), b) momento de la cauda (la longitud de la cola ponderada por el porcentaje de ADN de la cola) y c) intensidad de la cauda (el porcentaje de ADN en la cola) en el microscopio de epifluorescencia Nikon Eclipse equipado con un filtro de excitación (515-560 nm) y un filtro de barrera (590 nm) a 40X usando el software Comet IV (Perceptive Instruments) [4-6]. CONCLUSIONES Drosophila melanogaster, es un oraganismo adecuado para los estudios de Genotoxicidad Ambiental , ya que su mantenimiento y resproducción es fácil, rápido y barato. Debido al tiempo, no fue posible recopilar los resultados.
Garcia Garcia Jose, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

EFECTO DEL APORTE TÉRMICO DEL PROCESO GMAW (MIG-MAG) SOBRE EL ANCHO Y PENETRACIÓN DEL CORDÓN DE SOLDADURA EN UN ACERO ASTM A36


EFECTO DEL APORTE TÉRMICO DEL PROCESO GMAW (MIG-MAG) SOBRE EL ANCHO Y PENETRACIÓN DEL CORDÓN DE SOLDADURA EN UN ACERO ASTM A36

Garcia Garcia Jose, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En los últimos años,  la industria de  Construcciones metálicas, Industria naval, industria automotriz y de procesamiento, entre otras, han requerido una mejora en el proceso de soldadura GMAW debido a que comúnmente presenta problemas  como son:  porosidad en soldadura, perfil de cordón inadecuado, falta de fusión, entrega de hilo defectuoso relacionado con la instalación y mantenimiento de los equipos. Cualquiera de los problemas anteriores  podría arruinar la unión  de soldadura y causar algún accidente, por esto se ha optado por hacer pruebas y posteriormente analizar la microestructuras de diferentes probetas y así poder obtener los parámetros necesarias para una buena soldadura y de esta manera aprovechar las propiedades de la soldadura y el material base.



METODOLOGÍA

La composición química material que es un  ASTM A36 es un máximo de C con 0.26%, P con 0.04% como máximo, S con 0.05% como máximo, Si con 0.4% como máximo y Cu con 0.2% como mínimo  y la soldadura que aplico fue por medio del proceso GMAW, el gas protector que se utilizó en las probetas fue un gas activo (CO2). El materia se adquirió en placa por lo cual se hicieron cortes y de esta manera se obtuvieron probetas con dimensiones de 3.35 cm de longitud, 1.01 cm de ancho y 0.61 cm de espesor. Se analizó la microestructura del material base (ASTM A36), para esto las superficies de este material fueron preparadas metalográficamente mediante desbaste grueso y fino con lijas de grano desde la 80 a la 1500 para después pasar a la etapa de pulido con alúmina en un disco con paño a continuación, se procedió a atacar la pieza químicamente con nital al 3% durante 5 segundos y así obtener la superficie deseada para analizar en un microscopio posteriormente se hicieron ensayos de dureza del material en una maquina rockwell. Al terminar de analizar la microestructura del acero, se procedió aplicando cuatro cordones de soldadura en una placa de ASTM A36, el primer cordón fue hecho por arrastre sin oscilación, el segundo fue hecho por empuje y sin oscilación, los otros dos cordones fueron hechos uno por arrastre y con oscilación y otro por empuje y con oscilación, se continuo haciendo cuatro cortes en la placa para extraer cada uno de los cordones (probetas)  y posteriormente en cada una de las probetas se hizo un corte por la mitad en la zona afectada por la soldadura, se continuo analizando la microestructura de la probeta, para esto se prepararon las superficies metalográficamente mediante desbaste grueso y fino con lijas de grano desde la 80 a la 1500, posteriormente se continua con la etapa de pulido con alúmina en un disco con paño y después se atacó químicamente con nital a la 3% durante 5 segundos, para finalizar  el análisis resultante fue hecho mediante microscopia en la superficie previamente seleccionada y pulida de la zona afectada por la soldadura.


CONCLUSIONES

Las uniones son de suma importancia en la industria para poder aprovechar las propiedades de 2 o más materiales. El proceso de soldadura GMAW  es uno de los más importantes y más utilizados en la actualidad, ya que es un proceso de soldadura fácil de utilizar, y con una buena eficiencia. En las pruebas realizadas se observaron varias características que se considera importante destacar para una buena soldadura con este proceso: Se  obtuvo una dureza de 47 rockwell A. El ancho del cordón dependerá de la velocidad con que se empuje o se arrastre  la antorcha o porta electrodo. La penetración del material dependerá del voltaje y los amperios a los que se trabaje. La soldadura aplicada por arrastre tiene una mayor penetración que la aplicada por empuje. Se considera importante calibrar la maquina con los parámetros adecuados para que la soldadura sea buena.
Garcia Garcia Luis Fernando, Universidad de Guanajuato
Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit

GENERADOR DE ENERGíA. GRANJA SOLAR EN LA UTN


GENERADOR DE ENERGíA. GRANJA SOLAR EN LA UTN

Garcia Garcia Luis Fernando, Universidad de Guanajuato. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit



PLANTEAMIENTO DEL PROBLEMA

La Universidad Tecnológica de Nayarit se encuentra ubicada en el municipio de Xalisco, Nayarit , México. Actualmente su oferta educativa consta de 11 carreras de técnico superior universitario e ingenierías y licenciaturas, así como el desarrollo de estudios, proyectos y programas en beneficio de la comunidad. Su compromiso y la calidad de sus programas educativos la han posicionado como una institución líder en el estado lo que le permite albergar actualmente a 3890 alumnos. Por lo que se ha implementado proyectos de infraestructura en los espacios académicos. Hoy en día la Universidad Tecnológica de Nayarit, cuenta con instalaciones de primer nivel y tecnología de punta, los cuales le permiten al alumno practicar en la escuela lo que vivirá en el mundo laboral, dándole así una educación integral en teoría y práctica. Los trabajos de infraestructura surgen de la necesidad de optimizar y aprovechar de una mejor manera los recursos, con este fin la UT Nayarit comienza a trabajar con una red de colaboración basada en la creación de energía limpia a partir de celdas fotovoltaicas las cuales permiten el autoabastecimiento de energía eléctrica. La necesidad de optimizar el recurso de energía eléctrica surge a partir del año 2011 en el cual la universidad tecnológica de Nayarit registro un consumo de 1,255,625 Kw equivalente a $2,503,700.00 registrado como el mayor consumo de energía eléctrica desde el año 2001, debido a la demanda de alumnos atendidos en dos turnos. Desde 2012 hasta ahora la UTN ha realizado diversos trabajos de sustentabilidad los cuales engloban a grandes rasgos campañas de concientización ambiental, modificaciones en la infraestructura y la implementación de generadores de energía durante el año 2018 lo que le ha permitido a la Universidad bajar el consumo por alumno y optimizar los costos por consumo de energía, aun cuando el costo de kW no es constante sin contar el incremento constante anual en cobertura de alumnos atendidos. La generación de energía eléctrica ha resultado tan eficiente no solo en el ámbito económico debido a su alta eficiencia se ha logrado una producción anual de energía fotovoltaica de 83.33 Mwh dando pauta a nuevos proyectos.  Por lo que en 2019 la UT busca implementar el abastecimiento de energía eléctrica mediante una granja solar dando inicio con la segunda etapa de este proyecto el cual constara de un Generador 250 Mwh, con aproximadamente 500 paneles solares los cuales además servirán como cubierta del estacionamiento IV, anexo al edificio de rectoría.



METODOLOGÍA

El trabajo que se presenta a continuación tiene la finalidad de realizar un análisis cualitativo que nos permitirá a preciar la viabilidad de implementar la segunda etapa de paneles solares en la universidad Tecnológica de Nayarit .Siguiendo con los pasos de la metodología de investigación hemos podido apreciar que uno de los retos a los cuales se enfrenta la Universidad Tecnológica de Nayarit es la implementación de nuevas estrategias que le permitan mejorar las condiciones de infraestructura todo esto con el objetivo de optimizar y administrar el gasto de energía eléctrica. Estos trabajos se derivan de un alta en el gasto de consumo de energía eléctrica.La complejidad de los trabajos de implementación radica principalmente en que la Universidad Tecnológica de Nayarit se ha consolidado como una institución líder en el estado y es eminente que su matrícula de alumnos atendidos por año va en aumento lo que significa cambios en el consumo y gasto de energía eléctrica sin contar factores externos a la institución como lo es la notable tarifa dinámica que se maneja por el costo de kW esto se ha convertido en un reto para los trabajos de sustentabilidad que la universidad tiene a bien realizar.Basados en un análisis energético de consumo y gasto, de aumento de matrícula estudiantil y tomando como referencia los resultados obtenidos de la primera etapa de implementación de paneles solares resulta ser información valiosa y de gran ayuda para poner en marcha los trabajos para la implementación de la segunda etapa de paneles solares en dicha institución educativa. Con esto se pretende que dicho proyecto sea una alternativa sustentable y sostenible con un alto beneficio social y económico.En cuanto a las condiciones de diseño e instalación se buscará que cumplan con los requerimientos necesarios para conseguir los objetivos deseados del proyecto. El proyecto constara de una estructura metálica que se propone va a estar situada sobre la superficie de asfalto del estacionamiento IV, anexo al edificio de rectoria con esto se pretende que esta estructura no solo permita la colocación de módulos fotovoltaico, sino que al igual brinde el servicio de protección a 106 cajones de estacionamiento lo similar a cubrir aproximadamente 4600 m2.El diseño de dicha estructura está basado en una estructura similar ubicada en la ciudad de Tepic la cual tienen la función de cubrir las islas de un estacionamiento, al igual se busca que la estructura proporcione un buen anclaje del generador fotovoltaico ante condiciones meteorológicas adversas.


CONCLUSIONES

La implementación de la segunda etapa de paneles solares en la Universidad Tecnológica trae consigo un gran beneficio social y económico. La UTN está en constante cambio cada día se enfrenta a nuevas situaciones las cuales se deben abordar de la mejor manera no quiere decir que la implementación de paneles solares será la solución para resolver los problemas referentes al gasto de energía debemos planear las situaciones y evaluarlas para obtener mejores resultados.En conclusión gran parte la viabilidad del proyecto se encuentra en la sostenibilidad del mismo y en los recursos que se obtengan de instancias gubernamentales para para su ejecución ya que hablamos de costos y estos se elevan considerablemente por los factores enumerados anteriormente y porque pertenecemos a un sistema complejo, caracterizado históricamente por condiciones de inequidad en la asignacion de los recursos financieros necesraios, para que la UTN afronte las condiciones sociales presentes en el entorno multiculturalde la región occidente de nuestro país.
Garcia Hernandez Alondra, Instituto Tecnológico de Toluca
Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)

ANáLISIS ESTRATéGICO DE LA IMPLANTACIóN DE UN SISTEMA DE GESTIóN ENERGéTICA BAJO LA NORMA ISO 50001


ANáLISIS ESTRATéGICO DE LA IMPLANTACIóN DE UN SISTEMA DE GESTIóN ENERGéTICA BAJO LA NORMA ISO 50001

Garcia Hernandez Alondra, Instituto Tecnológico de Toluca. Nolasco Saucedo Arely Margarita, Instituto Tecnológico de Toluca. Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)



PLANTEAMIENTO DEL PROBLEMA

El consumo de energía mundial no ha dejado de crecer en las últimas décadas, como refleja el último informe de la Agencia Internacional de la Energía (IAE, 2017). La energía se ha convertido en una métrica fundamental para las empresas, en particular las industriales ya que el ahorro de energía significa menos costes operativos y mayor eficiencia energética, o sea una mayor competitividad. Además,la reducción del consumo de energía también implica la reducción de emisiones de gases de efecto invernadero y un mayor cuidado de los recursos naturales y el medio ambiente.  Un SGEn puede definirse como una metodología para lograr la mejora sostenida y continua del desempeño energético en las organizaciones en forma de optimización de los costes y el impacto ambiental y social. La implementación de un SGEn no debe entenderse como un objetivo en sí, sino que lo verdaderamente importante son los resultados del sistema. La norma UNE-EN ISO 50001:2018, facilita el establecimiento de los sistemas y procesos necesarios para mejorar la eficiencia energética en las empresas, ampliar la utilización de fuentes de energía alternativas, así como ayudar a las organizaciones que la implementen a reducir las emisiones de gases de efecto invernadero (GEI) y otros impactos ambientales relacionados, entre otras medidas. Esta norma internacional está basada en los elementos comunes de las normas ISO de sistemas de gestión, asegurando un alto grado de compatibilidad principalmente con las normas UNE-EN ISO 9001:2015 (Sistema de Gestión de la Calidad) y UNE-EN ISO 14001:2015 (Sistema de Gestión Ambiental). Asimismo, se estudian las pautas necesarias para un adecuado establecimiento de la línea de base energética, necesaria para la implementación de la norma UNE-EN ISO 50001:2018.  Esta norma, como otras normas de la ISO, está basada en el ciclo: Planificar-Hacer-Verificar-Actuar (PHVA), también conocido como Ciclo de Deming o Ciclo PDCA (por sus siglas en inglés: Plan, Do, Check, Act), que se debe llevar a cabo de forma sistemática para lograr una mejora continua en la empresa. El objetivo de esta investigación es hacer un seguimiento en las empresas industriales de la implementación de un Sistema de Gestión de la Energía (SGEn), de acuerdo con el estándar internacional ISO 50001. La relevancia del estudio radica en conocer el impacto de su implementación en este tipo de empresas, empleando una serie de herramientas de obtención de datos, enfocadas a directivos y gestores, en las decisiones y resultados empresariales en términos de eficiencia de los procesos de gestión, costos, productividad, beneficios, imagen, impacto ambiental, responsabilidad social, etc.  Se estudiarán las empresas de España en lo general y de Andalucía en lo particular, en sus distintos sectores industriales para así conocer su nivel de satisfacción con respecto a los beneficios que les ha traido la implementación de un Sistema de Gestión de Energía. 



METODOLOGÍA

Para conocer y cuantificar dicho impacto se emplean una serie de herramientas de obtención y análisis de datos, enfocadas a directivos y gestores, en la decisiones y resultados empresariales. En primer lugar, se ha definido el marco contextual, en el cual se concretan los fundamentos teóricos en que se la investigación. Se realizó un análisis de la eficiencia energética, los SGEn y la Huella de carbono. Posteriormente, se explicó lo que supone obtener la certificación de la norma UNE-EN ISO 50001:2018 en una organización, los requisitos que se exigen y las implicaciones estratégicas y operativas. Finalmente, se realizó un análisis del sector industrial español, con sus correspondientes características. En cuanto al marco práctico de este trabajo, se llevará a cabo el análisis sobre la implementación y certificación de los SGEn en las empresas, en particular las del sector industrial, incidiendo en sus consecuencias a nivel estratégico. Para ello, se distinguen las siguientes etapas: Realizar un proceso de búsqueda de empresas industriales, localizadas en España, que tenga certificada la norma UNE-EN ISO 50001:2018. Analizar la información obtenida y estudiar el impacto, de lo que conlleva tener implementado un SGEn en las organizaciones, diferenciando las ventajas e inconvenientes que las empresas puedan encontrar tras su implementación.  Realizar un informe sobre los resultados y conclusiones obtenidos, proponiendo posibles mejoras aplicables a los SGEn. Se propondrán líneas futuras de trabajo donde se comparará la situación de Andalucía con la de otras regiones españolas, y en un contexto internacional.


CONCLUSIONES

En conclusión, la implementación de la norma ISO 50001 ha tenido mayor impulso en los últimos años en la industria española, sin embargo es necesaria una mayor difusión para lograr que más empresas sean acredoras a esta certificación para el beneficio tanto de las empresas como de las comunidades en las que se encuentran.  Con está investigación se espera que más empresas se vean motiviadas a adoptar un Sistema de Gestión de Energía gracias al análisis de los beneficios que las organizaciones han presentado después de la implementación de esta certificación. El siguiente paso es recibir las respuestas de la encuesta y analizar los resultados, para un posterior  informe final en el que se detalle la información recibida, dando a conocer el impacto y beneficios que los SGEn han tenido en las empresas que han decidido implemtnetarlo, tomando en cuenta los factores que favorecen o dificultan la implantación de estos.
Garcia Jaquez Cynthia, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Juan Carlos García Castrejón, Universidad Autónoma del Estado de Morelos

DETERMINAR LA POTENCIA DE UNA MICROTURBINA EÓLICA DE 10W DE EJE VERTICAL EN FUNCION DEL NUMERO DE ALABES.


DETERMINAR LA POTENCIA DE UNA MICROTURBINA EÓLICA DE 10W DE EJE VERTICAL EN FUNCION DEL NUMERO DE ALABES.

Garcia Jaquez Cynthia, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Carlos García Castrejón, Universidad Autónoma del Estado de Morelos



PLANTEAMIENTO DEL PROBLEMA

A lo largo de los años, la humanidad ha generado exceso de contaminación que se presenta en el planeta. Una de las causas de contaminación es la quema de combustibles fósiles por lo que es importante cambiar y fomentar el uso de energía renovable y así disminuir el consumo de combustibles que dañan al medio ambiente, por ello en esta investigación se busca encontrar cual es el número de álabes de una microturbina eólica de eje vertical adecuado para generar con mejor eficiencia, una mayor potencia mecánica para que así se implemente el uso de ella y contribuir al uso de energías renovables.



METODOLOGÍA

Se realizó una investigación, usando Dinámica de Fluidos Computacional (CFD), de una microturbina eólica de eje vertical en función de tres, cinco y siete álabes con el fin de determinar cuál de ellas genera con una mejor eficiencia, una mayor potencia para aprovechar lo más posible la energía cinética del aire y generar electricidad. Como anteriormente fue mencionada esta investigación se realizará con el uso de CFD ya que se refiere al análisis del movimiento de los fluidos mediante la solución numérica de las ecuaciones determinan el movimiento de los fluidos (Ecuación de continuidad, Ecuaciones de Navier-Stokes Promediadas de Reynolds -RANS-, modelos de turbulencia para el flujo). Para la realización del análisis con CFD se realizaron las siguientes etapas en Ansys Workbench y Fluent: 1) Creación de la geometría de la microturbina eólica y su mallado, 2) Solución numérica usando CFD en Fluent y 3) Análisis de los resultados obtenidos (Calculando la potencia y la eficiencia). La microturbina eólica de eje vertical que se investigara en este proyecto es una turbina Darrieus tipo H, ya que presenta algunas ventajas como: requerimiento de una menor altura ya que puede aprovechar vientos de baja velocidad, mayor eficiencia en comparación con las demás turbinas eólicas de eje vertical (VAWT), no requiere sistema para seguimiento del viento ni caja de engranajes para maximizar las revoluciones, además de ser silenciosas.


CONCLUSIONES

Mediante el uso de ANSYS FLUENT se logró realizar cada una de las simulaciones necesarias para encontrar los resultados esperados para determinar en cuál de ellas se encuentra una mayor potencia y eficiencia, por lo que la solución generada en las simulaciones nos da como resultado que a diferente número de álabes, diferente es su coeficiente de potencia, por lo tanto, a mayor número de álabes, mayor será la potencia generada en la microturbina eólica de eje vertical ya que en las simulaciones los resultados de coeficiente de potencia son mayores al aumentar el número de álabes.
García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING


MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING

Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit. García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara. Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit. Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente la ciudad conurbada de Colima - Villa de Álvarez no cuenta con registros exactos relacionados a la demanda de usuarios de transporte público, específicamente de autobuses urbanos, que existe en cada parada de los camiones a distintas horas y  días del año. Esta situación, causa ciertos inconvenientes al proveer el servicio: mayor cantidad de usuarios esperando en cada parada en horario concurrido, pérdida de tiempo de los usuarios, desperdicio de espacio y combustible en los camiones. Esto  afecta a todos los usuarios del transporte, así como a los  proveedores del servicio, lo que resulta en una problemática latente, pues los usuarios no pueden optimizar sus tiempos de traslado y los proveedores no pueden optimizar sus gastos de operación. Así mismo, teniendo una demanda real de usuarios de transporte público, se podrían realizar experimentos sobre un modelo del sistema real de autobuses, que permita probar diferentes opciones de servicio, tales como: diferentes tamaños de autobuses en diferentes horarios, cambios de precios en horas pico, incremento de la flotilla, generación de nuevas rutas, etc.



METODOLOGÍA

Este proyecto está basado en el método científico, a continuación se explica lo que se realizó paso a paso. Indagar acerca de temáticas relacionadas con IoT, Cloud Computing, Seguridad, NodeMCU, sensores de movimiento, etc. Diseñar el modelo de monitoreo y análisis de demanda de transporte público. Elegir herramientas a utilizar: placa de desarrollo y sensores. Diseñar estructura del prototipo. Montar y establecer conexiones del prototipo. Crear interfaces necesarias para comunicarse con el servidor web. Crear base de datos útil para el proyecto. Acceder a base de datos en la nube. Implantar protocolos y herramientas de seguridad al sistema. Hacer pruebas de funcionalidad al sistema. Realizar modificaciones necesarias. Documentar el proyecto.


CONCLUSIONES

En este proyecto se diseñó un modelo que permitirá la monitorización y posterior análisis de datos sobre la demanda de usuarios de transporte público, en la ciudad conurbada de Colima - Villa de Álvarez. Se implementó un prototipo de este modelo que, utiliza una conexión de red, base de datos, NodeMCU, etc. El prototipo implementado es funcional, se logró enviar información desde un push button que simula el material piezoeléctrico que cuenta las personas que suben y bajan del camión. Esta información viaja hacia un servidor local, que contiene una base de datos que almacena los datos recabados. El prototipo deja un parte aguas para que se pueda implementar el modelo en un futuro cercano, tomando como referencia los objetivos logrados hasta el momento. Así mismo, se destaca que el prototipo es de bajo costo y fácil de crear.
García López Rogelio Guillermo, Universidad de Guadalajara
Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)

ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING


ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING

Chávez Sánchez Manuel, Universidad de Guadalajara. García López Rogelio Guillermo, Universidad de Guadalajara. Zepeda Garcia Yajaira, Universidad de Guadalajara. Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito social y comercial, se sabe que el mercadeo es una parte fundamental en el comercio, en cualquiera de los entornos comerciales en los que nos desenvolvemos. Desde automóviles, marcas telefónicas, entretenimiento deportivo, ropa, etc.; en cada ámbito comercial existió previamente una investigación en la que las grandes compañías analizan el objetivo de su producto, las ventajas que ofrece, las novedades que trae y sobretodo, se analiza la forma en que se ofrece dicho producto a los consumidores. En este estudio, hablaremos de un concepto relativamente nuevo, que ha ido apareciendo en la mercadotecnia gracias a la tecnología, el Neuromarketing aproximadamente desde los años 1971. Esta rama, que combina la ciencia biomédica con la mercadotecnia, trata de analizar los distintos potenciales bioelétricos, al reaccionar a diversos estímulos utilizados en la mercadotecnia, por ejemplo: colores, anuncios, melodías, empaques, y muchas otras herramientas utilizadas en la comercialización de un producto específico.  En este contexto científico, colocamos la siguiente investigación, enfocada a la obtención de potenciales relacionados a eventos y rastreo de mirada, en este caso en colaboración con una Compañía Licorera Nacional, para la elección de etiqueta de uno de sus productos, la crema de ron.   OBJETIVO GENERAL Obtener y caracterizar las señales de Rastreo de mirada y Potenciales Relacionados a Eventos en un protocolo de Neuromarketing para la elección de una etiqueta de Crema de Ron.



METODOLOGÍA

El proyecto desarrollado se dividió en 3 fases: Para la fase 1 se hizo uso del software Spyder® para realizar la presentación aleatoria de 6 estímulos correspondientes a 3 etiquetas diseñadas por el productor de la crema de ron. La fase 2 consistió en la adquisición de las señales de 12 personas divididas en dos grupos de edad: de 20-30 y de 30-40 años, para lo cual se diseñó un protocolo que incluía el consentimiento informado, la encuesta, la conexión de 22 electrodos superficiales en el cuero cabelludo para la toma del EEG y la conexión del dispositivo Eye Tribe para registrar los puntos de mirada. Las señales del sujeto se obtuvieron antes y después de la degustación del producto. En la fase 3 del proyecto, se desarrolló una interfaz en el programa Matlab® la cual permitió caracterizar las señales de los sujetos.


CONCLUSIONES

El proyecto desarrollado permitió demostrar la eficacia del relacionamiento de las técnicas de Electroencefalografía, Eye Tracking y su complemento con instrumentos como encuestas, para los análisis del comportamiento de las personas en la persuasión a través del neuromarketing; lo cual es congruente con estudios previos encontrados en la literatura. Este tipo de estudios de neuromarketing pretenden convertirse en una herramienta primordial en las industrias comerciales, a través del estudio de la influencia cognitiva de las imágenes. De igual manera al reunir todos los datos capturados en esta investigación se espera tener una mayor certeza respecto cuál sería la mejor opción de etiqueta para la botella de la crema de ron estudiada. RESULTADOS Entre los resultados de las actividades de investigación realizadas en la pasantía, se obtuvo el desarrollo de 2 herramientas computacionales, la primera que permite la estimulación de los sujetos al presentar cada estímulo 30 veces de manera aleatoria, la segunda, correspondiente a la interfaz de usuario que permite el análisis de las señales a través de la obtención, filtrado y promediado de los datos de cada imagen. Los análisis que permite realizar la segunda herramienta computacional desarrollada, incluyen la discriminación de las diferentes frecuencias cerebrales (asociadas a actividades cognitivas específicas) y de los canales de los cuales se captura la información, además de sincronizar los datos de Potenciales Relacionados a Eventos con los datos de Rastreo de Mirada, de forma que presente al profesional de mercadeo los puntos de interés de las etiquetas que diseñaron.  
García Magallón Luis, Universidad de Guadalajara
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

ALGORITMOS COEVOLUTIVOS CON SUBPOBLACIONES FIJAS Y MEJOR GLOBAL


ALGORITMOS COEVOLUTIVOS CON SUBPOBLACIONES FIJAS Y MEJOR GLOBAL

Cortés Bárcenas Yareli, Universidad Autónoma de Guerrero. García Magallón Luis, Universidad de Guadalajara. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los algoritmos evolutivos son métodos de optimización y búsqueda de soluciones inspirados en la evolución y la supervivencia del más apto. El algoritmo de Evolución Diferencial (DE por sus siglas en inglés) es uno de los algoritmos evolutivos más conocidos y ha demostrado ser eficiente ya que ha sido probado en varias competencias académicas y en problemas del mundo real. Se han creado diversas estrategias de mutación diferencial. En este trabajo de investigación se utilizaron las siguientes: - Mutación rand/1 (algoritmo DE original) - Mutación rand/2 - Mutación best /1 - Mutación best/2 Dichas estrategias de mutación son algunas de las más reportadas en la literatura y han demostrado ser eficientes. El presente trabajo pretende desarrollar un algoritmo coevolutivo a partir del algoritmo DE y las variantes expuestas aquí, con el fin comparar la eficiencia de este contra la de cada una de sus variantes individuales.



METODOLOGÍA

Se utilizó el algoritmo de Evolución Diferencial, así como las tres variantes del mismo para crear un nuevo algoritmo cuya principal característica es coevolucionar los mismos en un mismo proceso iterativo. Se crearon dos versiones de este programa: la primera comparte el mejor global con todos los algoritmos y en la segunda cada subpoblación determina su propio mejor individuo para las operaciones que requieren de este. Se realizaron pruebas de estas dos versiones, al igual que con cada una de las versiones del algoritmo DE con la finalidad de determinar cuál es más eficiente. Cada versión se probó treinta y cinco veces, cada prueba con quinientas iteraciones; de cada corrida se almacenó el mejor global final, su posición, su fitness y la curva de convergencia. Una vez obtenidos los resultados de las pruebas se evaluaron cada uno con las siguientes métricas: - Media - Mediana - Desviación estándar Finalmente se realizó la prueba de wilcoxon para comparar los dos algoritmos realizados contra las versiones originales del DE. Los nuevos resultados se agruparon en una tabla, ordenados por función y versión de algoritmo utilizada.


CONCLUSIONES

Los resultados obtenidos muestran que ambos algoritmos mantienen un desempeño medio en comparación con los tomados de la literatura. Un punto que se observo es que ofrece su rendimiento medio a pesar de los cambios en el factor de escalamiento que dependiendo de su valor, beneficia a algunas variaciones o las perjudica. Se desea obtener un mejor desempeño de los algoritmos, por lo que se seguirá trabajando en ellos.
Garcia Muchacho Leonardo, Instituto Tecnológico de Iguala
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN


OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN

Garcia Muchacho Leonardo, Instituto Tecnológico de Iguala. Pinchao Villota Diana Carolina, Universidad Católica de Pereira (Colombia). Rios Hernández Karla Greta, Instituto Tecnológico de Iguala. Vazquez Castrejón Cynthia Itzel, Instituto Tecnológico de Iguala. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Guerrero es uno de los estados más importantes de México en cuanto a la explotación de minerales, ya que este estado es una zona rica en oro y plata por estar ubicado en el Cinturón de oro del pacifico (región que más facilidades ofrece en términos geológicos para extraer metales como oro y la plata). Esta idea surge de la necesidad que tienen las personas de este estado en querer explotar estos minerales en sus hogares para suplir sus necesidades básicas, el 60 % del territorio nacional tienen dueño, por tal motivo los microempresarios buscan asesoramiento para extraer el mineral en cuanto al contenido de minerales valiosos y de esta forma proseguir con la explotación de sus terrenos. Se requiere obtener minerales con contenido valioso (oro o plata), mediante la implementación de un proceso de optimización basado en dilución de valores y flotación de minerales.



METODOLOGÍA

Diseño y preparación de materiales y equipos Se eligió el tipo de muestras mineralógicas para su molienda y análisis metalúrgico, se realizó la rotulación de frascos para poder identificar las diferentes muestras de minerales con las cuales se va a trabajar. Para la trituración de las rocas se utilizaron herramientas como el marro y una plancha de acero como base, se hizo el proceso de molienda en el molino de mano. Teniendo la muestra reducida de tamaño (molida), se depositan en los frascos rotulados, se ordenó en números de muestras que se tuvo para procesar. Los minerales identificados son: Caliza, Andesita y Azurita. Reducción de tamaños Se redujo el tamaño de las muestras usando el molino de bolas (molienda 15 min) este proceso se lo hizo con las muestras de los minerales identificados. Se procedió al proceso de recuperación de valores metálicos, si la muestra es un oxido ésta debe diluirse en ácido nítrico al 10% para saber si tiene plata y si tiene oro se hace la lixiviación con cianuro al 10% y si es un sulfuro se somete al mineral al proceso de flotación (BULK). Ensaye por fusión (fundición) El proceso a seguir con las muestras que pasaron por dilución (cianuración) se le preparó un fundente, como resultado de la fundición de las tres muestras se obtuvo residuos de la fundición del mineral andesita y de la azurita se obtuvo algo de residuo. Además, se trabajó con una nueva muestra (concentrado I) se tienen 182.5 gr, se cuartea la muestra de concentrado alemán, por ende, 91.25 gramos pasan por dilución de valores y el resto de la muestra pasan por fundición. Por el método de dilución de valores este mineral no tuvo plata, pero al hacer el proceso de fundición se obtuvo un pequeño botón de plata. Copelación Se realiza el proceso de copelación para las muestras de las que se han obtenido pequeños residuos de algún metal valioso después de la fundición (azurita, andesita y concentrado I), para ello se necesitó: una mufla u horno eléctrico a una temperatura de 800 °C.  De la muestra concentrado alemán se obtuvo oro, su peso fue de: 0.046 gr. Apartado Se llevó a cabo: LA TEORIA DE LA ELECTRONEGATIVIDAD,ESTUDIADA POR PAULING, para ello se tuvo en cuenta la electronegatividad del cobre y plata (los dos son de 1.9) ambos elementos tienen la misma capacidad de atraer electrones hacia sí, si se los deja juntos. Se comprobó esta teoría y se fundió lo que se obtuvo. El diámetro del cobre disminuyó y se obtuvo 0.05 gr de plata después de la fundición, es decir, que se recuperó el 42% de este metal. Se comprobó la teoría de la electronegatividad de Pauling con respecto a la fuerza de electronegatividad sobre transferencias iónicas, tal es así, que también el cobre se disuelve en el ácido y forman nitrato de cobre color azul, es decir, así como deposición de la plata metálica en el cobre, en función del resultado obtenido se hizo el mismo proceso con un mineral de los que se han venido estudiando (andesita). Se hicieron cálculos para determinar el volumen de la varilla de cobre que se perdió después de la reacción con el ácido, y se concluye que se pierde un 43.4176% de su volumen. Procedimiento de flotación Se llevó a cabo la Pruebas Batch de laboratorio: se diseñó un sistema el cual consta de un taladro de columna, una celda metálica y un compresor, una vez se puso en funcionamiento el sistema  en la celda metálica se colocó agua, mineral andesita (muestra n.6), reactivo Xantato AERO 343-22%, Espumante CC-580-7p (alcohol alifático), Aerofloat 242 el tiempo de acondicionamiento fue de 10 min, se hizo control del pH, el paleteo se lo hizo cada 2 segundos (en un recipiente se colocó la espuma que resultó de la flotación). Cuando el proceso terminó se procedió a pasar el concentrado a un filtro de vacío, con el fin de obtener el mineral concentrado seco y pasarlo posteriormente a fundición, se obtuvieron 117 gramos de mineral concentrado. Se hizo la fundición y se obtuvo un botón de plomo con plata, se realizó la copelación para determinar si posee algún mineral valioso, como resultado se obtuvo un pequeño botón de plata el cual tuvo un peso de: 0.3062 gramos. Se concluye que de 1 kilo de mineral se pueden obtener 117 gr de concentrado de este mineral y de 30gr de concentrado de mineral se obtuvieron 0.3062 gr de plata. Por lo tanto, de 1000 gr (1 kilo) = 10.203 gr de plata,1 ton (1000 kg) = 10,203.3 gr de plata = 10.203 kg de plata.


CONCLUSIONES

Durante la estancia de verano científico se lograron adquirir conocimientos teóricos y prácticos en el proceso de la obtención de minerales valiosos. Se hicieron diseños de los métodos para determinar cuál proceso era el más óptimo en la obtención de metales como oro o plata de los minerales que fueron objeto de estudio, los métodos utilizados del proceso fueron: dilución de valores, la teoria de la electronegatividad estudiada por Pauling y flotación. Siendo el ultimo el más eficaz cumpliendo así el objetivo del proyecto de Optimizar el proceso en la obtención de minerales valiosos, en los procesos ya mencionados la recuperación de mineral fue mínima y en la flotación el índice de recuperación fue mayor.
García Muchacho Yitzeli Ali, Instituto Tecnológico de Iguala
Asesor: Dr. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala

CáLCULO DE SEIS SIGMA EN RACKS INDUSTRIALES


CáLCULO DE SEIS SIGMA EN RACKS INDUSTRIALES

García Muchacho Yitzeli Ali, Instituto Tecnológico de Iguala. Popoca Arellano Cristian, Instituto Tecnológico de Iguala. Asesor: Dr. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

En la actualidad muchas empresas son afectadas por perdidas económicas, las cuales no son identificadas a tiempo y son una de las causas principales del cierre de muchas. Esto en la población comúnmente afecta en despidos de personal y disminuyendo la economía de la región donde se encuentre situada. En México según el estado que se desee analizar varían las características de factores que afectan el cierre de empresas, así mismo en el estado de Guerrero en que nos encontramos cuenta con una gran variedad de actividades para sus pobladores, aunque existen factores que delimitan las actividades, este caso puede ser la delincuencia, la baja economía de la ubicación geográfica, la pérdida económica por problemas internos de la misma. Tras esto, muchas empresas por lo regular culpan en especial a la delincuencia del cierre de las mismas o porque no cuentan con una buena administración tanto de producción, mantenimiento, seguridad, logística y cadena de suministro, etc. Ligados a las normas o leyes vigentes que se ajusten al nivel de exigencia de calidad que piden los clientes. Las actividades a la que parte de la población se dedican son aquellas que se enfocan al armado y fabricación de piezas de todo lo relacionado con el acero y soldadura metálica, brevemente la actividad laboral se llama herrería, ya que sus controles son muy variados por su complejidad, es en este caso donde se aplicara el proyecto a presentar enfocado a racks industriales que posteriormente llegarán a ser ensamblados finalmente en la minera para exhibición de muestras de barrenación.



METODOLOGÍA

Se utilizo una herramienta de calidad enfocada a la industria nombrada como Seis Sigma. Esta herramienta se utiliza en empresas que desean aumentar su productividad, calidad, eficiencia, etc. A partir de defectos, quejas del cliente o personal, llamada metodología DMAIC que significa atacar el problema de raíz, sus siglas significan: Define (definir), Measure (medir), Analyze (analizar), Control (controlar), Improve (mejorar). De acuerdo a las especificaciones de los datos obtenidos con la hoja de verificación, se realizaron estimaciones con el diagrama de Pareto para la identificación de las áreas que tienen mayor problema y donde se debe de poner más atención, a partir de ello realizar la serie de tiempo donde se vacían datos históricos y se van obteniendo datos que nos ayudaran a alcanzar un objetivo. La problemática que se presentó en la empresa fue el tiempo que tardan los operarios en sacar el producto, ya que se suscitaron quejas de los clientes, para su correcto calculo se utilizó un software llamado Minitab 18 para vaciar los datos que se obtuvieron durante semanas del año en curso en la herrería Samano. El ensamble de los racks industriales consta de 4 secciones que se presentan a continuación con el respectivo tiempo medido en minutos que se tardan para su ensamble: Corte - Tiempo: 4.998 min Soldado - Tiempo: 6.933 min Resoldado - Tiempo: 14.766 min Pulido - Tiempo: 8.797 min Con ayuda del Diagrama de Pareto se resaltó la sección de resoldado que es donde se presenta la problemática tras la toma de tiempo. La toma de tiempo se calculó a una determinada cantidad de racks industriales con ayuda de un cronometro digital en el lapso de 3 meses obteniendo 60 datos de productividad que se vaciaron a la herramienta serie de tiempo donde nos arrojó los siguientes resultados y su breve significado:   Línea Base: 18.5 (Promedio de los valores históricos del KPI analizado) Mejor Resultado: 26 (El dato mayor sobresaliente de productividad) Brecha: 7.5 (Diferencia entre el mejor resultado y la línea base) 70% Brecha: 5.25 (Para que el objetivo sea alcanzable) Objetivo: 23.75 (Es una mejor practica para que el equipo de trabajo permanezca entusiasmado)   Relacionado a lo anterior se procedió a pasar a las siguientes fases de la metodología DMAIC. Posteriormente se pasó a la fase analizar que es donde se identifican las causas de variación y defectos, donde se utilizaron herramientas estadísticas que prueban que las causas son reales.   Siguiendo con la penúltima fase nombrada mejorar, es donde se determinan soluciones incluyendo niveles operativos y tolerancias, además de establecer soluciones y proporcionar pruebas estadísticas de que las soluciones funcionan.   Finalmente pasamos a la fase controlar que significa estabilizar el proceso para mantener la mejora a través del tiempo, así proporcionar pruebas estadísticas de que la mejora es continua.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca de la herrería, específicamente en los racks industriales con ayuda de la herramienta de calidad Seis Sigma que desglosa la metodología DMAIC, sin embargo, al ser un extenso trabajo aún se encuentra en la tercera fase de analizar y no se pueden mostrar los datos obtenidos. Se esperan obtener más datos para utilizar las herramientas estadísticas adecuadamente y así poder llegar a las últimas fases de la metodología mencionada para que la empresa quede satisfecha con el presente proyecto.
García Olvera Eric Osvaldo, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo

CONTROL DE INTENSIDAD DE ILUMINACIÓN


CONTROL DE INTENSIDAD DE ILUMINACIÓN

García Olvera Eric Osvaldo, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Joel Salome Baylon, Universidad Tecnológica de Manzanillo



PLANTEAMIENTO DEL PROBLEMA

Diseñar con controlador elctronico capaz de mantener la cantidad de lumens en un rango prstablecido por la NOM 025-STPS-2008, ademas de que esta pueda ser contrlado de manera inalambrica desde un smartphone.



METODOLOGÍA

Este driver está diseñado para controlar la intensidad de la iluminación, lo cual tiene como fin generar un costo menor en el consumo de la electricidad debido a que se encargara de compensar la cantidad de lumen que ingresan por las ventanas con  los emitidos por un foco led de luz blanca-amarilla manteniéndola en los estándares emitidos por la  NOM 025-STPS-2008, además de ayudar a mantener el ritmo circadiano de los usuarios en un nivel óptimo y que permita un mejor desempeño en sus actividades, el driver está diseñado con un convertidor DC-DC boost el cual se encarga de elevar el voltaje de entrada manteniendo la potencia necesaria para el foco led, este a su vez recibe las señales de disparo por un PWM el cual regulara el duty cycle con una frecuencia de 20KHz el cual puede ser manipulado desde tu smartphone por medio de una aplicacion android la cual se encarga de funcionar como interfaz HMI.


CONCLUSIONES

El controlador trabaja a 20KHz con un voltaje de 74.8 V y un amperaje de .186 A con lo cual se genera una eficiencia del 86% en el sistema, esto fue corroborado con el programa PSIM y con las pruebas correspondientes.
Garcia Ornelas Joram, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro

SISTEMA WEB PARA EL APRENDIZAJE DE LAS CIENCIAS BÁSICAS DE LOS ALUMNOS DEL INSTITUTO TECNOLÓGICO SUPERIOR DE TACÁMBARO


SISTEMA WEB PARA EL APRENDIZAJE DE LAS CIENCIAS BÁSICAS DE LOS ALUMNOS DEL INSTITUTO TECNOLÓGICO SUPERIOR DE TACÁMBARO

Garcia Ornelas Joram, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente en el Tecnológico de Tacámbaro algunos alumnos llegan con escasos conocimientos sobre las ciencias básicas o diferente bachillerato para el perfil de ingreso a unas de las ingenierías, lo que representa que exista déficit en la acreditación de las materias de ciencias básicas, por lo cual los índices de reprobación y deserción han ido aumentando, esto a generado que exista tambien un gran rezago. Es por eso que con este proyecto se quiere ofrecer como una herramienta donde los alumnos puedan tener la información y a su vez elaborar ejercicios con los ejemplos propuestos por el profesor y formulas con temas específicos, lo que fortalecerá su conocimiento. La plataforma web será responsiva  y pretende apoyar al área de ciencias básicas con la finalidad de que el propio alumno se autoevalúe, practique y obtenga más conocimientos en áreas de interés en las ciencias básicas



METODOLOGÍA

El presente proyecto consiste en crear e implementar un sistema web para el instituto tecnológico superior de Tacámbaro, el objetivo de este proyecto consiste en proporcionar el sistema web como una herramienta de apoyo ya que facilitara el aprendizaje de matemáticas básicas gracias a un curso que se llevara virtualmente, donde los alumnos podrán practicar ejercicios que serán propuestos por los docentes encargados de impartir estas materias, así como también podrán tener una autoevaluación de su progreso, al final de cada módulo se asignara la calificación de acuerdo a los criterios antepuestos por los docentes, cuando el alumno acredite un módulo se le proporciona un documento donde certifique que el alumno acredito satisfactoriamente el módulo. Este proyecto de sistemas computacionales se centra en tres ramas principales que es la programación web siendo este fundamental para el desarrollo, la rama del diseño web y la base de datos donde se registrara todos los datos relacionados al sistema web. Etapa 1: Modelado de negocio. Diagrama general de casos de uso. Diagrama genera de atividades. Etapa 2: Análisis. Requerimientos funcionales. Tiene que haber un administrador. El administrador da de alta los maestros. El administrador da de baja a los maestros. El administrador puede ver los ejercicios que el maestro propone. El administrador propone ejercicios. El administrador puede ver a los alumnos que están registrados. El administrador elegirá los ejercicios que aparecerán en una evaluación. El maestro no puede darse de baja. El maestro no puede darse de alta. El maestro puede ver a los alumnos que están en un módulo. El maestro puede proponer ejercicios para el módulo. El maestro solo puede proponer ejercicios para el modulo que se le elegido. El alumno puede ver los módulos que están disponibles. El alumno puede registrarse a varios módulos. El alumno puede autoevaluarse en cada módulo concluido. Requerimientos no funcionales. los datos no pueden ser modificados por los usuarios maestro y alumno. Los datos deben estar actualizados en todo momento. El sistema debe contar con material de apoyo para el usuario alumno. El sistema debe contar con interfaces responsivas. El sistema debe mostrar mensajes de advertencia o informativos. Las interfaces deben ser implementadas solo para navegadores web. Diagramas de casos de uso. Caso de uso iniciar cesión. Caso de uso (cerrar cesión). Recuperar contraseña. Caso de uso (Agregar nuevo usuario maestro). Caso de uso (Editar maestro). Caso de uso (agregar curso). Caso de uso (editar curso). Caso de uso (Eliminar curso). Caso de uso (Registrar alumno). Etapa 3 Diseño. Diagramas de secuencia. Inicio de sesión. Cerrar sesión. Recuperar contraseña. Agregar maestros. Modificar maestro. Crear curso Modificar curso. Eliminar curso. Registrar alumno.    


CONCLUSIONES

El presente proyecto pretende desarrollar un sistema web cuya funcionalidad pueda ayudar a los alumnos de nuevo ingreso con déficit de conocimiento en las ciencias básicas lo cual servirá como una herramienta de apoyo donde pueda practicar distintos ejercicios fortaleciendo el conocimiento. Este sistema está pensado para aumentar el índice de acreditación de las ciencias básicas en el instituto tecnológico superior de Tacámbaro, de los alumnos que van ingresando y de los que necesiten. En el sistema el alumno puede inscribirse en los módulos disponibles, cada módulo tiene ejercicios específicos, que son propuestos por los profesores, cada ejercicio propuesto es revisado por el administrador, revisando que cumpla con el tema relacionado. Los alumnos se registran e inscriben en un modulo que sea de su interés, desarrollan una serie de ejemplos y ejercicios, practicando para poder realizar una autoevaluación, una ves desarrollado el módulo, él sistema da una calificación.
García Ortega Moisés, Instituto Tecnológico de Toluca
Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)

INTEGRACIóN DE LAS FUENTES DE ENERGíA RENOVABLE CON EL SISTEMA DE GENERACIóN CONVENCIONAL


INTEGRACIóN DE LAS FUENTES DE ENERGíA RENOVABLE CON EL SISTEMA DE GENERACIóN CONVENCIONAL

García Ortega Moisés, Instituto Tecnológico de Toluca. Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La energía que se consume en el mundo proviene principalmente de los sistemas de generación convencional es, mediante combustibles fósiles. Esto ha generado impacto ambiental y socioeconómico negativo en los paises dependientes de dicho recurso, por lo tanto, las energías renovables se han considerado una alternativa para la generación eléctrica limpia, sin embargo, existen barreras que es necesario discutir y analizar para su integración en las matrices energéticas de los paises en desarrollo.



METODOLOGÍA

Se propone un modelo de simulación basado en dinámica de sistemas, una metodología que emplea ecuaciones diferenciales representadas por la toma de decisiones, para el análisis del comportamiento complejo de un mercado eléctrico conformado por sistemas de generación con fuentes renovables y con fuentes no renovables. De esta forma es posible aumentar el conocimiento acerca de su comportamiento ante distintos escenarios al variar los parámetros que lo conforman. Dicho modelo de simulación se construye mediante el software para modelado de sistemas complejos, Vensim.


CONCLUSIONES

La generación eléctrica depende del factor de disponibilidad, ya que este indica los periodos sin interrupción para la generación eléctrica, además puede ser afectado por los periodos de mantenimiento o por la escasez del recurso usado. El factor de disponibilidad gobierna el despacho de electricidad e influye directamente en la cantidad de emisiones de CO2, entonces, cuando se reduce la dependencia hacia los combustibles fósiles para la generación eléctrica, se generan las condiciones necesarias para regular el Índice de Calidad del Aire manteniéndolo en niveles estables y mitigando los efectos del cambio climático, generando así la sostenibilidad ecológica. Resulta también, que es posible abastecer la demanda energética de una población cuando su matriz energética se conforma mayormente de recursos renovables, aun a pesar de su vulnerabilidad ante la variabilidad y estacionalidad climática, sin embargo, para hacer frente a dicha estacionalidad siempre será necesario contar con sistemas de generación convencionales como respaldo. Al implementar impuestos por las toneladas de CO2 emitidas en generación eléctrica, se potencia el desarrollo e implementación de proyectos de generación limpia. Con ello, se generan las condiciones necesarias para la expansión socioeconómica, mejora de servicios, disminución del índice de pobreza y por otra parte se ayuda a erradicar el monopolio energético, ya que esto propicia la liberalización del recurso renovable para la libre generación eléctrica, además se da la posibilidad a las empresas privadas y públicos de participar en el mercado eléctrico, incentivando la inversión, desarrollo y expansión económica del país y dando lugar a la innovación y actualización tecnológica.  Por lo tanto, resulta que es posible generar las condiciones adecuadas para que los gobiernos reformen sus políticas energéticas y de esta forma, funjan como focos de atracción para el desarrollo e inversión.
Garcia Peña Erick Alejandro, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo

PROBLEMA DE OPTIMIZACIÓN DEL DESPACHO ECONÓMICO INCLUYENDO FUENTES RENOVABLES NO CONVENCIONALES


PROBLEMA DE OPTIMIZACIÓN DEL DESPACHO ECONÓMICO INCLUYENDO FUENTES RENOVABLES NO CONVENCIONALES

Garcia Peña Erick Alejandro, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Elisa Espinosa Juárez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El panorama mundial a lo largo de este siglo ha demostrado con números, una fuerte transición energética hacia las energías renovables; en particular en el caso de la energía solar, que de haber pasado de una potencia instalada de aproximadamente 8GW proveniente de energías fotovoltaica en el 2007, a la cantidad de 542GW en el 2018. Este panorama también sucede en México, ya que actualmente se tiene instalada una potencia de 22,128 MW proveniente de energías renovables, lo cual representa un 14.59% del total de la energía producida en México, esto según lo reportado por la Agencia Internacional de las Energías Renovables (IRENA) en el 2018. En este escenario, surge la problemática de cuán viable (tratando el problema únicamente desde una perspectiva económica) es realizar esta transición para los costos de producción por unidad de potencia al momento de compararlo con los costos presentados por los generadores que operan por medio de fuentes de energía convencional, es por eso que durante el verano de investigación se tratarán tópicos relacionados con el despacho económico y la integración de las energías renovables no convencionales en la solución de problemas de este tipo.



METODOLOGÍA

El despacho económico es un problema de optimización, en el que el objetivo principal es la reducción de costos de generación de energía para satisfacer la demanda de energía de un sistema eléctrico; es por eso que, dentro de los datos importantes a conocer para adentrarse en la solución de un problema de esta índole, son las funciones de costo de la operación de las unidades generadoras de que se dispone para esta actividad. Para este tipo de problema, la disposición del tipo de unidades que usualmente se consideran, son las de generación térmica, las que frecuentemente se modelan a partir de la siguiente expresión cuadrática [1]: Fi(Pi)=ai+bi*Pi+ci* Pi2…­(1) En donde, las constantes, son valores intrínsecos del generador, que son útiles para representar los costos fijos que se tienen en la unidad y aquellos que son del tipo variable y que guardan una relación con la potencia que se le exija a dicha unidad, como lo sería el combustible demandado. En el caso simplificado en el que no se consideran pérdidas en la red eléctrica, el despacho se realiza en función de la potencia demandada por la carga del sistema, por lo tanto, la potencia que se produzca en todas las unidades debe de satisfacer la potencia demanda PD y de igual manera, otro factor a tomar en cuenta son las limitantes que tiene cada unidad de generación, ya que pueden producir una potencia mínima y una máxima. Ahora bien, cuando se agrega al problema de despacho económico una unidad de generación de potencia del tipo de energía renovable eólica o solar, la formulación de la función objetivo tiene un cambio sustancial, ya que las unidades renovables no pueden ser modeladas de la misma manera como la presentada en el caso anterior con la ecuación (1). En la literatura se proponen diferentes maneras de modelar la función de costo de la operación de sistemas fotovoltaicos, por ejemplo, Saxena N. y Ganguli S. [2] proponen un costo de operación de la granja solar tomando en cuenta tres elementos, un componente de costo basado en la irradiancia solar, y otros dos costos de penalización, sin embargo, para el análisis de este caso y poder modelar la función de costos del sistema fotovoltaico se usará un procedimiento similar al propuesto por Tahirou I. et al. [3], en donde los costos se encuentran relacionados con los siguientes elementos. El arreglo fotovoltaico requiere de un capital inicial a invertir CPV, el cual se encuentra dado por el costo por metro cuadrado de la instalación de los paneles solares alpPV y el área total de la instalación (APV), teniendo así lo siguiente. PPV = alpPV * APV El costo de operación y mantenimiento anual del arreglo fotovoltaico está dado por la siguiente expresión. En donde se toma en cuenta el costo de mantenimiento por área (BPV), el área instalada (APV), una tasa anual (muPV), una tasa de interés i, y el tiempo de vida del proyecto N (en número de años). OMPV = BPV*APV*Sum[de j=1: N]((1+muPV)/(1+i))^j Se proponen en [3] otros elementos en dicho análisis, tales como el precio de la reventa y costos de remplazo, sin embargo, se omitirán en este caso. En cuanto a la producción de potencia, a partir de lo mencionado en la referida publicación, se propone la siguiente ecuación con relación a la irradiancia que se tiene por área, este valor está denotado por S(t). PPV=ePV*APV*S(t) donde (ePV), es la eficiencia de la instalación fotovoltaica. Una vez identificados los costos que se requieren para la inversión, se propone que la función de costos para el despacho económico esté en relación de las horas en las que se encuentre operando la granja solar a lo largo del tiempo que se desea recuperar la inversión. Teniendo así que este periodo comprende aproximadamente 25,550 horas en donde se toma en cuenta que por día la planta opera por 10 horas entregando su máxima potencia (150MW). Para así proponer un costo fijo de recuperación de inversión de $3,734.06, un costo de operación por hora de $592.61, y un costo por MW producido, con un valor de $3.95. Por lo tanto, la función representativa del costo de la operación de la unidad es la siguiente. FPV(PPV)=3,739.06+3.95*PPV


CONCLUSIONES

Este problema fue tratado con la finalidad de postular una ecuación para representar los costos de generación de una planta fotovoltaica, similar a la presentada por los generadores de potencia convencional, en donde se plantean los valores bajo la premisa de recuperar lo invertido en la instalación de la planta fotovoltaica en un periodo establecido en años. Por lo tanto, se reconoce como necesario investigar distintos elementos o propuestas existentes en la literatura para analizar y resolver el tema de despacho económico integrando las energías renovables no convencionales de una manera más sencilla y viable en cuestión económica.
García Ramírez Alicia, Universidad Autónoma de Occidente
Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente

SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4


SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4

García Ramírez Alicia, Universidad Autónoma de Occidente. Pérez Coronel Javier David, Universidad Autónoma de Occidente. Verdugo Barraza Oscar Eduardo, Universidad Autónoma de Occidente. Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Calcular subredes es un tema con cierto nivel de complejidad debido a su base matemática en sistema binario, por lo tanto, un sistema para apoyar el aprendizaje de este tema puede resultar de mucha utilidad. Un sistema de software es básicamente una herramienta tecnológica creada con el mismo propósito que cualquier herramienta, sirve como apoyo para facilitar la realización de una tarea, en nuestro caso la herramienta que desarrollamos es una calculadora de subredes.



METODOLOGÍA

Una metodología de desarrollo de sistemas se refiere a un entorno de trabajo usado para estructurar, planear y controlar el proceso de desarrollo de un sistema. Una gran cantidad de entornos de trabajo han evolucionado a través de los años, cada uno con sus fortalezas y debilidades. Una metodología de desarrollo de sistemas no es adecuada para todos los proyectos. (CMS, 2008). Se decidió desarrollar este proyecto de software utilizando una metodología ágil ya que esta se apega más a las necesidades del mismo; el desarrollo ágil establece sus prioridades de acuerdo a las siguientes afirmaciones: "Individuos e interacciones sobre procesos y herramientas. Software funcionando, sobre documentación extensiva. Colaboración con el cliente sobre negociación contractual. Respuesta ante el cambio sobre seguir un plan."(Beck, et al., 2001). Entre las metodologías agiles más utilizadas se encuentran Scrum, Extreme programming(XP) y Kanban, se decidió trabajar con XP, ya que, en general comparado con otras metodologías tradicionales es más rápida, ya que conlleva menos protocolo, lo que evita que existan jerarquías dentro del grupo, lo cual permite que cada integrante dentro del grupo pueda hacer aportaciones en cualquier momento, esta metodología está enfocada en resultados a corto plazo. Valores de XP Comunicación: "Prevalece en todas las prácticas de Extreme Programming. Comunicación cara a cara es la mejor forma de comunicación, entre los desarrolladores y el cliente. Método muy ágil. Gracias a esto el equipo esta pude realizar cambios que al cliente no le gustaron."(Borja, s.f, VALORES DE XP, par. 1) Simplicidad: "La simplicidad ayuda a que los desarrolladores de software encuentren soluciones más simples problemas, según el cliente lo estipula. Los desarrolladores también crean características en el diseño que pudieran ayudar a resolver problemas en un futuro."(Borja, s.f, VALORES DE XP, par. 2) Retroalimentación: "La retroalimentación continua del cliente permite a los desarrolladores llevar y dirigir el proyecto en una dirección correcta hacia donde el cliente quiera."(Borja, s.f, VALORES DE XP, par. 3) Valentía: "Requiere que los desarrolladores vayan a la par con el cambio, porque sabemos que este cambio es inevitable, pero el estar preparado con una metodología ayuda a ese cambio. Programa para hoy y no para mañana."(Borja, s.f, VALORES DE XP, par. 4) Respeto: "El equipo debe trabajar como uno, sin hacer decisiones repentinas. Extreme Programming promueve el trabajo del equipo. Cada integrante del proyecto (cliente, desarrolladores, etc.) forman parte integral del equipo encargado de desarrollar software de calidad. El equipo debe trabajar como uno, sin hacer decisiones repentinas."(Borja, s.f, VALORES DE XP, par. 5) Proceso XP El ciclo de vida ideal de XP consiste de seis fases: Beck(1999)"Exploración, Planificación de la Entrega (Release), Iteraciones, Producción, Mantenimiento y Muerte del Proyecto."(citado en Letelier, 2006, PROCESO XP, par. 3) Exploración: En esta fase, los clientes plantean a grandes rasgos las historias de usuario que son de interés para la primera entrega del producto. Al mismo tiempo el equipo de desarrollo se familiariza con las herramientas, tecnologías y prácticas que se utilizarán en el proyecto. Planificación de la Entrega: En esta fase el cliente establece la prioridad de cada historia de usuario, y correspondientemente, los programadores realizan una estimación del esfuerzo necesario de cada una de ellas. La planificación se puede realizar basándose en el tiempo o el alcance. La velocidad del proyecto es utilizada para establecer cuántas historias se pueden implementar antes de una fecha determinada o cuánto tiempo tomará implementar un conjunto de historias. Iteraciones: Está fase incluye varias iteraciones sobre el sistema antes de ser entregado. En la primera iteración se puede intentar establecer una arquitectura del sistema que pueda ser utilizada durante el resto del proyecto. Producción: La fase de producción requiere de pruebas adicionales y revisiones de rendimiento antes de que el sistema sea trasladado al entorno del cliente. Al mismo tiempo, se deben tomar decisiones sobre la inclusión de nuevas características a la versión actual, debido a cambios durante esta fase. Mantenimiento: Mientras la primera versión se encuentra en producción, el proyecto XP debe mantener el sistema en funcionamiento al mismo tiempo que desarrolla nuevas iteraciones. Para realizar esto se requiere de tareas de soporte para el cliente. Muerte del Proyecto: Es cuando el cliente no tiene más historias para ser incluidas en el sistema. Esto requiere que se satisfagan las necesidades del cliente en otros aspectos como rendimiento y confiabilidad del sistema..


CONCLUSIONES

Los resultados demuestran que una calculadora de subredes es de utilidad para el aprendizaje y la comprensión de los estudiantes interesados en el tema. En este primer prototipo funcional se alcanzaron lograr los objetivos previstos y como una mejora para posteriores versiones se prevé agregar VLSM(Mascaras de longitud variable) como otro método para calcular subredes. También se desarrolló una aplicación para dispositivos móviles que actualmente se encuentra en la fase de pruebas y mantenimiento.
García Reyes Carlos Ernesto, Universidad Autónoma de Nayarit
Asesor: Dr. Celso Eduardo Cruz Gonzalez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DISEñO Y DESARROLLO DE NIPLE PARA LA INDUSTRIA PETROLERA


DISEñO Y DESARROLLO DE NIPLE PARA LA INDUSTRIA PETROLERA

García Reyes Carlos Ernesto, Universidad Autónoma de Nayarit. Asesor: Dr. Celso Eduardo Cruz Gonzalez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La industria petrolera requiere para sus sistemas de producción y refinación, algunos componentes que no son fabricados en México, lo cual genera problemas por los altos costos de adquisición y prolongados tiempos de entrega. Esto puede repercutir en la disminución o incluso la detención de producción por periodos de tiempo largos, lo cual se refleja en pérdidas para la industria.



METODOLOGÍA

Se comenzó con la investigación y revisión de normas relacionadas con la industria petrolera, que brindaran los parámetros necesarios para la manufactura del dispositivo. Uno de los principales objetivos es la selección del material con el cual se generarán el cuerpo y componentes del niple, las normas NACE MR0175 y NACE MR0103 proporcionan los parámetros para dicha selección, en base a ellas se realizó una investigación de materiales que cumplieran con estas características, seleccionando un acero al carbono 1018 hot rolled para trabajar. Después de haber seleccionado el material se le midió la dureza debido a que es uno de los parámetros limitantes más importantes a cumplir. Teniendo la base teórica del proyecto se prosiguió con el diseño y creación de los modelos de las piezas mediante el uso de SolidWorks, al término de los mismos se continuo con la generación de los planos de trabajos. Una vez terminados los planos de trabajo se prosiguió con el mecanizado de las piezas con el uso de centros de maquinado (torno y fresadora). Por último, se realizaron las pruebas de funcionamiento y calidad.


CONCLUSIONES

Durante la estancia se obtuvieron conocimientos sobre dibujo y diseño mediante el uso de un sistema CAD, además del uso de centros de maquinado. El objetivo principal del proyecto es obtener un referente de los tiempos y procesos de manufactura de un niple para la industria petrolera. Teniendo como primer punto la selección de materiales, la creación de planos de trabajo, trayectorias de mecanizado. Con la intención de poder cumplir con la demanda de estos tipos de componentes y poder generarlos dentro del país.
García Rodríguez Alberto de Jesús, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).


PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).

Calva Perez Irving Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. García Rodríguez Alberto de Jesús, Instituto Politécnico Nacional. Rodriguez Palma Isaias, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los diferentes grados de educación se ha encontrado un interés creciente por la robótica, así como la programación lo cual ha generado una mayor demanda para los componentes y equipo de laboratorio que puedan satisfacer con esta necesidad. En el nivel medio, por ejemplo, cada vez más escuelas secundarias utilizan robots para introducir a sus estudiantes a las áreas de programación y electrónica de tal manera que despierte su interés hacia estas. Un robot es programable de tal manera que los estudiantes utilicen conceptos básicos de programación para lograr cumplir un objetivo, lo cual abre un banco de posibilidades, además de ejercitar creatividad mientras practican habilidades adquiridas en clase. En el nivel medio superior, durante este periodo los estudiantes adquieren habilidades que les permitirá desarrollarse en su carrera, por este motivo es importante que dichas habilidades sean puestas en práctica, para el caso que nos concierne son el diseño electrónico y la programación. En el nivel superior existen varias áreas en las que un robot puede ser utilizado como una plataforma de pruebas/prácticas, estas áreas dependen en específico de la carrera que se esté cursando, por lo que para el nivel superior se proponen prácticas para áreas de electrónica, programación, instrumentación y control.



METODOLOGÍA

Para desarrollar este proyecto y en base al plan de trabajo otorgado por nuestro asesor se requirió de diversos materiales, así como de diversos softwares empleados para el diseño de circuitos eléctricos Proteus 8, para modelado 3D FreeCAD 0.18 y programación de diversos lenguajes como Python Spider, PyCharm y Atom, para C++ Dev C++ y el uso Linux Plataforma Ubuntu. Primeramente, se establecieron los requerimientos con los que debía de contar el robot que se había planteado diseñar, por lo cual se estableció el uso de dos moto-reductores con rueda y encoders, tres sensores ultrasónicos, un sensor de presencia, además de implementar dos placas propiamente diseñadas una de la cuales se encargaría de la parte de potencia (para implementar la batería y el control de los motores) y la otra la cual formaría el sistema básico de un microcontrolador Atmega328 de montaje superficial. Teniendo en consideración estos requerimientos se prosiguió a desarrollar ambas placas las cuales debían cumplir con el principal parámetro de poder ser ensambladas de un tamaño de 5x5cm, esto con la finalidad de poder ser manufacturadas de manera económica. Para la placa de potencia se tomaron en consideración la cantidad de terminales para brindar alimentación, así como el uso de una terminal USB para la misma función, la implementación del puente H para el control de los motores (incluyendo diodos de protección), y un amplificador operacional para el ajuste de las señales brindadas por el empleo de dos encoders (junto con un trimmer para facilitar su uso), además de ser añadido un switch para el fácil encendido y apagado de la placa sin necesidad de desconectar la batería. Para la placa que contendría el sistema mínimo del microchip, se extendieron cada una de los pines con los que cuenta el microcontrolador para hacer más accesible el uso de los mismos, además de ser añadido un cristal oscilador de cuarzo el cual puede ser (o no) utilizado a voluntad del usuario, añadiendo un par de leds indicadores para comprobar que la placa está siendo utilizada, así como su terminal de reset. Continuando con esto se revisó el modelo 3D del robot con el cual ya se contaba y se modificó de acuerdo a las nuevas especificaciones con las que se contaban, modificando su forma y añadiendo nuevas ranuras en su superficie, además de brindar el espacio suficiente para poder añadir elementos externos en su capa superior. Se procedió entonces a realizar cada una de las pruebas y mediciones necesarias para comprobar que cada una de las terminales de ambas placas funcionara de manera adecuada y así mismo no existiera interferencia entre las mismas. De acuerdo al plan de trabajo asignado por el asesor durante todo el proceso se estuvo trabajando, instruyendo y practicando con los diferentes lenguajes de programación por medio de diversos casos prácticos proporcionados y revisando diferentes fuentes de información; trabajando de igual manera con terminales de Linux por medio de la asistencia a cursos y asesorías brindadas por el mismo asesor.


CONCLUSIONES

Durante la estancia del verano de investigación en curso, se ha logrado que los estudiantes integrados en este proyecto desarrollen y perfeccionen sus habilidades en diseño electrónico, además de haber tomado diversos cursos para conocer y expandir nuestros fundamentos de programación, como fue introducción a Linux (Ubuntu), lenguaje C y C++, además de Python. Al momento de realizar este resumen nos encontramos en la etapa de la realización de las diferentes pruebas que se deben hacerse al prototipo para comprobar cada una de las diferentes conexiones y terminales utilizadas para comprobar el correcto funcionamiento de cada una de las partes que constituyen al robot para de esta manera proceder a realizar el ensamblado completo del robot y este sea presentado de forma concluida y listo para ser utilizado.
García Rodríguez Oliver Fernando, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL


REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL

García Rodríguez Oliver Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández García Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. Sosa Uribe Astrid Belén, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es una habilidad motora compleja derivada de la interacción de varios procesos sensorio-motores (Horak et al, 1997), la inestabilidad por tanto es la reducción de esta habilidad de interacción que afecta el movimiento y la realización de actividades cotidianas, así como la capacidad de independencia de las personas, lo cual genera alteraciones en su ritmo de vida y el de su entorno. Según datos del INEGI del 2010 muestran que tan solo de la población mexicana en ese año, las personas con alguna limitación motora, visual, auditiva, psicosocial o de aprendizaje alcanzaban la cifra de 4,527,784, de esta cifra cerca del 50% sufren de problemas al caminar o moverse, concentrándose principalmente en dos grupos, siendo el primero de 60-84 años en un 40.7% y el segundo de 30-59 años en un 32.8% siendo la principal causa por enfermedad, seguido por la edad avanzada.  



METODOLOGÍA

Se utilizó un protocolo de ejercicios del área de fisioterapia proporcionado por la Universidad de Manizales en Colombia diseñado por Naranjo et al., (2014) del cual se tomaron únicamente las  actividades enfocadas a flexibilizar el sistema nervioso ideando una manera de realizar dichos ejercicios por medio de la implementación de mecánicas propias de los juegos,como un sistema de puntuación donde se suman  puntos si lo hace de manera correcta o se restan puntos si lo hace de manera errónea. Se analizaron los ejercicios del protocolo basándose en la posibilidad de implementación en un ambiente tridimensional de manera que se pudieran aplicar técnicas lúdicas. Una vez seleccionadas las actividades que se pudieran realizar aplicando lo anterior, se inició la fase de diseño y planeación de la escena dentro del motor de videojuegos Unity, utilizando SteamVR, una librería diseñada por Valve la cual nos permite trabajar con el sistema de realidad virtual HTC VIVE. Se diseñó un entorno dentro de Unity el cual consta de una casa amueblada con jardín, dentro de la cual se implementaron las actividades seleccionadas del protocolo, creando en cada escenario un sistema enfocado a controlar el comportamiento de cada elemento necesario para realizar dicha actividad utilizando scripts que son códigos en lenguaje C#. La primer actividad desarrollada fue la Actividad 1 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales superiores de ambos brazos, por lo cual esta actividad dentro del entorno del software se llevó a cabo en el patio de la casa, colocando varios objetos, entre los cuales fueron una mesa con tres tazones y árboles a los lados con frutas colgando de ellos, con el objetivo de que el paciente estuviera sentado y tomara dichas frutas y las colocara dentro de los tazones correspondientes a cada fruta.  El primer script para controlar la actividad es el que corresponde al funcionamiento del árbol, el cual cada vez que el jugador toma una fruta y la coloca en el tazón correcto, el sistema genera otra, ya sea de manera alternada, solo del lado derecho o solo del lado izquierdo según se solicite. El segundo script corresponde al control de las frutas, si la fruta cae en el tazón correcto incrementa un punto, y en caso de caer en el tazón incorrecto o en el suelo, este decrementa. El tercer script se encarga de controlar el límite máximo de flexión de los brazos del paciente, el cual por medio del control, presiona un botón para definirlo en el ambiente virtual, estableciendo la posición adecuada para generar los árboles con las frutas. La segunda actividad desarrollada fue la Actividad 4 de la Fase 1 del Día 2 del protocolo, la cual establece que el paciente de pie debe sostener un bastón tomándolo con ambos brazos subiendo y bajando, esta actividad se implementó en el jardín de la casa, y consiste en controlar un papalote por medio de la altura de un bastón tomándolo con ambos brazos subiendo y bajando, buscando evitar que dicho papalote colisione con aves que se irán generando a los costados del mismo en el cielo, además, cada que el paciente llegue a su altura máxima con el bastón, se incremente un punto en el sistema, y en caso de que el papalote choque con un ave, se decrementa. El primer script de esta actividad corresponde a identificar la altura máxima y mínima que pueda lograr el paciente con ambos brazos. El segundo script controla la altura del papalote según la posición y el movimiento del bastón. El tercer script genera las aves a los costados del papalote cada ‘n’ segundos y una velocidad ‘n’. El cuarto script controla al ave moviendolo hacia el papalote y si choca con el papalote decrementa los puntos del paciente. La tercer actividad desarrollada fue la Actividad 2 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales inferiores de ambos brazos, por lo cual esta actividad comparte cierta similitud con la Actividad 1 del mismo día, debido a esto se tomaron los mismos scripts antes mencionados y el mismo entorno y solo se cambiaron las frutas agregando unas nuevas y en lugar de utilizar árboles, se implementaron arbustos los cuales se generan a baja altura.  


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos y prácticos acerca del desarrollo de entornos de realidad virtual utilizando el software de Unity con el lenguaje de C#, a través de la generación de entornos para atender el problema de la inestabilidad postural en adultos; sin embargo, considerando la extensión del proyecto, este aún se encuentra en la fase de desarrollo, por lo tanto no se pueden mostrar datos con precisión referentes a los resultados de los pacientes, aún así las escenas trabajadas ya pueden ser probadas y puestas para evaluación.
García Valdez Andrea Alejandra, Universidad Politécnica de Sinaloa
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.


ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.

Becerra Cervantes Luis Ruben, Universidad de Guadalajara. García Valdez Andrea Alejandra, Universidad Politécnica de Sinaloa. González Huerta Stacy, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México al año 2014 de acuerdo al INEGI, el 6% de la población total, es decir, 7.1 millones de habitantes del país no pueden o tienen mucha dificultad para hacer alguna de las ocho actividades evaluadas, : caminar, subir o bajar usando sus piernas; ver (aunque use lentes); mover o usar sus brazos o manos; aprender, recordar o concentrarse; escuchar (aunque use aparato auditivo); bañarse, vestirse o comer; hablar o comunicarse; y problemas emocionales o mentales. En este proyecto nos centramos en el problema de mover o usar sus brazos o manos. Del mismo modo en Mexico las mayoría de las amputaciones son a causa de enfermedades como la diabetes o accidentes laborales, siendo así que en el año 2012 la encuesta nacional de salud y nutrición se percató que existían mas amputaciones de mano completa y/o dedos de la mano que cualquier otra amputación. Específicamente se procura evitar la amputación del pulgar debido a la importancia de sus movimientos. La diferencia de la amputaciones de mano o dedo pulgar respecto a otras, yace en la funcionalidad que presentan estos órganos en el cuerpo, siendo el movimiento de oposición por ejemplo, el que le permite al ser humano realizar mucho tipos sujeciones.  El dedo pulgar presenta una problemática al momento de modelar, ya que la articulación trapeciometacarpiana cuenta con movimientos mas complejos y por lo tanto más difíciles de representar.  Es por esto por lo que en el presente trabajo nos enfocamos en realizar principalmente los movimientos articulares del pulgar de manera correcta, es decir un pulgar que permita realizar oposición con cada dedo y que permita realizar movimientos de la mano (aquellos que involucran al pulgar) básicos en la vida de cualquier persona. En este proyecto se presenta el diseño de una mano bajo criterios biomecánicos, mismo que se utilizará para la fabricación de una prótesis robótica de mano, haciendo énfasis en el dedo pulgar.  



METODOLOGÍA

Se realizó un análisis biomecánico de la mano para poder entender los movimientos articulares de los dedos. Una vez que se entendieron los tipos de movimientos que cada dedo realiza de acuerdo con su tipo de articulacion se procedio a pensar en un modelo de cinematica directa que considera diferentes aspectos. Primero se extrajeron medidas antropométricas de la mano y se realizó el modelo de cinemática directa en Matlab y se representó de manera gráfica. Posteriormente se diseñó un modelo de la mano en CAD de acuerdo con el modelo cinemático obtenido anteriormente en el cual se procuró respetar los rangos de movilidad de cada articulación así como las medidas antropométricas utilizadas. Finalmente, se construyó mediante impresión 3D un prototipo del modelo previamente diseñado.


CONCLUSIONES

Después de haber realizado el análisis, diseño y construcción de la mano, pudimos percatarnos de la importancia que tiene un órgano como la mano para la función del cuerpo.  La construcción final del prototipo es capaz de imitar muchos de los movimientos de la mano, pero debido a la complejidad de algunas de las articulaciones y el tipo de piezas utilizadas, no se logra crear un modelo ideal que imite completamente los movimientos. Este prototipo, sin embargo, logra realizar los movimientos de manera efectiva y está pensado de manera que permita la integración de motores que hagan de este un prototipo robótico de una prótesis de mano.
Garcia Valente Osvaldo, Universidad Autónoma del Estado de México
Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas

GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.


GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.

Delgadillo Trinidad Andrea Amayrani, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Garcia Valente Osvaldo, Universidad Autónoma del Estado de México. Zabala Rodarte Jonsi Esmeralda, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad sus mecanismos de promoción y difusión con las que cuentan no hace posible extender información a posibles visitantes, pues únicamente hacen publicidad mediante agencias de viaje en los cuales no es posible extender mucho el contenido. También se observó la ausencia de cocina tradicional, puesto que el restaurante ofrece exclusivamente platillos convencionales, dejando de lado aquellos que ayudarían a reforzar su identidad y hacer más genuina la experiencia de los visitantes. Asimismo, es importante mencionar que no existe mayor oferta de actividades, con la finalidad de que los visitantes que lleguen pasen más tiempo realizando diferentes actividades y que incluso tengan la necesidad de pernoctar en el lugar para continuar disfrutando de este.  



METODOLOGÍA

El proyecto busca generar una propuesta para el aprovechamiento racional de los recursos de la Cascada Velo de Novia en la comunidad anexo el Sabinal de Socoltenango, Chiapas; tomando en cuenta como referencia general sus potenciales naturales, culturales y su valor ancestral como destinos turístico de naturaleza. Para ello, se realizó una investigación de carácter cualitativo, la cual consistió en la realización de una entrevista al C. Orlando López Aguilar, uno de los encargados del centro ecoturístico Cascada Velo de Novia para conocer a profundidad la historia del proyecto, organización, y el contexto actual que ayudó a comprender y poder analizar los problemas a los cuales se enfrenta esta cooperativa. El trabajo de campo realizado en el sitio, se apoyó directamente de un instrumento de investigación conocido como guía de entrevista semiestructurado.  


CONCLUSIONES

El turismo es una actividad económica creciente en México y el estado de Chiapas es un destinos turístico del Mundo Maya con atractivos naturales para ser aprovechados turísticamente. Con una gestión responsable, esta actividad contribuye a la difusión de esta riqueza natural como lo es Cascada Velo de Novia y a la vez generar ingresos, beneficiando a la comunidad de Socoltenango. En este sentido, es necesario mejorar y planificar las estrategias de marketing para tener un mayor alcance en la difusión. También es importante la implementación de diversas actividades que logren que el turista permanezca más tiempo dentro del centro ecoturístico y que tenga la necesidad de pernoctar en el. Del mismo modo, es importante el cuidado de los recursos naturales y este puede ser más efectivo mediante la aplicación de un estudio de capacidad de carga, que fomentará la conservación del patrimonio natural. Los centros ecoturísticos son una alternativa altamente viable para las comunidades locales y una forma diferente de destinos para el turista, sin embargo, esta debe ser vigilada o supervisada para la aplicación de las normas de sustentabilidad de los destinos, en particular la NMX:133 requisitos y especificaciones de sustentabilidad para el ecoturismo, para que no se atente con el lugar por un abuso de uso.  
Garcia Valenzuela Siria Alejandra, Universidad Autónoma de Occidente
Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente

ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO


ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO

Aguiar Bernal Perla Denise, Universidad Autónoma de Occidente. Garcia Valenzuela Siria Alejandra, Universidad Autónoma de Occidente. Guardado Cano Gloria Paulina, Universidad Autónoma de Occidente. Lopez Moreno Lorenicela, Universidad Autónoma de Occidente. Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El Fuerte es el único municipio en el noroeste de México en producción de arándano y Sinaloa es el principal productor de maíz en el país, registrando una producción anual superior a 6 millones de toneladas en las cosechas. Sin embargo más del 50% de la materia prima se exporta a otros lugares sin ser transformada en otros productos, por lo que se decidió hacer mermelada a base de arándano azul con elote debido al gran número de producción de estos que hay en la región.



METODOLOGÍA

Se elaboró una mermelada nueva, hecha de elote y arándano azul, ya que estos alimentos son considerados originarios de la región, en el estado de Sinaloa. Se realizó una mermelada en el laboratorio de alimentos de la Universidad Autónoma de Occidente unidad Los Mochis, de acuerdo a la norma CODEX para las frutas jaleas y mermeladas (CODEX STAN-296-2009), de acuerdo a la descripción de mermelada de agrios. Para esto se realizó un diseño de mezclas hasta encontrar los parámetros ideales de la mermelada como color, olor, sabor, pH, °Bx, actividad de agua, entre otros.


CONCLUSIONES

RESULTADOS PRUEBA 1  pH:3,°Bx:59, % humedad:2.6 %,temperatura: 28°C,  Actividad de agua: 0.858aw / 25.9°C PRUEBA 2 pH:3,°Bx:64, % humedad:2.8 %,temperatura: 28.2°C,  Actividad de agua: 0.742aw / 25.3°C CONCLUSIÓN Se logró cumplir con el objetivo de la investigación el cual fue elaborar una mermelada a base de elote y arándano (Blueberry) con amaranto. El diseño de mezclas de los parámetros ideales de la mermelada fue la prueba 1. Fue una estancia que nos dejó un aprendizaje significativo ya que conocimos materiales y técnicas en el laboratorio de alimentos, reforzando los conocimientos adquiridos durante la carrera.  
Garcia Valles Christian Abdiel, Universidad de Sonora
Asesor: Ing. Noé Guadalupe Fletes Camacho, Universidad Tecnológica de Bahía de Banderas

CONTROL Y MONITOREO DE UN INVERNADERO TIPO BATICENITAL DE MANERA INALáMBRICA.


CONTROL Y MONITOREO DE UN INVERNADERO TIPO BATICENITAL DE MANERA INALáMBRICA.

Garcia Valles Christian Abdiel, Universidad de Sonora. Martínez Zamora Juan Antonio, Universidad de Sonora. Asesor: Ing. Noé Guadalupe Fletes Camacho, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

En México, una de las principales actividades del sistema productivo es la agricultura, pues de ella depende millones de personas tanto en el ámbito alimentario como el económico. Sin embargo, como no todos los lugares cumplen con las condiciones necesarias para practicar la agricultura "tradicional" se tuvo que desarrollar un método o un entorno bajo el cual, sin importar las condiciones ambientales, pudiéramos cultivar para mantener constante la producción; En base a esta premisa se desarrolló la agricultura por medio de invernaderos. Este tipo de agricultura ha tenido mucho avance en los últimos años, llegando a dar resultados similares a la agricultura tradicional, además de esto, al ser un entorno un tanto más reducido y cerrado se ha prestado al desarrollo de sistemas para controlar las condiciones internas del invernadero. Nuestro proyecto lo que busca es enriquecer este creciente campo al desarrollar un invernadero sustentable capaz de autorregularse mediante microcontroladores buscando que requiera de una mínima intervención humana para operar y, además, mostrarnos de manera inalámbrica los valores y el estatus interno del sistema.



METODOLOGÍA

El sistema está compuesto por tres arduinos, dos megas y uno nano; El primer mega (1) se utilizó para la adquisición de los datos, para la transmisión y envío de los datos hacia el segundo mega (2), se utilizaron dos módulos de radio frecuencia HC-12. Posteriormente, (2) se encargaría de codificar y transformar los datos hacia un formato capaz de ser interpretado por LabView, una vez hecho esto, a través de módulos NRF-24 se transmitirían hacia el módulo de control, donde se encuentra el arduino nano. Por último, los datos enviados a través de (2) son, de nuevo, interpretados y decodificados para después mostrarlos mediante gráficas los valores actuales de cada parámetro que se busca monitorear en el invernadero. Lo anterior describe el proceso de monitoreo del sistema. En el control del sistema se realizará el camino inverso, es decir, primero se enviará una señal de Labview por medio del puerto serial de la computadora hacia el arduino nano, acto seguido, la señal enviada será decodificada y transmitida por radio frecuencia con el módulo NRF-24 del centro de mando hacia el segundo transreceptor que se encuentra configurado en el arduino mega (2). Por último, la señal se retransmitirá hacia el microcontrolador mega (1) quien la decodificara y asociará a una de sus salidas digitales para que, por medio de relevadores, se haga funcionar el actuado


CONCLUSIONES

Este proyecto fue desafiante, en un principio no parecía que tendríamos problemas con la tasa de datos o las codificaciones programadas en los módulos, ni siquiera teníamos considerado comprar nuevos módulos, fueron problemas que surgieron a lo largo de la investigación y debido a los cuales tuvimos que tomarnos tiempo para analizar y proponer soluciones que nos permitieran avanzar en el desarrollo del proyecto. Al final de todo este verano de investigación logramos establecer una comunicación estable de por lo menos 200 metros entre el módulo de control y el invernadero, como máximo pudimos conectar 3 paquetes con 4 sensores cada uno para poder medir humedad, tanto absoluta como terrestre, temperatura y condiciones lumínicas con una velocidad de transmisión (bilateral) de 250Kbps y, por último, conectar los 8 abanicos con los que cuenta el invernadero para que se enciendan y apaguen a voluntad. Se adquirieron una gran cantidad de conocimientos útiles para la vida laboral e incluso útiles para ampliar el campo de estudio de nuestras ingenierías, el área de telecomunicaciones es una de las que más desarrollo ha tenido en los últimos años, para darnos cuenta de esto sólo hay que comparar la señal de teléfono e incluso la velocidad de nuestro internet con la que había hace 5 ó 10 años, esta clase de procesos y programas que pusimos en marcha nos ayudan a tener más conocimiento y una mentalidad lista para abordar los desafíos que lleguemos a ver en nuestros trabajos o posgrados, haciendo este verano una experiencia realmente enriquecedora. A pesar de todos estos avances que se lograron durante la investigación, no todo el material de trabajo pudo ser abarcado en estas cortas 7 semanas, hay una gran oportunidad de mejora en este proyecto empezando por la tasa de transmisión, como ya se mencionó antes la posibilidad de desarrollar un protocolo propio de comunicación para particionar el envío y recepción de los daos ayudaría a tener un mayor tasa y, por consecuencia, un mayor número de sensores activos dando pie a un mejor control de las variables o a la posibilidad de trabajar con invernaderos de mayores superficies, haciendo todo este sistema de comunicación más versátil.
Garcia Velasco Juan Cristian, Instituto Politécnico Nacional
Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas

DETECCIóN Y LECTURA DE CóDIGOS QR PARA LA ORIENTACIóN Y DETERMINACIóN DE OBJETIVOS EN UN ROBOT HEXáPODO.


DETECCIóN Y LECTURA DE CóDIGOS QR PARA LA ORIENTACIóN Y DETERMINACIóN DE OBJETIVOS EN UN ROBOT HEXáPODO.

Garcia Velasco Juan Cristian, Instituto Politécnico Nacional. Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Visión Artificial o Visión por Computadora, al ser parte del ahora gigantesco mundo de la Inteligencia Artificial, ha tenido como uno de sus principales objetivos dotar a las máquinas de ojos, o visión propia, para así poder recabar información detallada e inmediata de su entorno, en otras palabras, del mundo real. Uno de los campos donde se ha desarrollado y aplicado mayormente esta tecnología ha sido la robótica, ya que la visión por computadora ha representado una forma eficaz de dotar (en un importante porcentaje) de autonomía a un robot, dándole la capacidad de obtener información sobre el medio y poder ejecutar tareas simples como orientarse, detectar objetos y posteriormente tomar decisiones. La cuestión planteada en este trabajo entonces es, emplear todos los medios disponibles para desarrollar nuevos métodos o técnicas para llevar a cabo todo lo anterior mencionado, optimizando los recursos sin disminuir la eficacia y eficiencia del resultado. Los dos componentes más importantes de considerar, a la hora de diseñar el sistema de visión para un robot, son el tipo de cámara a emplear y el controlador o cerebro donde se llevarán a cabo la programación y el procesamiento de las tareas a realizar. Para ello existen en el mercado una gran cantidad de opciones a considerar, con precios que dependen de la calidad y características de los componentes. Por esta razón, en muchas ocasiones surge la necesidad de diseñar estos prototipos con el menor costo posible, pero con una eficacia y resultados aceptables.  



METODOLOGÍA

Para llevar a cabo el diseño del sistema de visión para el Hexápodo con que cuenta el laboratorio, empleamos una cámara web Acteck CW-760 y un servomotor Hitec HS-422, además de la placa computadora Raspberry Pi 3 y el servocontrolador SSC-32 propios del robot. También diseñamos e imprimimos un par de bases para fijar la cámara y el servomotor al hexápodo. La primera parte del proyecto consistió en hacer un reconocimiento del trabajo con el que ya se contaba hasta ese momento (robot hexápodo) y posteriormente comenzamos con el aprendizaje del software a trabajar, que en este caso fue Python 2.9 y las librerías principales OpenCV y ZBar. Nos familiarizamos también con la placa Raspi y los comandos más esenciales a la hora de programar. Una vez recabada dicha información procedimos a realizar un programa para que la cámara, conectada a la placa Raspberry e instalada sobre el servomotor (conectado al servocontrolador) en el robot, escaneara el entorno en busca de códigos QR y al detectarlos, el dispositivo de video centrara el código en la imagen para llevar a cabo la lectura. Finalmente se guardaría la información contenida en ellos y continuaría con el escaneo.


CONCLUSIONES

A lo largo de las últimas décadas  se han dado importantes avances tecnológicos en visión artificial, sobre todo, siendo objeto importante de estudio e investigación en instituciones del ámbito académico de todo el mundo, además solucionando importantes problemáticas referentes al control de calidad y automatización en la industria. Al realizar este proyecto pudimos concluir que el trabajo con detección de códigos QR es una técnica que se puede aplicar a la resolución de diversos problemas en robótica, que suelen ocupar diversos métodos en ocasiones muy complejos y que requieren una mayor inversión en hardware, con resultados aceptables. Por ejemplo, detectar sin falla objetos en un determinado espacio. Sin embargo es importante elegir el controlador con las especificaciones necesarias para llevar a cabo el procesamiento de video, pues en nuestro caso encontramos algunas dificultades empleando la placa Raspberry Pi 3, sobre todo por los recursos que nuestro proyecto demandaba y no alcanzaba a cubrir la misma. Afortunadamente, actualmente se cuenta con hardware y software para su uso de manera libre y gratuito, así como documentación muy diversa sobre soluciones dadas (como la aquí presentada) a problemas comunes en este campo.
Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
García Zamudio José Martín, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit

IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT


IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT

Alpizar Martínez Niza Lucero, Universidad Autónoma del Estado de México. García Zamudio José Martín, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Sanchez Moran Jose Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los ataques a los servidores conectados a través de internet siguen avanzando con el transcurso del tiempo, los atacantes utilizan diferentes herramientas para extraer información de un servidor de manera que no se vean expuestos a ser descubiertos, por lo cual se utilizan, los sistemas de detección de intrusos las cuales, son herramientas que detectan los ataques evitando que se sigan reproduciendo. Sin embargo, en los últimos años se ha empezado a utilizar la tecnología de honeypot como un sistema de seguridad, los cuales son equipos vulnerables para atraer a los atacantes y analizar las acciones que realizan, es decir, es un servidor falso diseñado para analizar las estrategias de los hackers y de esta manera entrar a un sistema con seguridad mínima con la finalidad de alterar, copiar o destruir los datos, por ejemplo, borrar la información del disco duro del servidor. ¿Para qué sirve? Desviar la atención de los atacantes del sistema para evitar que se comprometa la información de la empresa. Capturan todo tipo de ataques entre ellos virus y gusanos, para analizarlos posteriormente. Conocer nuevas vulnerabilidades y sistemas operativos que tengan riesgo de ser atacados para estudiarlos y evitar ocuparlos. Así mismo, los objetivos principales de este proyecto son los siguientes: Identificar los ataques que se realizan a un servidor en red. Implementar un sistema de detección de intrusos con base al sistema de T-Pot. Clasificar la gran cantidad de datos recolectados por un honeypot. Monitorizar cada uno de los ataques para posteriormente analizarlos y de esta manera evitar su utilización.



METODOLOGÍA

La metodología que se utilizó para la realización de este proyecto se menciona a continuación: Revisión de literatura actual sobre el tema de honeypots. Reconocimiento de las distintas actividades que se pudieran llevar a cabo hacia los sistemas para vulnerarlos. Utilización de herramientas en línea para detectar vulnerabilidades en diferentes páginas web, así mismo, se realizó el escaneo de algunas direcciones IP con la herramienta Nessus en Kali Linux. Investigación de diferentes herramientas y tipos de ataque que se pudieran ejecutar en los sistemas operativos Kali, BlackArch y Parrot para pruebas de penetración y escaneo. Análisis de vulnerabilidades que presentan los equipos escaneados. Búsqueda de información acerca de las herramientas para la implementación del honeypot. Se hizo un estudio acerca de los componentes que incluye el T-Pot y cuáles de ellos serían útil para la implementación. Para la implementación del honeypot se instaló primordialmente en máquinas virtuales para entender el funcionamiento, tomando en cuenta cada una de las características que se requería para su instalación, por ejemplo, el tamaño que necesitaba. Una vez conociendo la instalación y comportamiento en la máquina virtual fue necesario instalar el honeypot en una máquina física con las características requeridas para estudiar su comportamiento de acuerdo con los ataques que recibía. Ejecución de ataques a los equipos de prueba con las herramientas de los sistemas operativos, mencionados en el punto 4.   Análisis de la información generada de los ataques en el T-   Pot siendo una serie de reportes mostrados en un visualizador clasificando las características del ataque. Instalación de una máquina virtual en las plataformas de Amazon AWS y en Google Cloud Plataform para realizar la instalación del T-Pot y observar su comportamiento de acuerdo con los reportes generados. Creación de alertas y generación de reportes en la herramienta Kibanna.  Conforme a los resultados obtenidos se pudieron encontrar la forma de comportamiento que presentan los atacantes y los sistemas atacados, así como la ubicación de donde provienen, sus objetivos, tipos de ataque y los riesgos que presentan.


CONCLUSIONES

La instalación de honeypots en una red permite analizar las acciones que realizan los atacantes para acceder a los sistemas sin comprometer la seguridad de la información real. Así mismo, permitió detectar los equipos donde se produjeron los ataques. El análisis de los ataques producidos en la red realizados con éxito a los equipos trampa generaron reportes que posteriormente se analizaron para obtener resultados más acertados. Con base a los reportes generados se logró identificar los ataques más comunes para extraer información de un sistema. Es importante mencionar que se presentaron algunas complicaciones para la instalación del honeypot, ya que, por cuestiones de la red no se instalaban todos los paquetes por lo que al interactuar con el mismo no arrojaba resultados favorables. Sin embargo, se muestran algunos beneficios que nos ofrece el honeypot. Atrae a los atacantes evitando que muestre interés en otras máquinas que tienen información importante. Se puede ver la actividad de los atacantes que hacen, que información extraen, que es lo que buscan. Predecir el propósito de los intrusos, los métodos de ataques y las herramientas que utilizan. Mejora la seguridad de los servicios dentro de la red. Conforme a las pruebas de penetración se analizó el posible comportamiento que presentaran los atacantes posteriormente. 
Garduño Velázquez Galilea, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato

PROPUESTA DE INVERSIóN ECONóMICA EN ENERGIZACIóN DE UN EDIFICIO HISTóRICO MEDIANTE EL MéTODO DE VALOR PRESENTE NETO


PROPUESTA DE INVERSIóN ECONóMICA EN ENERGIZACIóN DE UN EDIFICIO HISTóRICO MEDIANTE EL MéTODO DE VALOR PRESENTE NETO

Garduño Velázquez Galilea, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las energías renovables, como lo son la eólica, hidroeléctrica, geotérmica y solar (por mencionar algunas) son las obtenidas mediante fuentes naturales consideradas inagotables debido a su origen o la cantidad de energía que contienen. Aunque en siglos anteriores estas constituían una parte importante de la energía utilizada por los humanos, inventos como la máquina de vapor y otros más que surgieron durante la revolución industrial desplazaron estas energías alternativas, debido a que la tecnología para aprovecharlas al máximo aún no estaba tan desarrollada. Sin embargo, debido al impacto ambiental que la energía convencional ha demostrado representar, las energías renovables se han desarrollado al grado de dejar de ser consideradas como alternativas, porque las necesidades actuales las han vuelto una realidad. En países de América Latina, los gobiernos locales están cada vez más interesados en liderar el aprovechamiento de estos recursos energéticos a través de políticas que consideren a los mismos. El potencial de energía solar en México es uno de los más grandes del mundo: el Instituto Nacional de Electricidad y Energías Limpias (INEEL) resalta que los estados costeros del océano pacífico son zonas potenciales, para la producción de energía solar en el país debido a la alta irradiación de estas áreas. México incluso ha sido considerado como uno de los mejores lugares para realizar inversiones en energía verde, debido a los bajos índices de costo. La problemática, en este caso, sería determinar el costo que representaría realizar una inversión para reemplazar la energía eléctrica convencional por energía solar, esto para poder energizar un edificio histórico que aloja un importante museo y biblioteca dentro de la ciudad de Morelia, Michoacán, México.



METODOLOGÍA

El primer paso fue obtener la proyección del promedio de irradiación anual por año del periodo 2019 a 2028 dentro de la ciudad de Morelia, cálculo que se realizó a través del método de proyección estadística por tendencias, para el cual fueron necesarios los datos de irradiación solar de 2010 a 2018, esto con el fin de obtener una proyección más acertada. El cálculo se llevó a cabo dentro el paquete estadístico para Windows E-views. Una vez obtenidos los datos relativos a la proyección se realizó una investigación respectiva a las empresas dedicadas a la producción de paneles solares con mayor prestigio en el mundo, así como el tipo de panel que se acoplara mejor a las necesidades del proyecto. Para determinar la cantidad de paneles a utilizar se realizó el cálculo de la potencia requerida entre la potencia que ofrece cada panel. También se incluyó un dato respectivo a la cantidad de energía que necesita un edificio de este tipo según evaluaciones realizadas por organizaciones municipales y federales, documento de libre acceso al público en general, y la consideración de la fórmula de Hora Pico Solar, la cual es una unidad que mide la irradiación solar. Posteriormente a obtener la cantidad de paneles que es óptimo instalar para alimentar la energía del edificio se realizó una multiplicación para obtener el costo de la inversión inicial, dentro de la cual se incluyó la cantidad de paneles solares y el costo de la instalación de los mismos. También, a través de la Agencia Internacional de Energías Renovables (IRENA por sus siglas en inglés), se obtuvo el precio del kilowatt hora para poder obtener el costo por año. Consecuentemente, y gracias a la obtención de los datos anteriores, se pudieron determinar las ganancias que representaría la inversión en los paneles solares. El último paso fue determinar el valor presente neto de la inversión, método que consiste en determinar la equivalencia en el tiempo cero de los flujos efectivos futuros que genera un proyecto y comparar esta equivalencia con el desembolso inicial. Si esta equivalencia es mayor que el desembolso inicial, es recomendable que el proyecto sea aceptado. Considerando una Tasa de Recuperación Mínima Atractiva para el proyecto del 6%, la cual a su vez es determinada dependiendo del índice de inflación del país y el índice de prima de riesgo para inversiones en el mismo, el valor presente neto resulta ser negativo. Sin embargo, al aumentar la TREMA en puntos porcentuales, se refleja que el valor presente neto es positivo con un porcentaje de 9%, lo cual haría que la inversión fuera conveniente para ser realizada.


CONCLUSIONES

Durante la estancia realizada este verano, fue posible ampliar conocimientos en el campo de la ingeniería financiera y el análisis y evaluación de proyectos de inversión como este, al igual que obtener nuevos conocimientos como lo fueron aquellos necesarios para poder evaluar un proyecto que tuviera que ver con la implementación de energía solar. Debido a los cambios recientes en el medio ambiente y al riesgo al que nos enfrentamos colectivamente al seguir dependiendo en gran medida de las energías convencionales, es necesario ampliar las investigaciones que apunten hacia el desarrollo de las energías renovables, así como las investigaciones que incluyan ingeniería financiera para poder tener más y mejores oportunidades de inversión y apoyos financieros, teniendo como fin la aplicación de estos proyectos de investigación.
Garibaldi Lopez Castro Andrea Jeannette, Universidad Politécnica de Sinaloa
Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa

ANáLISIS Y DISEñO áGIL DE VIDEOJUEGOS SERIOS APLICADOS A LA EDUCACIóN VIAL


ANáLISIS Y DISEñO áGIL DE VIDEOJUEGOS SERIOS APLICADOS A LA EDUCACIóN VIAL

Garibaldi Lopez Castro Andrea Jeannette, Universidad Politécnica de Sinaloa. Asesor: M.C. Iliana Amabely Silva Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La educación vial es un tema que presenta un problema importante en la sociedad mexicana, con cifras aún altas de accidentes e infracciones, es necesaria la creación de herramientas que apoyen los programas gubernamentales para la prevención de accidentes, así como permitir que éstos mismos sean utilizados para una enseñanza más efectiva sobre lo que se debe y no debe hacer dentro de la vía pública. De acuerdo al Instituto Nacional de Salud Pública, México se encuentra en el séptimo lugar a nivel mundial y tercero a nivel latinoamérica en muertes por accidentes viales, siendo este tipo de siniestros la principal causa de muerte en jóvenes de 5 a 29 años. Si bien, es de nuestro saber que existen distintos programas para la prevención de accidentes también es sabido que suelen ser poco efectivos, ya sea por la falta de interés de aquellos que asisten a estas capacitaciones, por falta de programas en donde conductor realmente se vea involucrado o por la falta de valores tales como el respeto hacia las leyes y autoridades de tránsito. Debido a ésto, es importante el desarrollo e implementación de herramientas tecnológicas que favorezcan la educación y aseguren que los conocimientos adquiridos sean recordados por los estudiantes. En este caso se propone el desarrollo de un videojuego serio plasmado en un simulador que ayude en la educación y capacitación a los oficiales de tránsito y a los conductores para estar mejor preparados al momento de tomar un volante.  



METODOLOGÍA

Para la fase de análisis del proceso de desarrollo del videojuego serio, se utilizan técnicas y artefactos de distintas metodologías ágiles, siendo Scrum el de mayor presencia en el proyecto. Durante la identificación de requerimientos se utilizan artefactos que permitan ir de un enfoque general a un enfoque más específico, buscando cubrir la mayoría de las acciones que puede tomar el usuario y  de esta manera mejorar su experiencia de aprendizaje.  De acuerdo a lo anterior, el análisis de requerimientos inicia con el desarrollo de historias de usuario para determinar las acciones que puede efectuar el usuario en las pantallas de menú, así como las acciones básicas que se realizan durante la conducción de cualquier vehículo. Mediante las narrativas de caso de uso, se plantean distintos escenarios dentro de la simulación, este tipo de artefactos resultan útiles debido a que, por ser una simulación, se consideran la mayor cantidad de reacciones de una persona al conducir. Una vez definidos los requerimientos del videojuego serio ( artefactos necesarios para modelar las etapas del videojuego), se inicia la propuesta de  su arquitectura (se construye un storyboard para definir la interfaz siguiendo la técnica de gamificación), se implementan distintas técnicas de validación y verificación con la finalidad de medir su  complejidad y usabilidad (nivel modelado de procesos y datos). El análisis y diseño del proyecto está planeado para implementarse en diversos entornos utilizando las herramientas de creación de videojuegos pertinentes para el desarrollador.  


CONCLUSIONES

La falta de educación vial es un tema con el que se vive día a día y a pesar de ser conscientes de dicho problema, se siguen ignorando ciertas normas básicas al momento de circular por la vía pública. La creación e implementación de un videojuego serio a través de un simulador de tránsito como una herramienta para capacitar y evaluar a los conductores podría tener un impacto positivo en la seguridad dentro de las vías de tránsito.     El uso de las metodologías adaptativas (ágiles), tomando como referencia el proceso iterativo e incremental y el uso adecuado de técnicas de Ingeniería de Software durante la etapa de recolección de requerimientos establecen una línea base que permiten la preproducción del videojuego, estos artefactos modelan posibles casos de prueba que sirven de base para las dos últimas fases del proceso de creación de un videojuego serio (etapa de producción y postproducción), proponiendo validar y actualizar  las nuevas prácticas o tendencias de los conductores sin importar la ciudad en la que se implemente.
Garibaldi Velázquez Carmen Leticia, Universidad de Guadalajara
Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional

TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD


TECNOLOGíAS DE APOYO A PERSONAS CON Y SIN DISCAPACIDAD

Alvarado Perales Alan Isaí, Instituto Tecnológico de Piedras Negras. Castilla Diaz Evelyn, Instituto Tecnológico de Tuxtla Gutiérrez. Garibaldi Velázquez Carmen Leticia, Universidad de Guadalajara. Asesor: M.C. Juan José Rodríguez Peña, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El motivo por el cual es que se busca realizar este tipo de proyecto es porque actualmente, en el CICATA no existe información a simple vista sobre los lugares que se encuentran en la institución. Así que se desea que el usuario tenga esa facilidad de moverse a través en las instalaciones, por lo cual se desea realizar una app móvil, para usuarios Android, ya que existe un estudio de que los dispositivos Android, en un artículo llamado Evolución de la cuota de mercado de Android(2009-2018) en donde se expresa que en el primer cuatrimestre del 2009, se decía que Symbian, el sistema operativo de Nokia, era dueña y señora del mercado, al pasar del tiempo, para el 2011, Android ya era el sistema operativo más utilizado en el mundo hasta la actualidad.   Otra de las ventajas de la realización de la aplicación móvil es por el simple hecho de ser más práctico y accesible para la mayoría de las personas tanto discapacitadas como no discapacitadas. Accesible en costos y practico en la utilización de estos dispositivos móviles. Y aparte, sin mencionar que nos ofrecen herramientas útiles, como, por ejemplo: Google TalkBack Está diseñada para dispositivos Android y facilita el acceso y consulta del teléfono móvil a personas con discapacidad visual. Mediante respuestas de voz y vibración el usuario podrá hacer uso de su teléfono, permitiendo así usar sus aplicaciones y herramientas. Que tiene las siguientes funcionalidades: Ayuda para acceder a un elemento. Al pulsar sobre un elemento lee su nombre y al pulsar dos veces se accederá a él. Navegar. Para desplazarse por la pantalla utilice dos o más dedos y desplácese horizontal y verticalmente. Ajustes. TalkBack permite adaptar el servicio a su gusto, accediendo a los ajustes podrás ajustar el volumen de voz, sensor de proximidad, vibración, administrar los gestos, etc.   Con ayuda de estas herramientas, hacen más accesible el uso de los dispositivos móviles y de las aplicaciones. Es por eso que se desea implementar este tipo de aplicación en la institución, ya que ayudará al usuario a identificar los lugares que existen en el CICATA de una manera más práctica. También la ayuda de objetos visuales o multimedias ayudan a la interacción del usuario ya será a través de vídeos, sonido, imágenes las cuales harán también el uso de las aplicaciones más fáciles aparte de las herramientas que nos brindan.



METODOLOGÍA

El método Ágil es un proceso que permite al equipo dar respuestas rápidas e impredecibles a las valoraciones que reciben sobre su proyecto. Crea oportunidades de evaluar la dirección de un proyecto durante el ciclo de desarrollo. Los equipos evalúan el proyecto en reuniones regulares, llamadas sprints o iteraciones. Por lo cual, por cuestiones de tiempo y los procesos que ibamos a integrar en el proyecto, decidimoso que este era el más optimo para primera fase aunque si existe un seguimiento, podría cambiar a otro tipo de metodología sin problema.


CONCLUSIONES

Aunque la aplicación puede llegar a ser del todo útil, si no existe la infraestructura adecuada para personas con discapacidad, puede llegar a ser una dificultad muy grande. Tal es el caso del CICATA por lo que se limitó a hacer la aplicación con las tecnologías integradas en los dispositivos. Aparte de eso, también a pesar del proyecto, obtuvimos unas conferencias en el centro cultural regional de Querétaro, en donde impartieron platicas de diferentes proyectos y algunos, ayudaron a dar más idea del proyecto porque trataban sobre personas con discapacidad. Se realizó también lecturas sobre las diferentes discapacidades que existen; de las tecnologías actuales y cuál de las tecnologías que nos ofrecen los dispositivos era la más conveniente.   En general, en la estancia del verano, pudimos apreciar sobre las dificultades y las metas que nos podíamos plantear, ya que a pesar de tener uso de tecnologías, también dependen de otras cosas, debido a que el centro de investigación no cuenta con la infraestructura adecuada para personas con discapacidad.  
Garrido Aguirre Angel Armando, Universidad Tecnológica de Xicotepec de Juárez
Asesor: M.C. Andrea Palomino Salcedo, Universidad del Valle (Colombia)

PROPUESTA DE ANáLISIS Y DISEñO DE SOFTWARE PARA LA GESTIóN DE LAS DONACIONES DE ALIMENTOS EN BANCOS DE ALIMENTOS EN COLOMBIA


PROPUESTA DE ANáLISIS Y DISEñO DE SOFTWARE PARA LA GESTIóN DE LAS DONACIONES DE ALIMENTOS EN BANCOS DE ALIMENTOS EN COLOMBIA

Garrido Aguirre Angel Armando, Universidad Tecnológica de Xicotepec de Juárez. Martínez Trejo José Antonio, Instituto Tecnológico Superior de Pátzcuaro. Asesor: M.C. Andrea Palomino Salcedo, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

   La crisis alimentaria global actual tiene un impacto directo en los países pobres. Cerca de 925 millones de personas en el mundo corren riesgo de desnutrición y se estima que la población de 2050 (estimada en unos 9.000 millones de habitantes) requerirá un incremento del 70% en el abastecimiento de alimentos (FAO, 2011).    Gestionar la recepción y entrega de las donaciones no es una labor sencilla, los bancos de alimentos deben registrar la información que surge durante este proceso y generar otro tipo de información (por ejemplo, indicadores de gestión). En la medida en que crecen las cantidades de donaciones este esfuerzo aumenta y se debe contar con herramientas que puedan ofrecer una información eficiente y veraz de las donaciones recibidas y entregadas.    Es entonces necesario preguntarse sobre:    ¿Como generar una solución informática que permita realizar el proceso correspondiente la gestión de las donaciones de alimentos en los Bancos de Alimentos en Colombia?



METODOLOGÍA

     El trabajo realizado, es el resultado de una investigación de índole científica que ejecuta procedimientos lógicos alrededor de las fases de la Ingeniería de Software y plantear así, el análisis y diseño de un sistema de información para la gestión de las donaciones en Bancos de Alimentos de Colombia.      El desarrollo de este proyecto aborda el levantamiento de requerimientos y los diferentes diagramas propuestos en el marco este trabajo de investigación. Para los diferentes elementos que abordan este proceso de desarrollo del sistema se utiliza el Extreme  Programming (XP) como una metodología de desarrollo que pertenece a las conocidas como metodologías ágiles (entre ellas el Scrum, Kanban…entre otras), cuyo objetivo es el desarrollo y gestión de proyectos con eficacia, flexibilidad y control.      En la realización de gráficos se utiliza para este proyecto el ArgoUML, el cual se define como … una herramienta utilizada en el modelaje de sistemas, mediante el cual se realizan diseños en UML ("Unified Markup Language) llevados a cabo en el análisis y pre-diseño de Sistemas de Software (Latina, 2019). Para el desarrollo de diagramas Relacionales se utiliza el software Navicat, que corresponde a una herramienta gráfica que le ayuda a construir modelos predictivos precisos de forma rápida e intuitiva (Navicat, 2019). Con el apoyo de estas herramientas se desarrollan los modelos requeridos en el planteamiento del análisis y diseño de la propuesta de solución.


CONCLUSIONES

Se promovió el espíritu investigativo en los estudiantes de movilidad internacional del Programa Delfín participantes en este proyecto, además de la realización diferentes actividades de intercambio de metodologías y procedimientos desarrollados con las instituciones involucradas para el desarrollo del presente proyecto. Las fases del proyecto culminaron exitosamente cumpliendo los objetivos y metodología planteada, edemas de permitir el intercambio de conocimientos entre los participantes del proyecto, logrando el análisis y diseño de un sistema de información para la gestión de donaciones de alimentos en Bancos de Alimentos. Al desarrollar este proyecto se pudo poner en práctica todos los conocimientos adquiridos en el tiempo de formación en las instituciones y programas de formación de los participantes en este proyecto. RESULTADOS Construcción de los diagramas requeridos para dar solución a la necesidad de implementar un Sistema de información para la gestión de donaciones en Bancos de Alimentos ubicados Colombia. Realización de visita guiada al banco de alimentos de la ciudad de Pereira, donde se realizó el levantamiento de requerimientos para identificar los diferentes procesos que se realizan en este tipo de instituciones y determinar los requerimientos para la solución propuesta en este proyecto. Integración interdisciplinar dentro del proyecto con la participación los estudiantes de movilidad internacional Programa Delfín y los estudiantes del curso Desarrollo de Software II de la Universidad del Valle sede Zarzal para conocer los diferentes procesos que abordan la gestión de las donaciones en Bancos de alimentos.
Gaytán Escamilla Jessica, Instituto Tecnológico de Pachuca
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

REDES INALáMBRICAS DE SENSORES: APLICACIONES, PROTOCOLOS DE ENRUTAMIENTO Y SEGURIDAD


REDES INALáMBRICAS DE SENSORES: APLICACIONES, PROTOCOLOS DE ENRUTAMIENTO Y SEGURIDAD

Gaytán Escamilla Jessica, Instituto Tecnológico de Pachuca. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Las redes inalámbricas de sensores (WSNs) se han convertido en una de las áreas de investigación más atractivas en diversos campos científicos en los últimos años.



METODOLOGÍA

WSN se compone de varios nodos sensores que recopilan datos en áreas de difícil acceso y los envían a la estación base (BS). Al mismo tiempo las redes de sensores tienen algunas características especiales en comparación con las redes tradicionales que hacen que sea difícil competir con ellas. La arquitectura de la pila de protocolos usado por la estación base y los nodos, integran energía y enrutamiento consciente (es decir, se está consciente de la energía de enrutamiento), integra los datos con protocolos de red (es decir, agregación de datos), se comunica haciendo uso eficiente de la energía a través del medio inalámbrico y promueve esfuerzos cooperativos de los nodos sensores (es decir, el plano de gestión de tareas). Todo ello conlleva una investigación fuertemente basada en aplicaciones de este tiempo de redes al medio real como lo son en los hogares, la industria, aplicaciones médicas, militares, comerciales, entre otras. Y es todo un reto el entorno en dónde se desenvuelven como lo son ambientes desafiantes como marinos, subterráneos, terrestres y aéreos, con ello un factor muy importante a estudiar es el consumo de energía pues depende este la robustez del desempeño de dichas redes y hoy en día se pretende disminuir notablemente el consumo de estas para aumentar la vida y robustez de este tipo de redes.


CONCLUSIONES

Las redes de sensores inalámbricos (WSN) se han convertido en una de las áreas de investigación más atractivas en muchos campos científicos en los últimos años. Las WSN están compuestas por varios sensores nodos, donde el objetivo principal de un sensor nodo es recopilar información de su entorno y transmitirla a uno o más puntos de control centralizado denominados estaciones base. La pila de protocolos WSN es muy similar a la pila de protocolos tradicionales e integra el conocimiento de potencia y enrutamiento, integra datos con protocolos de red, comunica energía eficientemente a través del medio inalámbrico y promueve esfuerzos cooperativos de sensores nodos. Las WSNs se despliegan en áreas inaccesibles, entornos hostiles y tienen una variedad de aplicaciones, tales como: aplicaciones militares, monitoreo ambiental, aplicaciones médicas, aplicaciones domésticas, aplicaciones industriales y comerciales. En WSNs, tres de las preocupaciones más importantes son el requisito de bajo consumo de energía, la movilidad de los sensores nodos para mejorar la cobertura de detección y la vulnerabilidad a muchos tipos de ataques de seguridad. Con el fin de mitigar las preocupaciones antes mencionadas, varios métodos de enrutamiento jerárquicos o basados en clústeres (LEACH, TEEN, APTEEN, HEED, PEGASIS, HEEP), protocolos para redes de sensores móviles (M-LEACH, LEACH-Mobile, LEACH-ME, E2 MWSNRP, GBEER), y mecanismos de seguridad (criptografía, autenticación y sistemas de detección de intrusos), han sido propuestos. Además de la eficiencia energética, la movilidad y la seguridad, todavía existen otras cuestiones de investigación abierta, tales como: integración de redes de sensores e Internet, redes WSN en ambientes desafiantes (WUSN y UWSN) y redes inalámbricas de sensores multimedia.
Gaytán Ramos Juan Carlos, Universidad Autónoma de Zacatecas
Asesor: Dr. Javier Guzmán Pantoja, Instituto Mexicano del Petróleo

SíNTESIS DE CATALIZADORES PARA LA OBTENCIóN DE CARBONATO DE PROPILENO A PARTIR DE CO2


SíNTESIS DE CATALIZADORES PARA LA OBTENCIóN DE CARBONATO DE PROPILENO A PARTIR DE CO2

Gaytán Ramos Juan Carlos, Universidad Autónoma de Zacatecas. Asesor: Dr. Javier Guzmán Pantoja, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la concentración de dióxido de carbono se ha incrementado considerablemente, debido al aumento de consumo de energía generada a partir de combustibles fósiles. Para disminuir el impacto de este gas en la atmosfera se han implementado diversas metodologías, entre las cuales se pueden mencionar: la captura de gas por adsorción en formaciones geológicas adecuadas o absorción con sistemas líquidos, la transformación a productos de alto valor agregado. De manera específica en este proyecto se plantea la obtención del carbonato de propileno, a través de una reacción de cicloadicción de CO2.



METODOLOGÍA

Catalizador 1        Líquido iónico  (Lisinato de tetrabutil fosfonio) La síntesis involucra el uso de hidróxido de tetrabutil fosfonio (TBP) y lisina. Se realiza una mezcla del aminoácido en exceso y el hidróxido de tetrabutil fosfonio en solución acuosa. Posteriormente, se lleva a cabo la neutralización a temperatura ambiente en un lapso de 2 a 4 horas. Los productos obtenidos son secados a 60 °C a presión de vacío durante 48 horas. El líquido resultante es lavado con etanol para precipitar el exceso del aminoácido precursor. El precipitado es removido por filtración y posteriormente el solvente es evaporado.   Catalizador 2         (cloropropil silica + líquido iónico) La silica gel (60 gramos) fue activada usando una mezcla de ácido nítrico y agua a un 50% de volumen, con agitación y a una temperatura ambiente por 8 horas. La activación es seguida de un lavado con agua desionizada hasta que el efluente tenga un pH neutro. Después de la neutralización la silica es lavada con acetona y posteriormente se seca bajo vacío a una temperatura de 60° C por 24 horas. En el siguiente paso, la silica activada (40 gramos) es mezclada con 40 mililitros de 3-cloropropil trietoxisilano y trietilamina (5 ml) como catalizador en 500 ml de tolueno. Se mezcla con un agitador magnético y con reflujo a 500 rpm por 24 horas.  Después de la reacción la cloropropil silica es filtrada seguida de un lavado con algunos disolventes como tolueno, agua etanol (50:50, v/v), agua desionizada y metanol. Posteriormente es secada a 60°C en vacío por 24 horas para remover los residuos de solventes. En el siguiente paso, la cloropropil silica (10 gramos) es mezclada con 10 gramos de líquido iónico  (Lisinato de tetrabutil fosfonio) en 60 ml de tolueno en un matraz bola a 70° C  por 24 horas. Después de la reacción el producto se deja enfriar a temperatura ambiente seguido de un lavado con metanol, agua desionizada y secar a vacío por 24 horas a 60° C.   Catalizador 3         (líquido iónico + 3-cloro-tri-etoxi-silano) Este material catalítico fue sintetizado a través de la reacción a temperatura de 60°C mezclando ambos reactivos a concentraciones equimolares. El producto obtenido presenta insolubilidad en la mayoría de los solventes orgánicos tradicionales.   Catalizador 4      (cloropropil silica + tributil fosfina) La silica gel (60 gramos) fue activada usando una mezcla de ácido nítrico y agua a un 50% de volumen, con agitación y a una temperatura ambiente por 8 horas. La activación es seguida de un lavado con agua desionizada hasta que el efluente tenga un pH neutro. Después de la neutralización la silica es lavada con acetona y posteriormente se seca bajo vacío a una temperatura de 60° C por 24 horas. El siguiente paso, la silica activada (40 gramos) es mezclada con 40 mililitros de 3-cloropropil trietoxisilano y trietilamina (5 ml) como catalizador en 500 ml de tolueno. Es mezclado con un agitador magnético y con reflujo a 500 rpm por 24 horas.  Después de la reacción la cloropropil silica es filtrada seguida de un lavado con algunos disolventes como tolueno, agua etanol (50:50, v/v), agua desionizada y metanol. Posteriormente es secada a 60°C en vacío por 24 horas para remover los residuos de solventes. Siguiente paso, la cloropropil silica (10 gramos) es mezclada con 10 gramos de tributil fosfina en 60 ml de tolueno en un matraz bola a 105° C en reflujo por 24 horas. Después de la reacción el producto se deja enfriar a temperatura ambiente seguido de un lavado con metanol, agua desionizada y secar a vacío por 24 horas a 60° C.


CONCLUSIONES

La reacción catalítica para la transformación  del óxido de propileno se llevó a cabo de manera exitosa con el uso del líquido iónico de lisinato de tetrabutilfosfonio, bajo las condiciones de una catálisis homogénea. En el proceso de anclaje de las fases activas (lisinato de tetrabutilfosfonio y tributilfosfina) en la silica, se obtuvieron materiales con buenas propiedades catalíticas para la reacción de estudio. Sin embargo, al ser usado en ciclos de reacción consecutivos se observa una disminución en su rendimiento, a partir de ellos, se propone como expectativa a futuro incrementar los estudios para llevar a cabo un anclaje más eficiente.
German Martínez Carla Fabiola, Instituto Tecnológico de Sonora
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
Gil Carbajal José Emmanuel, Universidad de Guadalajara
Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo

DESARROLLO DE HERRAMIENTAS PARA MEJORAR LA EFICIENCIA EN LA PREDICCIóN DE FACIES


DESARROLLO DE HERRAMIENTAS PARA MEJORAR LA EFICIENCIA EN LA PREDICCIóN DE FACIES

Gil Carbajal José Emmanuel, Universidad de Guadalajara. Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Una facie en geología es un conjunto de rocas que describen el estado de la tierra, esto es útil al momento de realizar la perforación en un yacimiento petrolero ya que puede decir, en cierta medida, la calidad del hidrocarburo que se busca. También puede ayudar para saber que, si se sabe en dónde se localiza un yacimiento, se puede perforar para acceder al hidrocarburo o no, según la porosidad de la facie. Actualmente, en el Instituto Mexicano del Petróleo, para realizar la predicción de facies se utilizan dos métodos. El primero es siguiendo cierto procedimiento: Primero se obtienen los datos geofísicos de la tierra cada cierta cantidad de centímetros, después se utilizan métodos matemáticos para obtener las propiedades geológicas y, luego de realizar un análisis de ellas, definir una facie en específico. El segundo se realiza con una herramienta de inteligencia artificial que fue desarrollada en el IMP, esta herramienta realiza un aprendizaje supervisado con algunas propiedades, ya sean datos geofísicos o geológicos, teniendo como clase objetivo la facie que se calculó previamente.  Este procedimiento de predicción con inteligencia artificial muestra buenos resultados; sin embargo, aún se pueden mejorar, para ello se proponen herramientas que faciliten la clasificación de estas propiedades, así como algunas propuestas de análisis para saber si se realiza una correcta predicción.



METODOLOGÍA

La metodología utilizada fue distinta, ya que se realizaron varias actividades a lo largo de la estancia. Al principio se realizó un análisis de resultados que se habían obtenido previamente para mejorar la predicción de la herramienta de inteligencia artificial. Al principio se notó un desbalanceo en la cantidad de las clases objetivo (facies) en la entrada de los datos que podría afectar la predicción de los datos, sin embargo, después de ciertas pruebas realizadas para balancear la cantidad de datos, esa hipótesis fue descartada. Durante cierto tiempo el principal objetivo de estudio fue la mejor manera de elegir unos parámetros necesarios para el algoritmo utilizado. Después de realizar pruebas con distintos conjuntos de datos y variando estos parámetros siguiendo gráficas, según el método de pruebas de Cross Validation, se llegó a la mejor manera de elegir estos parámetros. Sin embargo, estos no fueron el principal objetivo de la estancia. Lo principal fue desarrollar herramientas para mejorar la eficiencia en la predicción de facies. Para ello se siguió el siguiente proceso. Analizar los procedimientos necesarios para la clasificación. Se encontró el proceso de definir clases con base en los valores de los datos obtenidos; el análisis de archivos LAS para generar CSV, utilizables por la herramienta de IA, propuesta de predicción con base en un algoritmo de aprendizaje no supervisado; y el graficado de los resultados mediante gráficas de telarañas. Programar scripts básicos para cada uno de los procesos. Realizar pruebas con datos reales para encontrar errores o deficiencias en los scripts. Optimizar los scripts para obtener los mejores resultados. Generar funciones con entradas estandarizadas para facilitar su uso modificando solamente los parámetros.


CONCLUSIONES

Actualmente se tienen scripts estandarizados para tres de los cuatro procesos encontrados, el único que aún no se obtiene por completo es el que genera clases con base en un algoritmo de aprendizaje no supervisado. Conversión de LAS en CSV Se programó una función llamada "parse_file" la cual recibe como parámetro el nombre del archivo LAS con su extensión. Como resultado genera un archivo CSV en el que se muestran todas las columnas (encabezados) presentes en el LAS junto con todos los datos obtenidos por cada fila. Clasificación de CSV Se programó una función llamada "classify_file" la cual recibe como parámetros el nombre del archivo CSV con su extensión y un diccionario en el que la llave es el nombre de la propiedad y el valor es una lista de valores que funcionarán como intervalos. Después de ejecutarse esta función generará un archivo TXT llamado "Log" en el que se ve la cantidad de tuplas clasificadas en cada clase y la descripción de entre qué intervalos de cada propiedad se encuentra esa clase. Gráfica de telaraña Se programó una función llamada "radar_chart" la cual realiza gráficas de telarañas, recibe como parámetros el nombre del archivo CSV a graficar y las columnas que se considerarán para ello. Actualmente se tienen dos modificaciones de esta función, una recibe la propiedad "Facie" para generar n gráficas de telaraña según n facies existan. La otra genera una sola gráfica de telaraña con todas las tuplas presentes en el CSV. Ambas funciones guardan las gráficas en formato PNG en una carpeta generada automáticamente.
Gil Lemus Heriberto, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES

Gálvez Camargo Rubén, Consejo Sudcaliforniano de Ciencia y Tecnología. Gil Lemus Heriberto, Consejo Sudcaliforniano de Ciencia y Tecnología. Guluarte Camacho Michelle, Consejo Sudcaliforniano de Ciencia y Tecnología. Ramirez Ramirez Giselle, Universidad Autónoma de Sinaloa. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

  Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Gil Rodríguez Angel Joel, Instituto Politécnico Nacional
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

SíNTESIS, OBTENCIóN Y CARACTERIZACIóN DE GRAFENO A PARTIR DE BIOMASA RESIDUAL.


SíNTESIS, OBTENCIóN Y CARACTERIZACIóN DE GRAFENO A PARTIR DE BIOMASA RESIDUAL.

Gil Rodríguez Angel Joel, Instituto Politécnico Nacional. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Mediante el proceso organosolv se plantea obtener grafeno de un modo sencillo y fácil a partir de biomasa residual específicamente agrícola ya que esta no tiene un fin establecido, ya que actualmente para generar grafeno de calidad el procesos requerido y establecido es muy costoso, mientras que otros son baratos pero el resultado de estos es un grafeno de mala calidad. Desde el aislamiento del grafeno (el material del futuro) por el método de cinta adhesiva a mediados de la década de los 2000 hasta la actualidad, año tras año se incrementa los estudios, hasta un 50% más cada año, que engloban las sorprendentes propiedades que presenta el material del futuro. Todo esto tiene el fin de utilizar el grafeno a una escala industrial aplicada a la fabricación de tecnología nunca antes vista con un mayor rendimiento en todos los aspectos, ya sea velocidad, resistencia, trasparencia, dureza.  Esto se logrará gracias al proceso organosolv ya que es fácil y económico de llevar a cabo para la obtención de grafeno. Si se obtiene grafeno de calidad a través del proceso organosolv de manera eficiente y económica. Entonces se podrá aplicar de una forma industrial para la fabricación de tecnología avanza y de calidad.



METODOLOGÍA

Recolección de la biomasa residual La Biomasa residual que se ocupa para el proceso es principalmente de origen agrícola como es el caso de la cascara de naranja y la cascara de coco ya que estos representan contaminación. 2 Aplicación de método organosolv Se muele la cascara del residuo orgánico con ayuda de un molino para la solución, una vez molida la biomasa residual anteriormente se prepara una solución para obtener la holocelulosa esta es de 100 ml la cual el 95% es de ácido acético, 3-4% de agua destilada y el 1% es de HCL, esta se vierte en un matraz de 200 ml junto con la biomasa residual para posteriormente pasarlo a un baño maria o un parilla para matraz, esta solución esta aproximadamente 4 horas en reflujo y a la mitad del tiempo se vierte Peróxido de Hidrogeno al 13%. Después de las 4 horas de reflujo con ayuda de un envido de vacío se limpia la biomasa con ayuda de agua destilada hasta tener un PH 6d 3 Secada de la muestra El secado de la muestra se lleva a cabo con la ayuda de la estufa a una temperatura de 100 grados por un lapso de 6 horas aproximadamente, para posteriormente llevar la biomasa residual al molino de bolas para obtener nano partículas. 4 Calcinación y activación química Posteriormente de obtener las nonopartículas se le da un tratamiento térmico para la calcinación de la biomasa este se da con la ayuda de un crisol a una temperatura 600 grados centígrados por aproximadamente un lapso de 2-3 horas en la mufla. La activación química se lleva a cabo con KOH y la biomasa calcinada a razón de 2:1 gramos, finalmente se lleva a la mufla a 850 grados centígrados. 5 Limpieza del grafeno derivado de la biomasa residual Se toma con cuidado el crisol, se extrae todo el material entro de el con cuidado de no desperdiciar nada, si es necesario con una espátula se extrae el material pegado en las paredes del crisol la mayor cantidad que sea posible. Con la ayuda de un embudo   de vacío y agua destilada se lava hasta llegar a un PH 6, parea después llevarla a la estufa a 100 grados centígrados aproximadamente 3-4 horas.


CONCLUSIONES

En la presente estancia se adquirió el conocimiento sobre la síntesis y caracterización del grafeno a partir de la biomasa residual, así como conseguir la ruta de sintetización adecuada para lograr el mismo. Ipso facto, se tiene una serie de imágenes obtenidas con la técnica SEM en la cual se observa hojas tentativamente de grafeno, esto lo podemos denominar debido a que se aprecia huecos entre laminas, a lo que es referente que el grafeno tiene una estructura bidimensional, por motivo que asegura ser grafeno. Con esto espero obtener grafeno de calidad ya sea fácil y económica para así su producción a escala industrial, todo esto para la siguiente generación de materiales, con una mayor conductividad, resistencia, transparencia y flexibilidad  
Glebskiy Stanislav, Instituto Politécnico Nacional
Asesor: Dr. Ruth Mariela Aguilar Ponce, Universidad Autónoma de San Luis Potosí

IMPLEMENTACIóN PARA LA DETECCIóN DE OBJETOS BASADA EN LA INTEGRAL DE CHOQUET PARA VISUAL IOT


IMPLEMENTACIóN PARA LA DETECCIóN DE OBJETOS BASADA EN LA INTEGRAL DE CHOQUET PARA VISUAL IOT

Glebskiy Stanislav, Instituto Politécnico Nacional. Asesor: Dr. Ruth Mariela Aguilar Ponce, Universidad Autónoma de San Luis Potosí



PLANTEAMIENTO DEL PROBLEMA

La detección de objetos en movimiento en video es un tema de investigación que ha tenido un aumento de atención en los últimos años. Algunas de las áreas más importantes en las que se aplican los algoritmos de detección de movimiento o sustracción de fondo son: aplicaciones de vigilancia, observación del comportamiento de animales e insectos, observación de entornos naturales, análisis de actividades humanas, modelado basado en imágenes, interacción hombre-máquina, reconocimiento de gestos y señas, codificación de video basado en contenido, sustitución de fondo entre otros. De igual manera la detección de objetos en movimiento tiene una gran aplicación en el área del internet de las cosas (IoT). Con el tiempo se han desarrollado nuevos y diferentes algoritmos para la sustracción de fondo. Al día de hoy se cuenta con una gamma extensa de algoritmos empezando desde los más básicos como los algoritmos basados en una simple resta de cuadros y llegando hasta algoritmos más recientes y complejos que se basan modelos Gaussianos, lógica difusa o redes neuronales.  Uno de los mayores problemas dentro del área de detección de movimiento en video es la implementación física, ya que existen algoritmos que alcanzan una buena precisión, pero requieren de una gran cantidad de recursos computacionales. Por ende, este trabajo se enfoca en diseñar una arquitectura de hardware especializada en la sustracción de fondo en video. Se estará utilizando un algoritmo basado en la integral difusa de Choquet.



METODOLOGÍA

Algoritmo El algoritmo empleado en este trabajo se basa en la integración de tres medidas de similitud que nos indican que tan parecidas son la imagen de cuadro actual y el modelo del fondo. Estas medidas se calculan para cada pixel de la imagen a analizar. Las medidas de similitud se obtienen a partir de parámetros de un pixel en el cuadro actual y la imagen de fondo.   En el algoritmo empelado se utilizan tres medidas de similitud las cuales corresponden a los parámetros Y y Cb del espacio de color YCbCr y al valor del LBP (local binary pattern). Las tres medidas de similitud se integran utilizando la integral de Choquet.   Calculando la integral de Choquet para cada pixel y comparando dicho valor con un valor de límite podemos clasificar los pixeles en pixeles de fondo y pixeles de primer plano. Si el valor de la integral de Choquet es menor a cierto límite se considera que el pixel pertenece al primer plano, de lo contrario el pixel es parte del fondo.   Propuesta de arquitectura Las unidades funcionales básicas necesarias para realizar el algoritmo cumplen las tareas de realizar las operaciones indispensables para llevar a cabo el algoritmo. Estos bloques son: Pre-proceso: Unidad encargada de convertir la información de la fuente de cuadros (en este caso una cámara) del formato RGB al formato YCbCr con el cual se trabajará posteriormente. Cálculo de LBP: Unidad encargada de calcular el valor LBP para cada pixel. Cálculo de la similitud: Unidad encargada de obtener el valor de la similitud entre los parámetros que recibe. Integral de Choquet y clasificación de pixeles: Unidad encargada de integrar las tres mediciones de similitud y obtener un valor de la integral de Choquet. De igual manera esta unidad clasifica al pixel como objeto (foreground) o fondo (background) a partir del valor de la integral de Choquet. Mantenimiento de fondo: Unidad encargada de calcular el nuevo valor de pixel del modelo de fondo.   De igual manera el sistema cuenta con un bloque controlador que se forma por una máquina de estados. 


CONCLUSIONES

Resultados de simulación en C++ Utilizando el programa descrito anteriormente se pudo probar el algoritmo de substracción de fondo con ayuda del testbench Wallfower.   Para obtener mediciones cuantitativas de la precisión de los resultados obtenidos se usaron los siguientes indicadores de precisión, recuerdo y medida F:        Promedio Precisión: 0.8675 Recuerdo: 0.5815 Medida F: 0.6717   Resultado de implementación en FPGA La implementación de la arquitectura propuesta se realizó en VHDL utilizando Quartus 11 para su sintetización. Las pruebas se realizaron en la tarjeta DE2-115, la cual utiliza el Cyclone IV EP4CE115F29C7N. Una cámara que trabajaba a una resolución de 800x600 se utilizó para la captura de la secuencia de video trabajando a una frecuencia de 25 MHz. Las imágenes se despliegan en un LCD de una resolución de 800x600 trabajando a 33 MHz.  Se logró probar el funcionamiento de todas las unidades funcionales del sistema por separado. Pero a la hora de integrar todos los componentes del sistema en un FPGA se encontraron varios problemas. Primero la falta de memoria en el FPGA  llevo a que las RAM del sistema fueran de tamaño considerablemente menor al necesario para almacenar una imagen completa, por lo que esta se tenía que dividir en varias partes. El espacio de almacenamiento de la imagen y el modelo del fondo se tuvo que llevar a un chip de SDRAM externo al FPGA lo cual llevo al uso de un controlador para la SDRAM. Por ultimo no se logró sincronizar el controlador de la SDRAM con el resto del sistema por lo que no se obtuvo una imagen deseada.     Conclusiones Se propuso una arquitectura de hardware basada en el funcionamiento del programa desarrollado. Se implementaron todas las unidades funcionales de la arquitectura y se probó su funcionamiento. Sin embargo, la integración del sistema presento varios problemas tales como: memoria insuficiente, detalles de sincronización. Al final no se tuvo tiempo suficiente para resolver los problemas de sincronización presentados entre distintas partes del sistema. Sin embargo, se logró realizar la simulación del sistema en C++ de forma exitosa al igual que se realizó el diseño general de la arquitectura y la implementación de todas las unidades funcionales y del controlador, restando solo la integración final y las pruebas generales del sistema.
Godinez Garcia Arturo Yael, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

EVALUACIóN DEL EFECTO ANTIBACTERIANO DEL TRATAMIENTO COMBINADO KANAMICINA/METALES DE TRANSICIóN EN PSEUDOMONA AERUGINOSA ATCC 27853 Y MULTIRRESISTENTE.


EVALUACIóN DEL EFECTO ANTIBACTERIANO DEL TRATAMIENTO COMBINADO KANAMICINA/METALES DE TRANSICIóN EN PSEUDOMONA AERUGINOSA ATCC 27853 Y MULTIRRESISTENTE.

Godinez Garcia Arturo Yael, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

A partir del descubrimiento de la penicilina, las compañías farmacéuticas en la década de los 60‘s impulsaron la creación a gran escala y con una variedad de compuestos biológicamente activos siendo esta la era dorada de los antibióticos. El uso inapropiado y creciente de estos antibióticos ha inducido un estrés selectivo, orillándolos a adaptarse a mayores concentraciones de antibióticos y haciendo que las bacterias tengan una mutación para adaptarse y se vuelvan resistentes a estos medicamentos, como los patógenos denominados ESKAPE, que es un grupo de microorganismos muy difíciles de tratar, el Enterococcus, Staphylococcus, Klebsiella, Acinetobacter, Pseudomonas y Enterobacter. Este La bacteria que analizaremos en este proyecto fue la Pseudomona aeruginosa, esta bacteria pertenece a las Gramnegativas, es una de las bacterias intrahospitalarias de mayor grado de oportunismo y que infectan a pacientes con inmunosuprimidos, con distintas heridas y daños en piel. Las alternativas que se tienen para combatir esta problemática son distintas y se enfocan en descubrir nuevos fármacos, crear fármacos sintéticos, así como la utilización de fármacos ya existentes combinados con otras moléculas que puedan potenciar sus efectos terapéuticos y con ellos ser nuevamente introducidos a la clínica.



METODOLOGÍA

La determinación del efecto antibacteriano de las sales de metales de transición (A y B) y el aminoglucósido, se realizó mediante la determinación de las concentraciones mínimas inhibitorias (MIC) en microplacas de poliestireno de 96 pozos. Los cultivos se realizaron en caldo Luria Bertani (LB), y se probaron concentraciones descendentes de los diferentes tratamientos. La MIC se determinó como la concentración mínima de cada tratamiento en la que se inhibió el crecimiento de la cepa de interés. Pruebas combinatorias. Primero se realizó un inoculo overnight (de 17-18 horas aproximadamente), de éste se tomaron 200 ul y se colocaron en 5 ml de caldo LB, se incubó a 37°C y 150 rpm hasta alcanzar una densidad óptica (DO) a 600 nm de 0.2+-0.05. Se incluyeron las combinaciones de las fracciones (1/2 y ¼) de las sales de metales de transición y del aminoglucósido. Se incluyeron los siguientes grupos: control de esterilidad: 200 uL de LB, control de crecimiento: 180 uL de LB y 20 uL de la bacteria, MIC del aminoglucósido, MIC de los metales de transición, y las combinaciones de las fracciones de MICs: ½ / ½, ½ / ¼, ¼ / ½ y ¼ / ¼ (MIC de aminoglucósido y MIC de la sal de metal de transición). La placa se incubó como se mencionó anteriormente y la DO se determinó a 600 nm en un espectrofotómetro UV-Vis. Inhibición de síntesis de proteínas Las condiciones de cultivo y las combinaciones de las MIC se realizaron como se describió anteriormente. La cuantificación de proteínas se realizó por el método de Bradford utilizando un estándar de BSA (albumina bovina sérica). Una vez finalizado el tratamiento se transfirió el contenido de cada pozo en tubos eppendorf y se centrifugaron a 4,000 rpm por 5 minutos. Posteriormente se recolectó el sobrenadante en tubos nuevos. El pellet se lavó una vez con PBS 1X, se centrifugó nuevamente a 13,200 rpm por 5 minutos. Se realizó el lisado pellet con Buffer de lisis (tris glicerol, tritón, Mg, lisozima) durante 15 minutos en agitación constante. El lisado bacteriano se obtuvo por centrifugación a 13,200 rpm por 5 minutos. Las muestras fueron almacenadas a -20 C° hasta su uso. Cuantificación de radicales libres de oxígeno (ROS) Se realizaron los mismos tratamientos para las pruebas combinatorias y las mismas condiciones de cultivo descritos anteriormente. Finalizado el tratamiento, las placas se centrifugaron a 4000 rpm durante 15 minutos, se desechó el sobrenadante y se lavó con 200 μL de PBS y se centrifugó nuevamente a 4000 rpm durante 15 minutos. Se realizó la tinción con 100 μL de CDM-H2DFSDA (Invitrogen) a 10 μM. Se incluyó un control positivo tratado con peróxido de hidrógeno (H2O2) 5mM. Se cuantificaron las unidades relativas de fluorescencia (URF) en cada pozo mediante un Fluorskan (excitación:485nm, y emisión:538nm) a 0, 15, 30 y 45 minuto


CONCLUSIONES

En esta estancia de investigación se obtuvieron conocimientos teóricos y prácticos sobre el trabajo en un laboratorio de biología sintética y sistemas, en especial en el área de microbiología aplicada.  Se aprendió cuales son los principales efectos antimicrobianos que pueden tener la combinación de un aminoglucósido con un metal de transición a diferentes concentraciones, en especial con el metal de transición.
Godinez Mendez Rebeca Sarahi, Universidad de La Salle Bajío
Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa

DISEñO E IMPLEMENTACIóN DE APLICACIONES MATEMáTICAS COMO HERRAMIENTA EN LA EDUCACIóN SUPERIOR.


DISEñO E IMPLEMENTACIóN DE APLICACIONES MATEMáTICAS COMO HERRAMIENTA EN LA EDUCACIóN SUPERIOR.

Godinez Mendez Rebeca Sarahi, Universidad de La Salle Bajío. Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las materias relacionadas a las matemáticas se enseñan en la mayoría de los cursos de una manera tradicional, en donde los maestros facilitan a los alumnos los datos de los problemas, lo cual no permite que los alumnos puedan desarrollar estrategias que le permitan aprender este contenido, por tal motivo los alumnos no logran desarrollar una actitud de aprendizaje significativo, en donde ellos mismo buscan obtener ese conocimiento a partir de sus propias habilidades cognitivas



METODOLOGÍA

El proyecto tiene el propósito de relacionar e identificar los aspectos más importantes de distintas áreas de las matemáticas con el objetivo de que los alumnos tengan un mejor proceso de aprendizaje al analizar los temas con aplicaciones interactivas que les permitan relacionar de mejor forma la parte analítica con el resultado esperado de una manera más dinámica.


CONCLUSIONES

Se busca que el alumno a partir de una deducción propia sea capaz de abstraer la información necesaria para la realización de cualquier problema matemático, para que este pueda tener un aprendizaje significativo
Godoy Lomelí Brian Gibran, Universidad de Guadalajara
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNING PARA EL ENTRENAMIENTO DE AGENTES VIRTUALES


EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNING PARA EL ENTRENAMIENTO DE AGENTES VIRTUALES

Arroyo Estrada Karla Berenice, Universidad de Guadalajara. Godoy Lomelí Brian Gibran, Universidad de Guadalajara. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje profundo o DRL por sus siglas en ingles es uno de los temas más revolucionarios en nuestra época, que tiene que ver con la inteligencia artificial ya que por medio de este se pueden generar sistemas autónomos, que ayuden a solucionar problemas con los cuales la sociedad interactúa diariamente, por lo que abre a muchas nuevas aplicaciones en dominios tales como cuidado de la salud, robótica, redes inteligentes, finanzas entre otras. El funcionamiento de los algoritmos en base a este concepto es mediante un sistema multiagente el cual lleva a el código a un aumento de recompensa o al éxito de la tarea. Siendo este un indicador útil, pero proporciona solo una medida aproximada de las habilidades de comunicación aprendidas del agente. Así mismo Joelle Pineau profesora de la universidad McGill nos habla que, aun cuando se han creado varios algoritmos alrededor del mundo, en países como Estados Unidos y China, donde se generan cientos de artículos con base en este concepto de DRL son muy pocos los que funcionan correctamente. Ya que, aunque estos tengan la misma finalidad los datos que se obtienen diferencian mucho entre si dado a que se construyen sin una buena metodología. Dándonos así nuestra mayor problemática que es la falta de documentos que muestren una buena metodología y los pasos a seguir para la obtención de buenos resultados y código que sea posible ejecutar. Algo que cabe recalcar es que en México no se ha explorado lo suficiente este tema de investigación y, sin embargo, es un campo de investigación que tiene un gran potencial en el futuro de las industrias.



METODOLOGÍA

Para poder trabajar de manera más optima se tuvieron que plantear conceptos previos los cuales son necesarios al momento de adentrarnos a lo que fue el DRL, algunos de estos fueron explicados por nuestro investigador mientras que algunos otros estaban aclarados mediante la lectura de documentos que este mismo nos proporcionaba. Para poder comenzar a programar se utilizó un equipo de computación con sistema operativo Windows 10. Se instaló Anaconda® como ambiente de trabajo; junto con este paquete, se incluyó Python 3.7. Dentro de Anaconda® Navigator, se empleó Jupyter Notebook para comenzar el dominio del lenguaje Python. Dado que no todos conocíamos completamente el funcionamiento de este programa fue necesario tomar un curso introductorio a el ambiente de programación de Python organizado por el Instituto Tecnológico de Massachusetts (MIT) el cual abarcó temas básicos hasta los temas más avanzados mediante una serie de ejercicios en Jupyter y Spyder siendo útiles para poder generar la sintaxis correcta al momento de escribir código. Por consiguiente, se entrenó un modelo con MNIST la cual es una base de datos con números escritos con diferente caligrafía. Cuyo funcionamiento consiste en identificación de cualquier número del 0 al 9 que se está escribiendo, y calcular el promedio de exactitud del programa. Para indicar a que grupo pertenecía el valor introducido utilizando RandomForestClassifier. Una vez concluido el código, se implementó Deep Learning con la red neuronal convolucional (CNN). Se entrenó un modelo, con la misma base de datos de MNIST, pero incluyendo los paquetes de Keras, de red neuronal y posteriormente se guardó para evitar entrenarla cada vez que se ejecutara el código. Cada número ingresado en el programa fue predicho y clasificado con una gran exactitud del 99%. Keras es una API de redes neuronales de alto nivel, escrita en Python y es capaz de ejecutarse sobre TensorFlow. Para continuar con el curso entramos a la parte de aprendizaje por refuerzo profundo mediante una serie de actividades de la universidad de Berkeley California en donde se aprendieron conceptos nuevos como la función Q, la implementación del policy gradient y el entrenamiento de un algoritmo con recompensa. Con los códigos proporcionados en el mismo se ejecutaron en Python los códigos para comparar diversas políticas; esto refiere a que un agente tiene la oportunidad de escoger una acción de todas las historias posibles en un entorno virtual. Durante la primera asignación, el agente tiene una enseñanza por imitación. Se compara Behavioral Cloning y DAgger, esto con la finalidad de observar el crecimiento de aprendizaje y definir qué código es óptimo para el intermediario. Relacionando los dos códigos, se encontró que DAgger es un mejor código de implementación. Sus ventajas son que tiene un aprendizaje elevado con cada iteración, sin embargo, el tiempo de ejecución del programa es un poco más lento. En la segunda tarea, se desarrollaron políticas gradientes que ayudaron al agente en su toma de decisiones. Para reducir la varianza del gradiente de la política fue sumar las recompensas de la función Q, mejor conocido como reward-to-go. Por último, en la tercera actividad se entrenó el videojuego de Atari, Pong, con Deep Q-Network con la finalidad de observar el aprendizaje del agente virtual. Al finalizar, se graficaron los pasos por los que interactuó el juego teniendo como finalidad evaluar aprendizaje de la convolución de redes neuronales. También, se entrenó un agente para escalar una montaña y se ingresaron diferentes parámetros para conseguir un buen resultado.


CONCLUSIONES

Por medio de la estancia de investigación de verano delfín pudimos adquirir conocimientos teóricos relacionados a Machine Learning, Deep Learning y Deep Reinforcement Learning que nos ayudaron a comprender el entorno de programación como es que están estructurados los diferentes algoritmos, cuáles son sus principios de funcionamiento, la lógica de su ejecución y las ecuaciones fundamentales que hacen posible que el código pueda ir aprendiendo con una relación de entrada, salida y recompensa. Dejándonos así las bases del Deep Reinforcement Learning e incentivándonos a adentrarnos más a esta área de la Inteligencia Artificial en la cual aún faltan muchos aspectos por descubrir ya que es un área bastante amplia y revolucionaria que se puede implementar con múltiples finalidades.
Gómez Abreu José Ángel, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.


ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.

Gómez Abreu José Ángel, Instituto Tecnológico Superior de Los Ríos. Lopez Sanchez Juan, Instituto Tecnológico Superior de Los Ríos. Romero Gudiel Jesus del Carmen, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

El propósito de este proyecto de investigación es la realización de mejoras de seguridad que eliminen riesgos en la empresa “Beneficiadora el Fénix” la cual se encuentra implementando el proyecto de fabricación de hule granulado y es de gran importancia conocer los riesgos laborales a los que están sometidos sus empleados en las largas horas de trabajo, se visualiza que en el proceso de lavado, existe mucha humedad debido al exceso de agua que utilizan para el primer lavado de hule el espacio es muy reducido para los siguientes procesos, por lo que se presenta el riesgo latente , lo que puede afectar la integridad física del trabajador en todos los procesos de la producción, además de eso la empresa no son visibles sus señalamientos de seguridad, ya que los canales de desagüe no cuentan con todas las cubiertas y existe aberturas en los canales de desagüe lo que provoca que existan riesgos latentes, en todos los procesos se logra percibir demasiado ruido ocasionado por el funcionamiento de las maquinas lo que puede provocar daños a la salud de los trabajadores no cuentan con el equipo de protección adecuada para cada área, en el proceso de pesado la salud física se puede ver afectada por los actos inseguros a raíz de la falta de capacitación con medidas de prevención o por las condiciones inadecuadas existentes a través de factores como la alta temperatura que son producidas por el área de trabajo y por las altas temperaturas en esta época del año. Lo anterior se debe posiblemente a la falta de normas de seguridad e higiene, por ejemplo que no hallan suficientes señalamientos de prevención, la falta de equipo de protección personal, la falta de ventilación, los intensos ruidos, esto pone en riesgo la salud de los empleados.



METODOLOGÍA

Enfoque de la investigación. Investigación cuantitativa La investigación tiene este enfoque debido a que se emplea la recolección de datos para verificar los riesgos existentes o posibles riesgos, en base al análisis de la perspectiva del trabajador en relación a su seguridad en sus labores , con el fin de establecer medidas de seguridad, con el objetivo de controlar y/o eliminar posibles riesgos. El tema central de estudio es el análisis de los riesgos a los cuales se encuentran expuestos los trabajadores durante el proceso de deshidratación de hule. Diseño de la investigación. Se considera una investigación de este tipo, debido a que este tipo de estudios se realizan sin la manipulación deliberada de las variables, en los cuales sólo se observan los factores en su ambiente natural para analizarlos y/o reportarlos La recolección de datos, en el análisis de riesgo dentro de todo el proceso, únicamente se realizará una propuesta de mejora a la empresa, es decir, no se modificará el sistema actual con la que ellos operan, ya que, aunque fuera práctico, el tipo del estudio es corto, por lo que la fase implementación se tendría que realizar en una segunda etapa y darle seguimiento para ser aplicada. Alcance de la investigación. Estudio Descriptivo. Busca controlar y eliminar las causas de los riesgos y/o posibles riesgos a los que están expuestos los empleados en su área laboral, a la hora de realizar sus actividades con el manejo de herramientas y maquinarias, lo que pueda causar accidentes.


CONCLUSIONES

De acuerdo al análisis realizado dentro del área de máquinas del proceso de hule granulado se indentificaron riesgos físicos, mecánicos, biológicos, ergonómicos, eléctricos y por temperatura de los cuales el que más se presenta o que más daño causa a los trabajadores son los riesgos físicos, es por ello que se plantea soluciones que ayuden ala eliminación de dichos riesgos, Además de eso una buena gestión de los riesgos traerá como sabemos muchos beneficios ala organización.
Gómez Avalos María Guadalupe, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo

EMPLEO DEL PROGRAMA MATERIALS STUDIO PARA RECONOCER LA FORMACIóN POSITIVA DE MEZCLAS DE POLíMEROS LLEVANDO A CABO LA OPTIMIZACIóN GEOMéTRICA DEL ALMIDóN.


EMPLEO DEL PROGRAMA MATERIALS STUDIO PARA RECONOCER LA FORMACIóN POSITIVA DE MEZCLAS DE POLíMEROS LLEVANDO A CABO LA OPTIMIZACIóN GEOMéTRICA DEL ALMIDóN.

Gómez Avalos María Guadalupe, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El almidón es una materia prima con un amplio campo de aplicaciones que van desde la impartición de textura y consistencia en alimentos hasta la manufactura de papel, adhesivos y empaques biodegradables, está compuesto esencialmente de polímeros de D-glucosa (98-99%). Químicamente el almidón consiste de dos polímeros de diferente estructura, amilosa (24 al 27%) y amilopectina (77 al 76%), además de que en algunos almidones se ha identificado un tercer componente denominado material intermedio. El objetivo del presente trabajo fue llevar a cabo la optimización geométrica de las moléculas de almidón y agua, así mismo, hacer que interaccionen en una caja amorfa de simulación mediante el uso del software Biovia Materials Studio en la versión 8.0.



METODOLOGÍA

Se utilizó el módulo Forcite, empleando el campo de fuerza PCFF por medio del algoritmo Smart, haciendo una cascada de los métodos steepest descent, conjugate gradient y quasi-Newton con 50000 steps.


CONCLUSIONES

Se logró reducir la energía de interacción de la molécula de almidón de 61.779687 kcal/mol en la estructura inicial, a 61.779357 kcal/mol, y de 0.000429 kcal/mol a 0.000006 kcal/mol en la molécula de agua.  
Gomez Barrientos Diana Jessica, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

ELABORACIóN DE UN HEXáPODO BASADO EN CPGS


ELABORACIóN DE UN HEXáPODO BASADO EN CPGS

Gomez Barrientos Diana Jessica, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la tecnología avanza agigantadamente,dando paso a nuevos dispositivos, que nos ayudan a hacer más cómoda y práctica nuestra calidad de vida. Así, se plantea la falta de un dispositivo para la exploración de lugares nocivos, inhóspitos o de difícil acceso, así como terrenos agrestes para el ser humano, se propone desarrollar una herramientas que garantice seguridad, confiabilidad y eficiencia en este aspecto. ¿Qué dispositivo móvil podría desplazarse en terrenos agrestes y lugares inaccesibles para el ser humano y otorgar información permanentemente sobre diversas variables? El hexápodo; nos brinda un mayor sistema de soporte, capacidad de movimiento y autosuficiente en cada pata, dándole atributos adecuados para la exploración.



METODOLOGÍA

El sistema del robot hexápodo se basa en un generador central de patrones (CPG)son redes neuronales que sin entradas sensoriales periféricas producen salidas con patrones rítmicos. Para la elaboración del proyecto se toma como base el trabajo de investigación del Doctor Horacio Rostro. El sistema se construyó como una red de neuronas punzantes, que producen señales rítmicas para tres modos de andar diferentes (caminar, trotar y correr). El modelo de neurona de espiga utilizado en este trabajo es una forma simplificada del conocido modelo generalizado de neurona de Integración y Fuego, que se puede entrenar usando el método Simplex. El sistema se ha implementado en una tarjeta SSC-32 asociada a un arduino Mega 2560 para el control del hexápodo,en el modelo, el potencial de membrana Vi y el estado de activación Zi de la i-ésima neurona en el momento k están dados por una serie de ecuaciones Los pesos sinápticos se estiman a partir del conjunto de las desigualdades lineales (una para cada neurona). Tales ponderaciones definen aún más la topología de la red para los diferentes modos de andar. Cada pata del robot hexápodo está controlada por dos neuronas (una para la coxa y otra para el fémur), que están conectadas por una topología diferente dependiendo de la marcha deseada. Estas topologías dependen directamente de los parámetros de la red y se estiman a partir de un proceso de ingeniería inversa de la dinámica deseada. A partir de estos parámetros, el siguiente paso es simular la red para los diferentes modos de andar. Dado que la información sensorial no es necesaria para la locomoción del robot, la corriente externa podría establecerse en un valor constante, sin embargo, por simplicidad, la establecemos en cero. Finalmente, Z es la actividad de picos (señal rítmica) desde la cual se aplica el proceso de ingeniería inversa, en nuestro caso Z corresponde a los patrones rítmicos. Del proceso de ingeniería inversa obtenemos las matrices de pesos sinápticos, donde cada una de ellas representa una configuración diferente para los tres pasos. Se genera el código de programación basándose en las ecuaciones encontradas y la utilización de las matrices (pesos simpáticos), para lograr generar el patrón de movimiento de los servomotores. La implementación se realiza en un hexápodo previamente armada y proporcionada al estudiante por la Universidad de Guanajuato. El arduino se conecta al dispositivo bluetooth HC 06 el cual se vincula al teléfono móvil, así, mediante comandos "W,R, J" se puede manipular la velocidad del robot


CONCLUSIONES

En el verano de investigación logré adquirir nuevos conocimientos relacionados con la robótica móvil y la inteligencia artificial, mismos conocimientos que me seran utiles en mi desarrollo como mecatrónico. Así mismo espero concluir con éxito el proyecto denominado "Elaboración de un hexápodo basado en CPGs"
Gómez Briceño Marco Favio, Universidad de Guadalajara
Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato

ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO


ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO

Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero. Gómez Briceño Marco Favio, Universidad de Guadalajara. Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero. Ramirez Herrera Onel, Instituto Tecnológico de Tepic. Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de toda la riqueza  arquitectónica de Guanajuato,  no existen investigaciones publicadas que expongan de forma detallada los sistemas constructivos empleados en sus edificaciones, por lo tanto, se desconocen ciertos elementos de su estructura y funcionamiento  que son necesarios para conservar su identidad cultural. Por lo cual, la presente investigación apoyará a identificar los elementos que forman parte de estos sistemas constructivos tradicionales y contemporáneos, entendiendo su transformación relacionada a los mismos, en cuanto a materiales, tamaño y ubicación de predios, características de las viviendas, valor histórico, así como la normatividad en contextos patrimoniales; por ello, es necesario hacer una serie de comparaciones en los procesos de construcción de las edificaciones y su diferente aplicación de los materiales que estos conllevan. Al mismo tiempo, se logrará adquirir conocimiento de la arquitectura local y nacional compartiéndolo con la sociedad propiciando a generar una cultura de apreciación, mantenimiento y cuidado de la misma. 



METODOLOGÍA

Se realizó una extensiva investigación documental por medio en tesis, enciclopedias, libros y revistas, así como páginas web, relacionadas con los antecedentes históricos de la ciudad de Guanajuato para entrar en contexto con la situación urbanística y arquitectónica de la zona, aspectos legales y de reglamentación constructiva así como todo lo relacionado arquitectónicamente con la vivienda tradicional y contemporánea, tomando en cuenta el entorno y contexto en el que se encuentran. Una vez en contexto, se comenzó a estructurar el marco teórico con el que se fundamenta la investigación Este se estructura de un referente histórico en el que se profundiza en el origen de la ciudad de Guanajuato, actividades y estilos de vida que se llevaban a cabo, situaciones y condiciones que sufrió la sociedad y el cómo se fue constituyendo urbanística y arquitectónicamente para conformar lo que hoy en día corresponde al centro histórico. Además un referente legal en el que se hace mención de las primeras leyes que se proclamaron con el fin de proteger este tipo de edificaciones así como las que actualmente se toman en cuenta promoviendo su cuidado y conservación. Otro de los referentes que conforman este marco teórico es el conceptual, aquí se definen los conceptos que rigen esta investigación como que es el patrimonio cultural, un centro histórico, como se define una vivienda tradicional y una contemporánea, estilos arquitectónicos así como elementos de construcción utilizados en cada uno de los procesos constructivos. Por ultimo un referente contextual en el que se describe las condiciones topográficas, climatológicas, arquitectónicas y sociales en las que se encuentran estas viviendas Una vez establecido el marco teórico se realizaron cuatro visitas de campo, estas a los inmuebles a analizar, las tres primeras visitas se realizaron al Hostal BARATHI (vivienda tradicional). La primera se hizo para solicitar permiso a los dueños y realizar un recorrido para conocer las inmediaciones e irnos familiarizando. En la segunda se hizo un levantamiento fotográfico, captando cada uno de los espacios que conformaban el Hostal, circulaciones y accesos, así como elementos arquitectónicos (escaleras, puertas y ventanas), aplicación de materiales y acabados. Y la tercera visita fue para realizar un levantamiento constructivo, con ayuda de un distanciómetro, cintas métricas y fluxómetro con el fin de elaborar planearía digital y un modelo virtual. La cuarta visita se hizo pero al fraccionamiento Real de la Mancha Residencial, para hacer un levantamiento fotográfico, de igual manera de todo las estructura arquitectónicamente hablando, fachadas, acabados. Los datos acerca de la cimentación, proceso constructivo y aplicación de materiales, etc... fueron proporcionados por parte de la empresa Una vez con todos los datos recabados se comenzó con el análisis de cada una de las viviendas y posteriormente con su comparación la cual se elaboró a manera de tabla para una mayor comprensión de las diferencias presentes entre ellas


CONCLUSIONES

De acuerdo a la investigación documental y de campo que se llevó a cabo, el análisis comparativo realizado en cada una de las viviendas, tanto tradicional como contemporánea; concluimos que la vivienda tanto a nivel espacial como constructivo, ha evolucionado en todos los aspectos a lo largo de la historia, esto como producto fundamental de los nuevos estilos de vida, cambios en la forma de relacionarse con el entorno  y sobre todo la adaptación por parte de la sociedad a los nuevos materiales, procesos constructivos y tecnológicos. Sin embargo, esta evolución se da de manera diferente en distintos lugares del mundo, debido principalmente a la topografía, tipos de suelos y condiciones del clima, además de los estilos de vida, valores sociales y religiosos, al igual que costos y tiempos de construcción, entre otros aspectos; los cuales han determinado tanto la forma y distribución de los espacios , acabados y el dimensionamiento de las viviendas, así como el uso de propuestas para la  conservación ambiental como de materiales industrializados, apegándose a los reglamentos, normas de construcción y la configuración general de las edificaciones. Esto se puede ver reflejado en todos y cada uno de los puntos anteriormente mencionados en los tipos de viviendas analizadas, desde cimentación hasta el último detalle en los acabados, debido a la utilización de materiales propios de la región y materiales ya industrializados por lo que sus procesos constructivos son diferentes.
Gomez Gonzalez Vania Laura, Instituto Politécnico Nacional
Asesor: Dr. David de Haro del Rio, Universidad Autónoma de Nuevo León

REMOCIÓN DE CONTAMINANTES PRESENTES EN EL AGUA USANDO ZEOLITAS NATURALES Y SINTÉTICAS


REMOCIÓN DE CONTAMINANTES PRESENTES EN EL AGUA USANDO ZEOLITAS NATURALES Y SINTÉTICAS

Escalona Alejaldre Sergio, Instituto Politécnico Nacional. Gomez Gonzalez Vania Laura, Instituto Politécnico Nacional. Asesor: Dr. David de Haro del Rio, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El agua es una sustancia vital para la vida, es muy importante para los seres humanos y para el resto de los seres vivos que habitan el planeta, es por ello que constantemente se buscan maneras de preservarla. Una forma de conservar el vital fluido es limpiarlo por medio de materiales porosos que retengan contaminantes que impidan su uso. Dichos materiales son utilizados dependiendo de las características del fluido a limpiar como pueden ser el tipo contaminante a retirar y/o su PH. Aunado a ello, en la actualidad se necesitan seguir procedimientos que generen el menor impacto ambiental posible, ya que el entorno habitable para los seres humanos se está consumiendo drásticamente. Es por ello que el desarrollo de nuevos materiales que satisfagan las demandas de este siglo se ha convertido en un gran desafío. Debido a lo anterior, durante el verano de investigación se sintetizaron, caracterizaron y evaluaron materiales porosos (zeolitas) que podrían ser utilizados en adsorción de metales de transición.



METODOLOGÍA

El proceso de investigación consiste en comparar el desempeño de una zeolita natural y una sintética, para ello, la zeolita sintética se prepara a partir de un silicato y aluminato en un medio básico. Posteriormente, las zeolitas natural y sintética se modifican a manera de protonar sus superficies para así lograr que sean aptas para remover de mejor manera sulfatos, fosfatos y cromatos. Después, los productos obtenidos se lavan y dejan secar para proceder a la caracterización. La técnica que se utiliza para caracterizar a los materiales es la espectroscopia infrarroja (IR). El siguiente paso es el evaluar la efectividad de las zeolitas, para ello se selecciona un metal y se montan sistemas de cinéticas de adsorción, isotermas y efecto del Ph, que posteriormente se miden en un equipo de absorción atómica (AA) para determinar su cambio de concentración en cuanto al metal de interés. La data obtenida a partir del equipo de IR se manipula con ayuda del software Origin para obtener información de la estructura del material. Por otra parte, los valores obtenidos por el equipo de AA se trabajan con el software Excel para elaborar tablas y graficas que representen el comportamiento del material. Al final se genera un informe para discutir los avances obtenidos.


CONCLUSIONES

De la presente investigación se ha logrado recopilar a través de la metodología realizada, mucha información con la cual se puede decir que se promueve la adsorción del metal de transición de interés a un PH 6, y esto sucede con los cuatro tipos de zeolita que se trabajaron, pero a dos de éstas se les realizó la modificación para protonar su superficie, entonces por éste lado se concluye que esa modificación no mejoró la adsorción, por lo tanto se pretende realizar otro procedimiento para modificar la superficie de la zeolita, tanto natural como sintética, usando un surfactante, y realizar las pruebas a un PH 6, donde se espera que de ésta manera se remueva una cantidad mayor del metal de transición.
Gómez Guerrero Eliseo, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena (Colombia)

PRODUCCIÓN DE MATERIAL PARA CONSTRUCCIÓN LIVIANA ECOSOSTENIBLE; A PARTIR DE FIBRAS VEGETALES RESIDUALES DE LA ACTIVIDAD BANANERA Y EL RECICLAJE DE EPS (POLIESTIRENO EXPANDIDO)


PRODUCCIÓN DE MATERIAL PARA CONSTRUCCIÓN LIVIANA ECOSOSTENIBLE; A PARTIR DE FIBRAS VEGETALES RESIDUALES DE LA ACTIVIDAD BANANERA Y EL RECICLAJE DE EPS (POLIESTIRENO EXPANDIDO)

Gómez Guerrero Eliseo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con es te proyecto se busca obtener, material de construcción liviana a base de los residuos agrícolas de la actividad bananera de la región de magdalena Colombia, en este caso utilizando las fibras de la planta adulta del banano que ha culminado su etapa productiva. El EPS (poliestireno expandido) es un elemento químicamente inerte, no biodegradable, es decir que no se descompone, no se desintegra, no desaparece en el medio ambiente y al ser su tiempo de vida útil demasiado corto la acumulación en vertederos y rellenos sanitarios aumenta rápidamente sin tener oportunidad de un segundo uso debido a su baja densidad, se propone este elemento como adhesivo para lograr la unión  de las fibras del banano previamente deshidratadas y tratadas, utilizando solventes y o temperatura para lograr obtener un  adhesivo apto. La alta demanda de la construcción liviana y la necesidad de que este tipo de construcción sea amigable con el ambiente es otro de los objetivos de esta investigación.



METODOLOGÍA

La realización de esta investigación estará divida en tres fases:  1.- Se realizará el prototipo del material con pruebas de ensayo y la materia prima mencionada (fibras vegetales y EPS). 2.- Una vez configurado el prototipo se realizarán pruebas térmicas, acústicas y de resistencias para verificar las propiedades del producto. 3.- Se analizarán los resultados encontrados en los componentes trabajados en las pruebas.


CONCLUSIONES

Durante el tiempo que va de esta estancia de verano, se ha profundizado mas en el tema del EPS (poliestireno expandido), sus propiedades y un aproximado de las cantidades que se desechan en la región de Magdalena, también se han hecho diversas pruebas como la obtención de materia prima final respecto a la cantidad inicial, la compresión de las fibras de banano entrecruzadas, en una sola dirección y cortadas en pequeños trozos con una mezcla elaborada con EPS y thiner para la obtención de la placa que mas favorezca a nuestras expectativas. Así mismo, se ha realizado una propuesta de diseño de máquina que serviría para la elaboración semiautomática de las placas que sustituirían el material de construcción convencional, drywall, descubriendo con esto que es necesario concluir con las pruebas necesarias para proceder a la elaboración del diseño definitivo para nuestra maquina compactadora.
Gómez Hernández Raul Humberto, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

CALIBRACIóN ESPACIAL Y POSICIONAMIENTO AUTOMáTICO DE PIEZAS PARA SU USO EN TECNOLOGíAS DE REALIDAD AUMENTADA


CALIBRACIóN ESPACIAL Y POSICIONAMIENTO AUTOMáTICO DE PIEZAS PARA SU USO EN TECNOLOGíAS DE REALIDAD AUMENTADA

Gómez Hernández Raul Humberto, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente se cuenta con diferentes procesos de manufactura avanzada, los cuales se dividen en manufactura flexible y aditiva,que se han posicionado como una parte esencial en las industrias a nivel global para eficientar la producción. Esto conlleva un constante mantenimiento y una correcta calibración para poder cumplir con las exigencias del usuario. Por lo tanto, este proyecto se enfocará en la parte de la calibración de la maquinaria cnc, buscando facilitar la calibración del cero de pieza mediante el reemplazo del tradicional palpador con un software que utilice la tecnología de realidad aumentada, para que con una serie de instrucciones sencillas se obtenga la calibración adecuada.  



METODOLOGÍA

Los métodos de posicionamiento para robots utilizados en procesos de manufactura avanzada, son sistemas vitales que brindan cierta autonomía al robot para realizar de manera correcta un producto, al integrar una trayectoria determinada mediante una programación previa. Que de esta manera permita referenciar adecuadamente al dispositivo con el proceso a realizar, buscando que sea mínima la intervención del humano. El término de realidad aumentada (AR) ha tomado gran fuerza en los últimos años, por lo que ya se menciona y aplica en diferentes áreas y brinda grandes posibilidades ya no solo como tecnología de entretenimiento, sino ya como aplicación industrial y educativa. Esta tecnología logra integrar señales captadas del mundo real con señales generadas por dispositivos programados, que las hace corresponder para la construcción de nuevas realidades que se complementan y coexisten en el mundo real y virtual. Las técnicas de rastreabilidad, sean basadas por sensores o visión, son el núcleo para el éxito como herramienta de la realidad aumentada.  En este proyecto se estan desarrollando  protocolos de calibración espacial, así como un sistema de posicionamiento automático para el acoplamiento de objetos 3D sobre objetos físicos usando tecnologías de realidad aumentada e inteligencia artificial. Se utilizan técnicas de visión artificial para determinar métricas de optimización para el acoplamiento de objetos virtuales sobre objetos físicos, mediante la integración de una cámara de alta definición, un objetivo con código y una superficie graduada que permita la correcta correlación del modelo 3D con el virtual. Se generó un sistema  mediante el lenguaje de programación Python que permite identificar las imagenes capturadas para después procesarlas y obtener las metricas necesarias para la siguiente parte que es la calibración. Enseguida se diseñó un protocolo de calibración que permite  la correlación de magnitudes virtuales con sus correspondientes valores reales en un espacio físico( en este caso la supeficie graduada). para lograr  posicionar correctamente la máquinaria cnc o robots industriales en el modelo real y asi eficientar el proceso de calibración.    


CONCLUSIONES

Los resultados de este proyecto se usarán para determinar la postura de objetos en espacios físicos tridimensionales; esta tecnología, podrá ser aplicada para la calibración de maquinaria CNC y de robots industriales.  
Gómez Lizárraga Yesica, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.


DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.

Gómez Lizárraga Yesica, Universidad Politécnica del Mar y la Sierra. Quintero Gandara Emmanuel, Universidad Politécnica del Mar y la Sierra. Rios Beltran Arturo, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En la UPMyS se cuenta un espacio asignado como biblioteca en el cual durante el ciclo escolar 2017-2018, la institución contó con un total de 1,154 libros y para servicio de las Carreras de Ingeniería Agroindustrial, Ingeniería en Tecnologías de la Información y Licenciatura en Negocios Internacionales. En el ciclo 2018 - 2019 se abren 4 carreras adicionales (Licenciatura en Administración de empresa turísticas, Ingeniería en Producción animal, Ingeniería en Agrotecnología y la Licenciatura en Fisioterapia todo esto obligó a la UPMyS a hacerse de más acervo bibliográfico, así como de buscar apoyo para la construcción del edificio de biblioteca. Actualidad se está terminando el edificio de biblioteca de la UPMyS, que contara con equipo de cómputo, muebles, y estantes con un mayor número de acervo bibliográfico, por todo esto la biblioteca ya no podrá ser administrada por una sola persona, ni de la misma manera en la que ha estado llevando control de las existencias, prestamos de los libros, ya que estos se llevan a cabo mediante una libreta en la que la persona encargada hace las anotaciones correspondientes, este tipo de practica incurre en el descontrol, pues en ocasiones no sabe al momento a quien se le presto un ejemplar, así como el hecho de cuando  alumnos o profesores buscan un ejemplar en específico la búsqueda manual en los registros lleva demasiado tiempo, problema que se acrecentara al concluir dicha obra y aumentar el número de ejemplares. 



METODOLOGÍA

Para el desarrollo de este proyecto se utilizó la metodología de desarrollo de software de tipo Cascada, ya que es metodología sencilla de llevar acabo y se adapta bien a proyectos no mayores de a 6 meses. El proyecto fue dividido en etapas para su desarrollo puesto que así es como lo marca esta metodología de cascada, no es posible iniciar una etapa sin haber concluido en la que se esta trabajando. Se dividió el proyecto en dos fases; Fase 1: RED y Fase 2: Desarrollo de software, a su vez cada fase se dividio en 5 etapas; Análisis, Diseño, Desarrollo, Implementación y Prueba. Las Fases pueden trabajarse de forma simultanea mas el orden de las etapas en cada fase tiene que ser secuencial. Fase 1: Red. Análisis. En esta etapa sea analizo detalladamente la situación actual de la Red de comunicaciones de la UPMyS. Diseño. En esta esta se selecciono el tipo de tecnología que se utilizaría para llevar la conexión de red hasta el nuevo edificio, así como el diseño de la red y las VLANS necesarias. Desarrollo. Se llevaron acabo configuraciones de forma virtual para probar el desempeño y comportamiento de la red. Implementación. Se implementaron las tecnologías necesarias, así como los trabajos físicos y lógicos para el funcionamiento óptimo de la red. Pruebas. Una vez instaladas y configuradas las tecnologías se llevaron acabo unas series de pruebas dando así la finalización de la primera fase. Fase 2: Desarrollo de software. Análisis. En esta etapa sea analizo detalladamente los procesos de biblioteca  de la UPMyS. Diseño. En esta esta se seleccionó el tipo de tecnología que se utilizaría para desarrollar el nuevo software de biblioteca acorde a los procesos de este departamento. Desarrollo. Se plasma en código el diseño realizado en la etapa de diseño. Implementación. Se implemento el software de biblioteca. Pruebas. Una vez instalado el software y se pasa a esta etapa para cerciorarse que funciona de forma correcta.


CONCLUSIONES

En conclusión hemos analizado el diseño de cada parte del sistema bibliotecario de una forma metódica, donde cada integrante ha aclarado propios puntos de vista para un resultado final con el sistema, así como también cada función de ello para luego hacer pruebas identificando errores y funciones faltantes.
Gómez López Mary Luz, Universidad Autónoma de Chiapas
Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México

CONTORNOS ACTIVOS PROBABILíSTICOS PARA SEGMENTACIóN DE IMáGENES MéDICAS


CONTORNOS ACTIVOS PROBABILíSTICOS PARA SEGMENTACIóN DE IMáGENES MéDICAS

Gómez López Mary Luz, Universidad Autónoma de Chiapas. Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La segmentación de imágenes médicas ha sido motivación para hallar nuevos métodos de contornos activos, la utilización de nuevas métricas y modificación de snake, esto con el fin de obtener una mayor precisión en la segmentación del contorno inicial seleccionado.



METODOLOGÍA

Con el algoritmo de Snake se estudio el comportamiento de este y a su vez Snake añadiendo datos probabilisticos de Gauss y Poisson, uno a la vez, observando una mayor diferencia y obtención de interés en el ruido gaussiano. Realizamos iteraciones del contorno inicial seleccionada de la imagen médica, iniciando con 3 iteraciones, hasta 10.


CONCLUSIONES

Se obtuvo un mejor resultado en el contorno de interés, aumentando las iteraciones de Snake, se espera que al aumentar las iteraciones y añadiendo el cambio de filtros en las imagenes el contorno de interés sea de mejor precisión en la imágen médica.
Gómez Martínez Yeritza, Instituto Politécnico Nacional
Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

INTEGRACIÓN DE SISTEMA DE REGISTRO MULTICANAL DE EEG


INTEGRACIÓN DE SISTEMA DE REGISTRO MULTICANAL DE EEG

Gómez Martínez Yeritza, Instituto Politécnico Nacional. Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro del área de las neurociencias el uso de equipos y dispositivos médicos ha ayudado a entender cómo funciona el sistema nervioso e identificar de forma más eficiente algunas patologías degenerativas del mismo. El estudio de la actividad cerebral se basa en los registros de las ondas cerebrales denominadas electroencefalograma (EEG), que se presentan cuando el paciente está en condiciones basales, de sueño, vigilia y otras activaciones. Generalmente el rango en clínica es 0.5 a 30Hz, pero en el área de investigación se ha encontrado información de estas ondas hasta 70 Hz, es por ello que es necesario disponer de equipos que puedan operar en una ventana de frecuencias en la que se pueda visualizar estás respuestas del sistema nervioso y que además nos garanticen la seguridad del paciente. En el grupo de investigación se disponía de una versión de electroencefalógrafo bipolar (EEG) con una ventana de operación adecuada para clínica y su alimentación requiere el uso de pilas para garantizar el aislamiento eléctrico del sujeto bajo registro. Este diseño se usó como referencia en el nuevo diseño donde se requiere ampliar el ancho de banda disponible, proporcionar 8 canales e integrarlo en un equipo portátil con alimentación de grado médico para uso en investigación.



METODOLOGÍA

A partir de una versión de electroencefalógrafo con una ventana de operación de 0.5 Hz a 50 Hz, se propuso diseñar, simular, implementar y caracterizar una nueva versión con rango de operación de 0.1 Hz a 100 Hz, para asegurar que el registro de las señales cubra todo el rango reportado tanto en uso clínico como en investigación neurológica. Para cumplir con ello se diseñó un filtro pasa altas y un pasa bajas de segundo orden, ambos en configuración Butterworth, que delimitan la zona de operación. Además fue necesario agregar etapas de acoplamiento de impedancias, amplificaciones y ajuste de offset, de modo que se obtuviera una señal de mejor calidad. Se probaron los filtros diseñados por medio de simulaciones en Multisim 14.0 y físicamente, finalmente se diseñó la placa en EAGLE con elementos de montaje superficial para optimizar el tamaño del equipo, ya que el diseño realizado se mantuvo para los ocho canales del EEG. Para este equipo se optó por usar una fuente de alimentación comercial de grado médico para garantizar el aislamiento eléctrico entre el paciente y la fuente.


CONCLUSIONES

El uso de software de diseño y simulación de circuitos facilitó la realización del proyecto ya que permitió analizar el comportamiento del circuito y comprender el efecto de los cambios realizados, también aceleró el proceso de implementación, prueba y aprobación del mismo. El uso de dos capas en el circuito posibilitó la minimización del tamaño de la placa de circuito impreso (PCB) que a pesar de contar con más elementos, tuvo una reducción de aproximadamente del 71.42% con respecto a la versión previa, finalmente midió 3.211cm x 2.225 cm por canal, que contiene las etapas de acoplamiento de impedancias, filtros pasa altas, pasa bajas, amplificación y ajuste de offset. Es importante mencionar que de ser necesario pueden realizarse más placas para  incrementar el número de canales de registro, ya que el diseño es el mismo y a pesar de que no abarca un rango de frecuencias muy amplio (como el orden de los kHz), este equipo tiene un costo menor al de un sistema comercial. La estancia me proporcionó la oportunidad de aprender a usar software de diseño de PCB que presentan mayor exactitud debido a que es posible ingresar las medidas de los elementos a usar, mover elementos de la forma que mejor convenga y seguir recomendaciones para que el diseño de la placa sea óptimo, evitando generar problemas durante su fabricación. Por otro lado también aprendí a realizar soldadura en montaje superficial y pude aplicar los conocimientos que he obtenido a lo largo de mi formación académica. De igual manera la participación en la estancia de investigación me permitió mejorar mis habilidades de redacción, colaboración con equipos multidisciplinarios, presentación en público, así como me brindo la posibilidad de ampliar mi conocimiento sobre las áreas y temas de investigación a nivel maestría que pueden relacionarse con mi perfil profesional.
Gómez Morales Xochitl Iveth, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

INTEGRACIóN DEL GEN SINTéTICO “GENF-CI” EN EL GENOMA DE ESCHERICHIA COLI C, EMPLEANDO EL SISTEMA CRISPR/CAS – λ RED


INTEGRACIóN DEL GEN SINTéTICO “GENF-CI” EN EL GENOMA DE ESCHERICHIA COLI C, EMPLEANDO EL SISTEMA CRISPR/CAS – λ RED

Gómez Morales Xochitl Iveth, Consejo Sudcaliforniano de Ciencia y Tecnología. Sandoval Ibarra Gaddiel Abraham, Universidad Autónoma de Baja California. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La biosíntesis de distintos productos que resultan de gran interés en la industria, así como, la manipulación de la expresión y la regulación génica, requieren de modificaciones genómica cuyos objetivos de edición del genoma requieren herramientas eficientes para realizar manipulaciones secuenciales. La recombinación génica mediada por lambda Red (λ Red) es una técnica de manipulación génica que ha sido utilizada como método de recombinación de ADN en el genoma de Escherichia coli. Sin embargo, dicho sistema resulta perjudicial para la estabilidad genómica de la bacteria, debido a la formación de scars en los genes donde se realiza la recombinación. Como alternativa, se han aplicado herramientas génicas que involucran un corte de doble cadena en el ADN (DSB), que se han aplicado a dedos de Zinc (ZF) y las nucleasas efectoras de tipo activador de transcripción (TALENS).  Ambas herramientas presentan desventajas debido a la alta complejidad de diseño y construcción de los dominios de unión a ADN, así mismo, los costos de síntesis de dichos dominios son altos, y pueden conllevar a una baja tasa de éxito. El sistema CRISPR-Cas, se aplicó recientemente como tecnología eficiente de ingeniería genómica en varios procariotas y eucariotas, incluyendo a E. coli. No obstante, el empleo de CRISPR en bacterias conlleva a la muerte celular debido a la falta de mecanismos de reparación del DSB generado por Cas9. Ambos sistemas de modificación, por separado, conllevan a resultados no favorables, pero al acoplar dichos sistemas se logran obtener cepas editadas de E. coli. λ Red efectúa la inserción de ADN en el genoma de E. coli, el cual ayuda a evitar la muerte celular por la selección de Cas9 al intercambiar el sitio de ruptura generado por el ADN que se recombinará.



METODOLOGÍA

Extracción de ADN plasmídico Se recolectaron 2 mL de los cultivos de E. coli DH5α pUC57GenF y E. coli DH5α pUC57cI, y se depositaron en tubos de 2 mL, se centrifugaron a 8,000 rpm por 2 minutos. Se retiró el sobrenadante y se aislaron los vectores mediante la extracción de ADN plasmídico por lisis alcalina. Los paquetes celulares se resuspendieron en 200 µL de solución I y se incubaron a temperatura ambiente por 5 minutos. Se agregaron 400 µL de la solución II a cada tubo, y se homogenizaron por inversión e incubaron a temperatura ambiente por 5 minutos. Se agregaron 300 µL de acetato de amonio (7.5 M) a cada tubo, se mezclaron de nuevo y se incubaron a temperatura ambiente por 10 minutos. Se centrifugó a 14,000 rpm y cada sobrenadante fue transferido a un tubo de 1.6 mL, al que se le agregaron 650 µL de isopropanol al 100%. Los tubos se incubaron a -20°C por 30 minutos. Se precipitó el ADN mediante centrifugación a 14,000 rpm por 15 minutos. El sobrenadante se decantó, la pastilla resultante fue lavada con 500 µL de etanol al 70% (v/v) y se centrifugó a 14,000 rpm por 3 minutos. Se agregaron 5 µL de RNA’sa a cada tubo, los cuales se incubaron por 15 min a 37 ºC. Se cuantificó la concentración de ADN plasmídico empleando el Nanodrop 2000 (Thermo Scientific). La calidad, integridad y conformación plasmídica se observó en un gel de agarosa al 0.8%.  Construcción del fragmento genF-cI por Overlap PCR Se emplearon los cebadores ExtgenFf y ExtRepLr. Se tomaron 2 µL de la reacción obtenida en el fragmento genF y 1 µL del producto de amplificación del fragmento cI complementario al genF como molde. Todo el producto de amplificación se visualizó por medio de electroforesis en gel de agarosa al 1%.  Adición de brazos homólogos 5’ y 3’ al genF-cI El fragmento obtenido de la purificación del genF-cI se extendió por PCR con los cebadores 5'-OverlapGEN y 3'-OverlapGEN, para lograr adicionar sitios homólogos a los brazos sintetizados anteriormente. Se ajustó la concentración de ADN a 10 ng/µL. Se empleó el kit AccuzymeTM y se le agregó 1.5 µL de agua ultra pura. Por otra parte, al tubo de muestra se le agregó 1.5 µL del molde. Concluida la reacción de PCR, se realizó una electroforesis en gel de agarosa al 1%. Transformación de células electrocompetentes de E. coli C con pCas  Se tomaron 5 µL de las reacciones de ligación de cada sgRNA (1 y 2) y se colocaron en tubos. A los tubos C- y V no se les agregó ADN. El volumen de cada tubo fue transferido a una celda de electroporación con gap 2 mm, se colocaron en el electroporador y se les aplicó un choque eléctrico de 2,500 V a temperatura ambiente. Se agregaron 200 µL de caldo LB a cada celda y se mezclaron por inversión. El volumen total de cada celda se transfirió a tubos de 2 mL, que contenían 800 µL de caldo LB, para posteriormente incubarlos a 37°C por 1 hora en el thermomixer. Se prepararon 4 cajas Petri con agar LB al 2%. Se vertieron 500 µL del cultivo electroporado a sus respectivas cajas Petri, sembrándolas por extensión, y se incubaron a 37°C durante 16 horas. Las colonias crecidas se transfirieron a tubos estériles con 2 mL de caldo LB + espectinomicina (100 ng/µL) y se dejaron incubar a 37°C durante 16 horas. Para la electroporación del vector pCas se siguió la misma metodología. Las colonias crecidas se transfirieron a tubos estériles de 2 mL, los cuales contenían 2 mL de caldo LB + kanamicina. Finalmente, se incubaron y guardaron.


CONCLUSIONES

Se sintetizó el gen F-cl, a partir de los fragmentos F y cI, por Overlap PCR, y fue posible incorporarlo al locus lacZ de E. coli C, empleando el sistema CRISPR/Cas - λ Red. La transformación de E. coli C con el gen F-cI y los plásmidos pCas y p-TargetF se logró por electroporación.
Gómez Padilla Andres, Universidad de Guadalajara
Asesor: M.C. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios (Colombia)

DISEÑO DE UN SISTEMA DE MONITOREO AUTOMATIZADO APLICADO A UN INVERNADERO AGROECOLOGICO


DISEÑO DE UN SISTEMA DE MONITOREO AUTOMATIZADO APLICADO A UN INVERNADERO AGROECOLOGICO

Gómez Padilla Andres, Universidad de Guadalajara. Asesor: M.C. José Alirio Barragán Sánchez, Corporación Universitaria Minuto de Dios (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de espacios de trabajo, en este caso un laboratorio para simulación de ambientes de cultivo, implica trabajos de modernización y mejoras para adaptación a las necesidades de huertas agroecológicas y producción de plantas de manera eficiente.  Dentro de la institución no se cuenta con un espacio de cultivo dentro de un invernadero automatizado o tecnificado, por lo que desde hace más de un año se empezó con el planteamiento del desarrollo de un lugar así contando solo con la estructura, el sistema de riego convencional y algunos equipos pero nada automatizado hasta el momento, sin embargo ya es una demanda para las instituciones el disponer de espacios de trabajo en lugares que están tan inmersos en la producción de cultivos en invernaderos pero  ninguno al punto de una automatización básica.



METODOLOGÍA

Visita de campo. Para continuar con este trabajo es necesario visitar el invernadero que se planea tecnificar y/o automatizar el cual se encuentra dentro de las instalaciones de la Corporación Universitaria Minuto de Dios UNIMINUTO. Revisión de los requerimientos funcionales y técnicos del proyecto, además de los requisitos, restricciones y fuentes bibliográficas con el marco conceptual y el estado del arte. Ya que este es un proyecto pensado para crear un laboratorio de trabajo se plantea conocer que es lo que necesitan los usuarios que lo trabajaran. Análisis de los requerimientos para el diseño de la red y el sistema de automatización de la huerta agroecológica. Dentro del espacio de trabajo se solicita el empleo de actuadores y sensores para facilitar el análisis de los valores que se generan dentro del invernadero y son más exactos que la interpretación de cualquier humano y más eficaces que los sistemas manuales, cada uno de estos sensores debe analizar factores que son importantes en el desarrollo. Construcción de los diseños de la red informática de la automatización para la huerta agroecológica. Gracias a la construcción del modelo 3D y de los planos 2D del invernadero se procede a la elaboración del sistema eléctrico y de la red de datos  para señalizar la ubicación de los materiales necesarios en esta automatización. Análisis de las seis variables a automatizar. Dentro de las necesidades del invernadero tenemos las seis variables que serán de prioridad para dar seguimiento durante el proceso de automatización de las cuales tres son a partir de sensores y tres son actuadores, estos últimos son trabajaran bajo una condición determinada cuando se les necesite para el control del ambiente por lo que su instalación y proceso de implementación es más sencillo. Elaboración de los modelos de hardware y software de la red. Desde este trabajo se representa la manera de trabajo en este diagrama de flujo de la arquitectura del sistema que se desarrollará, a partir de la Planta (invernadero) que es de donde se adquieren los datos de las variables . Estructura de nodo, diagrama de flujo. Conforme a lo desarrollado para este espacio de trabajo, el nodo por cada mesa que conforma la Planta (invernadero) a partir de los sensores  ( temperatura, humedad y pH) distribuidos por todo el espacio. Diseño de la topología de red de datos. El diseño del invernadero así como la instalación de los equipos requiere un diseño de la red de datos en la que se contemple tipos de sensores, arduinos, Raspberry, los servidores y los monitores. Diseño y modelos de caso de uso, de datos y diagrama de clases. Un caso de uso es la descripción de una acción o actividad. Un diagrama de caso de uso es una descripción de las actividades que deberá realizar alguien o algo para llevar a cabo algún proceso. Los personajes o entidades que participarán en un diagrama de caso de uso se denominan actores. Simulación del diseño de la red de datos. Durante la ejecución de las pruebas del sistema de la red generada en el simulador de cisco packet tracer se codifico cada uno de los equipos que deben ir con alguna dirección IP, desde los servidores hasta los Arduino, pasando por los switches así como los actuadores  


CONCLUSIONES

Como se demostró en este proyecto se dio a conocer los estados del arte de muchos componentes de la automatización dentro de un espacio de trabajo para generar un laboratorio funcional para estudiantes, el desarrollo de cableado eléctrico dentro del espacio fue una experiencia totalmente nueva por mi área de trabajo, en trabajos de los cuales tenía conocimientos se lograron aplicar el modelo de entidad relacional y el modelo relacional para una base de datos  los cuales se incluirán en un trabajo futuro  para la puesta en marcha del proyecto final que es lograr un laboratorio de agroecología para estudiantes, docentes e investigadores que permita el desarrollo de prácticas a nivel profesional. En conclusión este ha sido un proyecto de grandes alcances realizados en tan poco tiempo considerando cuanto tiempo uno necesitaría para trabajos como este, cuantas personas trabajando a la par y cuanta información debe ser consultada para un respaldo de toda la información al nivel que se está solicitando.
Gomez Suffo Estrella, Instituto Tecnológico de Sonora
Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California

DESARROLLO DE PROCESOS DE BIODIGESTIóN ANAERóBICA PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES (BIOGáS) A PARTIR DE RESIDUOS ORGáNICOS


DESARROLLO DE PROCESOS DE BIODIGESTIóN ANAERóBICA PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES (BIOGáS) A PARTIR DE RESIDUOS ORGáNICOS

Gomez Suffo Estrella, Instituto Tecnológico de Sonora. Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

El uso de los recursos no renovables, como los combustibles fósiles ha tenido graves consecuencias que han dañado al medio ambiente, como alteración en el efecto invernadero, lluvias acidas, además se estima que en unos 100 años se habrán agotado todas las reservas del petróleo alternativas renovables Es por ello que se han buscado energías alternativas para reemplazar a los combustibles derivados del petróleo, logrando así minimizar y contrarrestar los daños. En búsqueda de energías alternativas se encuentran diversos biocombustibles específicamente el biogás el cual es un gas combustible generado por reacciones de biodegradación de materia orgánica y se da por microorganismos en ausencia de oxígeno. Este gas se obtiene de residuos orgánicos, es por ello que resulta muy beneficioso para la humanidad al ser una opción de energía limpia y renovable. ​​



METODOLOGÍA

Se llevó a cabo la caracterización fisicoquímica de los substratos individuales a emplear, que fueron pan, carne, frutas y verduras. Se realizó la prueba de la demanda química de oxigeno (DQO) empleando el manual de colorimetría Hach del método 8000, empleada del artículo Jirka, A.M.; Carter, M.J. Analytical Chemistry, 1975,47(8).1397. Dicha técnica se llevó a cabo empleando un termoreactor DRB200 y posteriormente se midió en el colorímetro DR/890. Para esta prueba se utilizaron 2.0023 gr de muestra de pan, 1.2733 gr de carne y 1.7145 de frutas y verduras. Del manual de colorimetría Hach se empleó el método 10128 para alto rango para la realización de la prueba de Carbono Orgánico Total, donde se empleó un reactor DRB/200 y el colorímetro DRB/890. Para las muestras se utilizaron 1.1488 gr de pan, 1.0445 gr de carne y 1.75145 gr de frutas y verduras. Posteriormente del manual de colorimetría de Hach del método de digestión del persulfato 10072, se realizó la prueba de Nitrógeno total donde se utilizó un termoreactor DRB/200 para el calentamiento de la reacción y se midieron los resultados en el colorímetro DRB/890. Para dicha prueba se utilizaron 2.0007 gr de pan, 1.0445 gr de carne y 1.1833 gr para frutas y verduras. Se realizó la cuantificación de solidos totales y solidos volátiles para los substratos de pan, carne, frutas y verduras, siguiendo la norma mexicana NMX-AA-043-SCFI-2015 para Análisis de agua-medición de sólidos y sales disueltas en aguas naturales, residuales y residuales tratadas-método de prueba, para dicha prueba se utilizaron el horno, la mufla y el desecador. Después se llevó a cabo la prueba de cenizas en los substratos siguiendo la norma mexicana NMX-F-607-NORMEX-2013 para Alimentos-Determinación de Cenizas en Alimentos-Método de prueba. Una vez terminadas las pruebas para cada uno de los substratos se prosiguió a preparar una mezcla que contenía 49% pan, 29% frutas y verduras y 22% de carne, las cuales se les realizaron cada una de las pruebas mencionadas anteriormente. Como inoculo se utilizaron excretas de ganado vacuno, a las cuales se le realizaron las pruebas anteriores. Finalizadas las pruebas se utilizaron 3 reactores de 1L con las siguientes concentraciones de substratos para llevar a cabo la biodigestión: en el reactor #1 se colocaron 10 gr de mezcla más 30 gr de excretas con 420 ml de agua del grifo y  un factor de dilución de 335, posteriormente para el reactor #2 se utilizaron 10 gr de mezcla con 30 gr de excretas y 450 ml de agua del grifo con un factor de dilución de 350 ml y al reactor #3 se colocaron 30 gr de excretas con 500 ml de agua del grifo con un factor de dilución de 375. Para la evaluación del proceso de biodigestión se evaluó el pH diariamente del substrato, por otra parte se midió con el analizador de gases 3200L la composición de gases presentes en la biodigestión, además se llevaron a cabo pruebas de cuantificación de DQO cada tercer día.  


CONCLUSIONES

En base a las pruebas fisicoquímicas realizadas se concluye que la biodigestión con los substratos utilizados está siendo eficiente así como que las cantidades para que el rector funcione son las correctas. Además se ha observado que hay diversos factores que intervienen para que se realice  la biodigestión como es el pH dado que nos indica si el biodigestor se encuentra en las condiciones óptimas para el crecimiento de las bacterias metanogénicas.
Gómez Villeda Yaritzel de Jesús, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI


TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI

Antaño Locia Gabriel, Universidad Autónoma de Guerrero. Gómez Villeda Yaritzel de Jesús, Instituto Politécnico Nacional. Jiménez Castillo María Herminia, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Se le conoce como discapacidad motora a las limitaciones y restricciones en actividades de la vida cotidiana de una persona como consecuencia de una deficiencia a nivel de estructuras bilógicas. En México cerca del seis por ciento de la población vive con algún tipo de discapacidad, indicándose como la motriz la más frecuente. Hoy en día se busca la implementación de la tecnología en el área médica para dar acceso a personas con dificultad motora a ejecutar algunos movimientos y/o actividades mediante el conjunto de tecnología integrada que comprenda la operación a distancia por un ser humano, llamado teleoperación. Se pretende con el verano de investigación lograr una integración de BCI (Interfaz cerebro-computadora) con el movimiento de un brazo robótico DOBOT Magiacian ®, donde el usuario pueda seleccionar dos actividades, selección de cubos de cuatro colores diferentes cada uno y dibujar formas geométricas en posiciones predeterminadas a elegir, lo anterior con la creación de programas en el software de Matlab y C# en Visual Studio, logrando así una teleoperación.



METODOLOGÍA

Para dar inicio se interactuó con el brazo robótico Dobot Magiacian ®, con el fin de lograr identificar cada una de las partes funcionales, restricciones y precauciones, para una correcta y segura manipulación; por otro lado, también se dio inicio con la descarga del SDK (Software Designer Kit) de la página oficial de Dobot Magiacian ®. Posteriormente se diseñó un manual de los componentes físicos y accesorios del brazo robótico Dobot Magician ®, en el cual se incluyó la descripción y la forma correcta de conectar y ensamblar cada uno de ellos. También se añadió un apartado de las precauciones que se deben tener al momento de utilizar el brazo robótico y de las restricciones que este posee. Después se diseñó y elaboró cada una de las rutinas antes mencionadas: Movimiento de cubos y dibujo de cuatro figuras geométricas, según el color y figura deseada respectivamente, ambas actividades con posición predeterminada a elegir por el paciente.   En lo que refiere a mover cubos, se identificaron las coordenadas de una matriz de dos por tres (2X3), marcadas desde a hasta f, las cuales son las posiciones posibles donde el brazo robótico puede colocar los cubos con el accesorio suction cup. En cuanto a dibujar figuras, se identificaron las coordenadas del triángulo, cuadrado, trapecio y rombo, en cuatro posibles posiciones de una matriz de uno por cuatro (1X4), en donde el accesorio pen fue utilizado. Una vez que se realizó la aplicación externa al software propietario del Dobot Magacian®, gracias al SDK y los componentes DLL, de las cuales se obtuvieron las herramientas necesarias para el desarrollo y control del Brazo robótico por medio de la nueva interfaz, se agregaron funciones que ayudaron a realizar las diversas rutinas implementadas por el Dobot que serían ejecutadas por las diferentes decisiones del paciente que controla el brazo robótico por medio de la BCI. Se analizó la API del Dobot Magacian ® para obtener las funciones que determinaran los movimientos del robot tales como los desplazamientos que hace el brazo robótico por el sistema de coordenadas integrado por defecto, así como las acciones que realiza con sus accesorios (Griper, Suction Cup y Pen). Con la ayuda del software de MATLAB se realizó un procesamiento de imágenes en tiempo real obtenidas de una cámara web las cuales son procesadas para la identificación de cuatro cubos de colores: rojo, verde, azul y amarillo, esto con ayuda del sistema de color RGB. Dentro del programa también se llevó a cabo la ubicación en coordenadas del centroide de cada cubo identificando que para la correcta interpretación de las coordenadas espaciales se tenía que realizar una transformación de pixeles a mm para posteriormente enviarlas en tiempo real al servidor. Lo que se realizó a continuación fue resolver asuntos de conectividad y comunicación, las cuales fueron útiles para que el control del robot funcione de manera remota y este sea capaz de recibir los datos, tanto de la BCI, como de un software externo definido como visión; este ultimó encargado de proporcionar las coordenadas de cada cubo ubicado aleatoriamente, para posteriormente indicar hacia donde deberá moverse el brazo robótico. Para lograr satisfactoriamente la conexión se implementó el protocolo de comunicación UDP, el cual por medio de un socket asincrónico se encargó de recibir y procesar los datos provenientes de las dos aplicaciones mencionadas. Al socket le llegan dos tipos de datos, los comandos de la BCI los cuales determinaban el color de cubo que el usuario selección, así como la posición a la cual se debería mover el cubo (la posición final dentro de la matriz de 2x3), por otra parte, también la obtención de las coordenadas de visión, antes ya mencionadas; desde este punto se implementó la lógica necesaria para poder identificar qué tipo de dato estaba entrando y como este debería manipularse para que las instrucciones se ejecutaran de manera correcta. Para finalizar, se realizó un nuevo manual de la interfaz diseñada, en donde se explicó la manera de llevar a cabo la conexión y ejecución de esta. Además, se incluyó un video de los experimentos llevados a cabo con la nueva interfaz, donde se muestra al paciente teleoperando el brazo robótico Dobot Magacian ®


CONCLUSIONES

A lo largo de la estadía, se logró desarrollar una interfaz con la cual se pudo teleoperar el Dobot Magician ® a través de la BCI, en donde fueron implementadas dos rutinas. Posteriormente se probó el funcionamiento de la interfaz mediante varios experimentos realizados a diferentes pacientes, en los cuales se obtuvieron resultados favorables. A pesar del logro obtenido, nos dimos cuenta de posibles recomendaciones y mejoras futuras, entre ellas que el Dobot Magician ® pueda apilar los cubos y en la parte de visión se pueda obtener la altura de cada cubo.
González Arzola Juan Pablo, Instituto Tecnológico de Reynosa
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
González Benítez Guadalupe Vianney, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE HIDROXIAPATITA


SíNTESIS DE HIDROXIAPATITA

González Benítez Guadalupe Vianney, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

A lo largo de esta estancia se llevo a cabo la obtención de hidroxiapatita por medio de tres métodos:    a. Co-Precipiación b. Sol-Gel c. A partir de cascaron  de huevo de gallina  Dichas síntesis se llevaron a cabo para que a partir de las mismas, se diera apertura a la realización de andamios para realizarles diversas pruebas mecánicas y así mismo, monitorear los aspectos de dicho material para cerciorarnos de la biocompatibilidad con el cuerpo humano. 



METODOLOGÍA

PROTOCOLO PARA LA SINTESIS DE HIDROXIAPATITA POR EL MÉTODO DE CO-PRECIPITACIÓN 1.- Preparar una solución a partir de nitrato de calcio tetrahidratado (Ca(NO3)2.4H2O) con agua destilada (solución 1) . Agitar con la ayuda de la parrilla de agitación, hasta disolución completa. 2.- Elaborar otra solución de fosfato acido de amonio ((NH4)2HPO4) en agua destilada (solución 2). Agitar con la ayuda de la parrilla de agitación, hasta disolución completa.   4.-La solución 2, se adiciona lentamente en la solución 1 mediante una bureta por goteo muy lentamente hasta terminar. 5.-El pH de la solución 1 se ajusta a determinado rango mediante la adición de la solución de hidróxido de amonio preparada previamente. 6.-La síntesis termina cuando se termina de adicionar toda la solución 2, se prosigue la agitación unos minutos más mientras se estabiliza el pH y se termina bien la reacción. 8.-El precipitado obtenido se filtra, se lava y se seca en un horno mufla.  PROTOCOLO PARA LA SINTESIS DE HIDROXIAPATITA POR EL MÉTODO DE SOL-GEL CONVENCIONAL 1.- Solución 1: Se utiliza fosfato acido de amonio ((NH4)2HPO4) en una mezcla 1:1 de agua-etanol. Se utiliza una porción de esta mezcla. Agitar hasta disolución completa. 2.- Solución 2: Preparar una solución a partir de nitrato de calcio tetrahidratado (Ca(NO3)2.4H2O) en alcohol etílico. Agitar hasta disolución completa. 3.- Una vez que se tienen las dos soluciones homogéneas, se mezclan. El procedimiento consiste en la adición de la primera solución a la segunda solución. 4.- La solución final se tendrá que mantener bajo agitación. Posteriormente la temperatura se incrementa constantemente. Al transcurrir el lapso de agitación constante, se podrá observar la formación de un gel.  5.- Después se detiene la agitación hasta la eliminación de la formación de gel y se obtiene un precipitado.  6.- Al terminar la reacción, el material resultante se filtra y se lava. 7.- El polvo resultante de hidroxiapatita se coloca en un horno mufla para secar por completo. 8. Por último, se le dará un tratamiento térmico para que se cristalice el material. PROTOCOLO PARA LA SINTESIS DE HIDROXIAPATITA A PARTIR DEL CASCARÓN DE HUEVO DE GALLINA 1.- Lavar perfectamente el cascarón del huevo de gallina a utilizar y posteriormente dejarlo secar por completo.  2.- Triturar el cascarón del huevo con ayuda de un mortero hasta triturar por completo o bien hasta la formación de polvo.   3.- Someter a tratamiento térmico en crisoles de porcelana rellenos de cantidades específicas de polvo a temperaturas constantes.  4.- Una vez terminado el tratamiento térmico, triturar los cristales obtenidos hasta formar un polvo fino.  5.- Partiendo de dicho polvo se lleva a cabo cualquiera de las síntesis anteriormente mencionadas.


CONCLUSIONES

La obtención de Hidroxiapatita tiene diversas aplicaciones como son: Odontología, Oftalmología, Medicina estética y Prótesis.  Enfocándonos en el área de prótesis, dicho material es biocompatible, razón por la cual idealmente hablando es un excelente candidato para la realización de prótesis cualesquiera adaptadas a los signos vitales del cuerpo humano. Realizar cada síntesis fue una experiencia maravillosa la cuál me permitió ampliar mi campo de conocimiento y despertar nuevas habilidades y ganas de aprendizaje permitiendóme también corroborar que todas la disciplinas van de la mano para cambiar al mundo y emprender una nueva generación.   
Gonzalez Bracamontes Jessica Guadalupe, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

SIMULACIÓN Y OPTIMIZACIÓN DE PROCESOS EN EL SOFTWARE DELMIA QUEST ®


SIMULACIÓN Y OPTIMIZACIÓN DE PROCESOS EN EL SOFTWARE DELMIA QUEST ®

Gonzalez Bracamontes Jessica Guadalupe, Instituto Tecnológico de Colima. Lara Ochoa Carlos Daniel, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en cualquier tipo de sistema es de suma importancia conocer que es lo que sucede en cada proceso para saber si se puede optimizar, para ello existe la simulación, una herramienta que nos puede ser de mucha utilidad al momento de implementar propuestas sin que la empresa se vea afectada en caso de que éstas no sean las adecuadas. Lo cual ayuda a los gerentes, ya que ellos van a ser capaces de probar y ejercer alternativas de decisiones en el modelo simulado, permitiendo ensayar cada una de sus decisiones ajustando el modelo e inmediatamente ver su efecto. La simulación está siendo cada vez más demandada en empresas de manufactura ya que ésta trata de acercarse lo más posible a las características de la realidad y esto genera que dichas empresas opten por esta herramienta ya que ayuda a mejorar su proceso sin necesidad de intervenir directamente en éste. Debido a esto se ha facilitado la simulación con la ayuda de softwares, ya que hacerlo a mano puede ser muy tardado, existen diferentes programas que ayudan a simular, tal es el caso de Excel, sin embargo, se han desarrollado programas para computadoras destinados únicamente para que nos ayuden a simular procesos; durante este verano de investigación aprendimos a manejar el software Delmia Quest ®, creado para modelar los procesos y poder generar propuestas de mejora para después implementarlas en el mismo programa y analizar qué es lo que sucede. En la empresa fabricante de puertas metálicas se modela todos los procesos que contiene su sistema para analizar lo que sucede dentro de ésta y poder obtener propuestas de mejora ya sea en cada proceso o en un área específica y buscando minimizar la entrega tardía del producto al cliente.



METODOLOGÍA

Se utilizan datos reales de una empresa fabricante de puertas metálicas para crear el modelo a simular, esto con el propósito de analizar sus procesos y utilizar nuestro conocimiento para buscar áreas de oportunidad y crear propuestas que ayuden a mejorarlos. El modelo por simular consta de cinco departamentos en los cuales se lleva a cabo el proceso de producción de las diferentes puertas que esta planta produce, para realizar nuestro modelo de simulación decidimos llevar a cabo el proceso de la puerta de 2 luces. El proceso comienza en el departamento de herrería en el cual se llevan a cabo operaciones como tronzado donde se hace el corte de los perfiles a las medidas especificadas por la orden del cliente, habilitado donde se hacen las perforaciones a los perfiles para prepararlos para futuros procesos, armado donde a través de soldadura los perfiles son unidos para dar la forma preliminar del producto, pulido en donde se elimina el exceso de soldadura en las uniones y por último la operación de recubrimiento para evitar oxidación con el paso del tiempo.   El proceso continuó en el área de rolado y troquelado en la cual se colocan láminas de acero galvanizado en una roladora, la cual les da la forma de perfil, dando como resultado el marco. Se obtienen dos empaques, uno de ellos con 30 piernas que se dirigen al área de troquelado, donde se procede a realizar el punteado, después de esto se dirige al área de lavado donde se eliminan todas las impurezas únicamente de los marcos, el otro empaque contiene 30 cabezales y 30 piernas derechas el cual se dirige al área de lavado directamente, en esta área se realizan 3 operaciones que son desengrase, enjuague y secado, las cuales se realizan en tres tinas una para cada etapa previamente indicada.  La siguiente área es la de pintado, aquí llegan las hojas soldadas y los marcos lavados, se suben a un carrusel a tres metros de altura que gira automáticamente a una velocidad de 30 mm/s, en ésta se aplica la pintura en polvo, después de esto pasan a través del horno a una temperatura de 220°C para su curado, esto depende de lo que se va a pintar, es decir, si es marco o puerta. Por último se encuentra el área de armado de puerta donde se realiza el armado final de la puerta, en esta área se llevan a cabo cinco operaciones las cuales son el corte de vidrio en donde se hace el corte de hojas de vidrio a las medidas de las órdenes del cliente, envidriado donde se realiza la colocación de vidrio y silicón, habilitado donde se hace la preparación de la chapa, armado donde se realiza el ensamble de piezas entre la puerta y el marco, por último se realiza el empaque para dirigir el producto terminado a embarques. Al finalizar el modelo llevamos a cabo la validación de este para asegurar que simulaba un lote de 510 puertas, después de esto hicimos un total de treinta corridas para poder calcular el tiempo promedio en que se entregaba este lote de puertas. Una vez hecho todo esto analizamos todas nuestras áreas y usamos nuestros conocimientos para buscar posibles mejoras que beneficien el sistema.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos del software Delmia Quest ®, así como poner a prueba nuestros conocimientos adquiridos en la carrera de ingeniería industrial para poder proponer mejoras que optimicen los procesos de producción. Después del análisis del modelo simulado, pudimos observar que había máquinas gemelas que hacían las mismas operaciones, por lo que decidimos probar que pasaba con el tiempo si eliminamos una de esas máquinas. Logramos eliminar cuatro máquinas, tres en el área de herrería y por último una en el área de troquelado, lo que nos ayudó en la reducción del tiempo de entrega del pedido del lote de 510 puertas de dos luces.
González Castro Brayan, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

PREPARACIóN DE NANOESTRUCTURAS Y SU CARACTERIZACIóN POR XPS


PREPARACIóN DE NANOESTRUCTURAS Y SU CARACTERIZACIóN POR XPS

González Castro Brayan, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La espectroscopia fotoelectrónica de rayos X (espectroscopia XPS o ESCA) es una técnica analítica de superficie para análisis de la composición, tanto cualitativa como cuantitativa, que además permite determinar el estado químico de los elementos en la superficie de un material. Adecuada para el estudio de superficies e interfaces. Con esta técnica se puede abordar el estudio de diferentes tipos de materiales como metales, aleaciones, materiales cerámicos, polímeros, vidrios, semiconductores, muestras geológicas, y en general, cualquier superficie compatible con sistemas de ultra-alto vacío, en aplicaciones tan diversas como análisis de deposición de capas y multicapas, tratamientos de superficies, segregación superficial, estudios de adhesión, corrosión, metalurgia, catálisis, electrónica, etc.



METODOLOGÍA

Objetivo: Cuantificación de los sub óxidos en obleas de silicio para su estudio, determinación de crecimiento y decapado por erosión con futuras aplicaciones en la industria.Especificamente el silicio se usa comúnmente en  paneles solares, y están formados por un conjunto de células fotovoltaicas que producen electricidad a partir de la luz que incide sobre ellos mediante el efecto fotoeléctrico. Los paneles fotovoltaicos, en función del tipo de célula que los forman, se dividen en: Cristalinas Monocristalinas: se componen de secciones de un único cristal de silicio (Si) (reconocibles por su forma circular u octogonal, donde los 4 lados cortos, si se puede apreciar en la imagen, se aprecia que son curvos, debido a que es una célula circular recortada). Policristalinas: cuando están formadas por pequeñas partículas cristalizadas. Amorfas: cuando el silicio no se ha cristalizado. Su efectividad es mayor cuanto mayor son los cristales, pero también su peso, grosor y costo. El objetivode este proyecto es conocer las condiciones para dismunuir el espesor del oxido de silicio para llevarlo a condiciones optimas para su correcto funcionamiento en los paneles. Metodología: 1.Aprendizaje en el método de RCA para la limpieza de obleas de Silicio 2.Realizar el crecimiento térmico a temperatura de 800°C con flujo de oxígeno 3.Preparación en porta muestras para introducción al sistema de análisis XPS que incluye mediciones angulares, conocida como ARXPS 4.Determinación del espesor del óxido de silicio utilizando el software Aanalyzer 5.Cuantificación de los sub óxidos formados durante el proceso de crecimiento 6.Comenzar pruebas con el cañón de argón a diferentes potencias 7.Evaluación de resultados finales


CONCLUSIONES

Despues de realizar las pruebas y los analisis en las obleas con oxido de silicio obtuvimos uina velocidad de erosion bajo las condiciones en lass que la oblea fue tratada, y ahora sabemos que, si tratamos el silicio bajoe sos linemaientos podremos erosionar su oxido de una forma especifica y controlada, para llevarlo a un desarrollo oportuno y brindar las ocndiciones que, en este caso los panerles necesitan.
González Cázares Héctor Iván, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES


MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES

González Cázares Héctor Iván, Instituto Tecnológico Superior de Uruapan. Morales Araujo Brenda, Instituto Tecnológico Superior de Uruapan. Pedraza Arriola Lizeth Vanessa, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

La fabricación de este banco es un elemento indispensable para el desarrollo del conjunto del motor y para la validación del material elaborado. Para el desarrollo del material compuesto laminar carbón-carbón, se requiere validarlo respecto a la aplicación para la cual se desarrolla. En este sentido, desde el punto de vista experimental debe contarse con un sistema físico que simule las condiciones de operación del motor para el que se ha desarrollado el material antes mencionado. Existen diferentes tipos de bancos de prueba acordes a las características de los motores que se desarrollan y a los parámetros de desempeño que se buscan medir. En general, los bancos de prueba más comunes cuentan con una cama de desplazamiento axial paralelo a la horizontal, lo que permite reducir los grados de libertad del motor. Este tipo de bancos son adecuados cuando se quieren medir variables térmicas y de flujo en el motor, como lo son las temperaturas de los componentes, las velocidades de descarga y el empuje axial resultante. En punto importante a considerar en el desarrollo de los bancos de pruebas es la potencia del motor, pues la estructura de soporte y los elementos de seguridad deben de ser acordes con las características de desempeño del mismo. De igual forma, la instrumentación debe ser planteada en términos de cada motor en específico.



METODOLOGÍA

La realización de este proyecto se llevó a cabo en la institución educativa UNAQ (Universidad Aeronáutica de Querétaro). El comienzo de esta investigación se debe a la búsqueda por realizar pruebas experimentales para la recopilación de información en sistemas de cohetes, así como para su post análisis. Es por ello que este estudio se presenta estructurado a manera de resumen, que contiene la información de la escuela hasta el avance final de dicha investigación.En este estudio lo primero que se llevó a cabo fue un análisis del diseño conceptual y de ingeniería así como de planos en CADâ de un banco de pruebas para el motor desarrollado en el proyecto Desarrollo de materiales compuestos laminados carbón- carbón para uso en componentes de sistemas de propulsión para lanzadores orbitales y suborbitales. Se tomaron en cuenta las consideraciones de diseño y el establecimiento de una configuración de prueba axial paralela a la horizontal, considerando las necesidades de la caracterización del comportamiento del motor acorde a lo proyectado por el diseño de la cámara, la tobera, además de la resistencia y desgaste del material desarrollado. El estudio de pruebas se ejecutó en el software de simulación ANSYS v8â Dichas simulaciones de pruebas fueron: Pruebas estructurales: Son una aproximación al diseño de casos en donde las pruebas se derivan a partir del conocimiento de la estructura de acuerdo a la carga. Pruebas Térmicas: Realizadas para aproximarse a las temperaturas soportadas en el material elegido. Pruebas Térmoestructurales: Pruebas efectuadas para conocer el valor cercano de deformación en la estructura de acuerdo a la temperatura. Gracias a esto nos permiten asegurar la resistencia del banco ante las condiciones de la prueba bajo los parámetros de operación esperados para el motor, así como la configuración en el plano general. Cabe resaltar que las pruebas fueron llevadas a cabo por compañeros de la institución señalados al final de este documento en la sección de agradecimientos. Una vez hechas las pruebas se comenzó con la manufactura del banco por lo cual se optó por utilizar Acero estructural A36 ya que debido a que es una aleación al carbono lo cual propicia una resistencia ultima a la tensión de 36,000 lb/pg2.  Además de la utilización de Acero inoxidable por sus características a la intemperie y su resistencia. Teniendo la materia prima era necesario fabricar las piezas para posteriormente ensamblarlas, las piezas se llevaron a cabo con diferentes maquinados CNC (Control Numérico Computarizado) tales como: Planeado: Para igualar y allanar las superficies o planos de la pieza. Barrenados: Para realizar agujeros. Cortes. Para ello se utilizaron los tratamientos antes mencionados con las correctas herramientas y con la capacitación de los profesores.


CONCLUSIONES

Las experiencias adquiridas en este verano durante la estancia en la UNAQ han sido inigualables, este trabajo nos sirvió para interiorizarnos y aprender de una manera más adecuada como se realiza un proyecto de investigación para en un futuro próximo tener una mejor visión y noción al momento de adentrarnos en un proyecto, así como el apoyo y entusiasmo que recibimos de nuestros asesores a lo largo del trabajo. La elección del tema expuesto tuvo origen en el interés que se nos presentó a todos los integrantes de este grupo al darnos cuenta que se necesitaba la fabricación de piezas bajo ciertas tolerancias y parámetros, por lo cual estaba relacionado con la carrera que actualmente estudiamos Ingeniería Industrial, a raíz de esto nos empezamos a informar sobre el tema de comprensión de planos en CAD, la Metrología de las instrumentos de medición y su correcta calibración, Medición de piezas, incluso indagamos en temas que desconocíamos pero que eran necesarios como Tipos de materiales, Características del Acero y sus aleaciones, Maquinados en CNC (para lo cual debimos leer un manual para su correcto funcionamiento además de recibir capacitación por parte de los profesores de la institución).  A partir de allí comenzamos a trabajar en el área de maquinados para fabricar las piezas necesarias para su ensamble posterior, todo esto nos ayudará para nuestra formación tanto profesional como personal ya que el hecho de trabajar en equipo fortalece la comunicación y las relaciones que uno genera para en un futuro crear las nuevas empresas mexicanas. AGRADECIMIENTOS No nos queda más que agradecer a todas las personas que estuvieron involucradas en este proyecto ya que sin ellos no hubiera sido posible esta investigación y por compartirnos todos sus conocimientos. Dr. Omar Aconeltzin Jiménez Arévalo Dr. Aris Iturbe Hernández Raúl Ramírez Reséndiz  Ingrid Astrid Orta Uribe Leonardo Guzmán Enríquez Gerardo Moreno González
González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Gonzalez Delgadillo Karen Daniela, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla

HIDROGEL A PARTIR DE EXOESQUELETOS DE PESCADO


HIDROGEL A PARTIR DE EXOESQUELETOS DE PESCADO

Gonzalez Delgadillo Karen Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Heriberto Hernández Cocoletzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el costo de medicamentos y tratamientos especializados es cada vez más elevado. Esto ha llevado al ser humano a buscar mejores sistemas tanto para la administración de medicamentos como para mejorar su función en el cuerpo. En particular, la pérdida o el deterioro de piezas dentales requiere atención especializada. El deterioro dental principalmente es provocado por la aparición de caries, las cuales suelen generar cavidades con formas irregulares. La extracción de dientes también es motivo de formación de cavidades. La forma irregular de estas origina un difícil tratamiento, por ejemplo, en la búsqueda de remineralización. Hasta ahora se ha utilizado hidroxiapatita natural o sintética. Además, con los métodos y materiales actuales es necesario llevar a cabo procedimientos largos y costosos. Por esta razón, es deseable tener un material remineralizante que sea capaz de ocupar inclusive los espacios más irregulares y de menor costo posible.Actualmente el costo de medicamentos y tratamientos especializados es cada vez más elevado. Esto ha llevado al ser humano a buscar mejores sistemas tanto para la administración de medicamentos como para mejorar su función en el cuerpo. En particular, la pérdida o el deterioro de piezas dentales requiere atención especializada. El deterioro dental principalmente es provocado por la aparición de caries, las cuales suelen generar cavidades con formas irregulares. La extracción de dientes también es motivo de formación de cavidades. La forma irregular de estas origina un difícil tratamiento, por ejemplo, en la búsqueda de remineralización. Hasta ahora se ha utilizado hidroxiapatita natural o sintética. Además, con los métodos y materiales actuales es necesario llevar a cabo procedimientos largos y costosos. Por esta razón, es deseable tener un material remineralizante que sea capaz de ocupar inclusive los espacios más irregulares y de menor costo posible.



METODOLOGÍA

De principio, se consiguieron dos especies de pescado, en primer lugar, se utilizó la especie tilapia, la cual llamaremos muestra A y en segundo lugar se utilizó la especie mojarra, a la que llamaremos muestra B. Posteriormente los exoesqueletos de estas especies fueron lavados. Después ambas muestras se pusieron a secar en una estufa a 171°C por aproximadamente 4 horas. Una vez lavados y secados los exoesqueletos, se llevó a cabo el triturado de éstos, cada especie por separado, en una licuadora convencional y posteriormente con ayuda de un mortero, se terminaron de triturar. Después, se llevó a cabo el calcinado de las muestras en una mufla, se hicieron varias pruebas para que se llegara al calcinado perfecto de cada una de las muestras, finalmente la muestra A se llegó el calcinado correcto a una temperatura de 800°C por 3 horas, y la muestra B se llegó el calcinado correcto a una temperatura de 900°C igualmente por 3 horas. Posteriormente, se analizaron ambas muestras mediante la técnica espectroscópica de FT-IR, la muestra A se analizó 4 veces, y la muestra B se analizó 2 veces, estas diferencias de veces que se analizaron fueron debido a que hubo más contenido de muestra A que demuestra B. Seguidamente, se les hizo ultrasonido a ambas muestras durante 120 minutos a cada una de ellas, con una temperatura aproximadamente de 40 a 47°C. Esto se hizo agregando en 1 g de muestra, 20 ml de agua destilada. Se hizo ultrasonido a las muestras para que el tamaño de partículas de éstas redujera. Más adelante de haber retirado las muestras del ultrasonido, se llevó a cabo el secado de las muestras en una estufa a una temperatura de 162°C por aproximadamente 6 horas, para que así se pudiera evaporar el agua y solamente quedara la HAp. Luego, se hizo la preparación del gel, en el cual se vertió en un matraz de 100ml, 5133 g de carbopol, y se mezcló con el fin de evitar la formación de grumos. Posteriormente se agregaron 5 mL de glicerina y 5 mL de trietanolamina, mezclando uniformemente hasta la formación del gel. La viscosidad del gel se controló agregando carbopol en cantidades apropiadas. Y por último se agregaron 100 mL de agua. Se realizó un experimento del gel agregando ahora la HAp, usando 10 g del gel preparado anteriormente con 3.9 g de HAp muestra B, el cuál dicho experimento no resultó. Después se modificaron cantidades, 10.1335 g de gel junto con 1 g de HAp muestra B, el cuál tuvo una mejor consistencia. Por último, se llevaron a analizar las muestras A y B al CUVYTT ubicado en la Benemérita Universidad Autónoma de Puebla, en donde se les hizo SEM y Drx.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la importancia que tiene la hidroxiapatita en el área medicinal, en este caso el área de odontología y ponerla en práctica mediante las diferentes técnicas espectroscópicas como lo son infrarrojo (FT-IR), microscopia electrónica de barrido (SEM) y los rayos x (DRx), sin embargo. Se espera seguir trabajando con este material para lograr nuevos objetivos y claro está, llevar a la aplicación el gel obtenido en esta estancia para remineralizar los dientes.
Gonzalez Diaz Robert Jesus, Instituto Tecnológico de Matamoros
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

PLACAS COMPUESTAS A BASE DE RECICLADO POR TERMO-CONPRESION.


PLACAS COMPUESTAS A BASE DE RECICLADO POR TERMO-CONPRESION.

Gonzalez Diaz Robert Jesus, Instituto Tecnológico de Matamoros. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En México toneladas de plásticos son desechados en espacios públicos como calles, campos, parques, plazas, por los ciudadanos que no tienen conciencia alguna sobre el daño que estos podrían ocasionar. Actualmente hay muchas empresas trabajando en la solución de este problema, cada una abarcan ya sea todos los tipos de polímeros o solo unos en específico, esto por los diferentes parámetros que tienen, los equipos son muy costosos y se llevan diferentes procesos para las diferentes clases de este material. Para poder darle un proceso de reutilización a los polímeros se tienen que cortar en partículas pequeñas, por lo que los procesos de corte son largos y utilizan muchos equipos, por lo que veremos si eso se puede acortar.



METODOLOGÍA

Se utilizó polipropileno colorido de diferentes tipos de envases y de tipo lechero para darles un uso nuevo. Las partículas presentaban una superficie variada desde 1cm - 3cm de longitud. La idea era colocar pequeñas cantidades en un molde para después pasarlo al equipo principal el cual constaba de una termo prensa y ahí moldear las partículas para generar un producto a base de reciclado y probar su propiedades físicas. Se enciende la prensa y la programamos a la temperatura deseada que serán 200 ° Celsius, que es el punto de fusión de nuestro material. Se calculó el volumen de los moldes para saber cuánto material se necesitaba, después de esto se colocó en un recipiente y se midió en una balanza analítica para su mayor precisión. Se colocó una placa metálica (para que el material no se adhiera a la superficie de la prensa), encima una película antiadherente de teflón para evitar que el material se funda en la superficie de la placa, después el molde en el cual verteremos el material con el cual vamos a trabajar (con su peso ya calculado), encima otra película de teflón y  otra placa metálica y lo colocaremos dentro de la prensa. Tiene un mecanismo sencillo parecido a un gato hidráulico, consta con un cilindro el cual convierte la presión en un movimiento lineal generando fuerza, la cual es aplicada al molde que se encuentra en medio de las dos superficies de la prensa. - Se deja calentar por un periodo de 5 minutos a una presión inicial de 0 kg/ . - Una vez terminado el tiempo, libera la presión de la prensa, eso la hará bajar y podremos dar una ventilación al calor acumulado en forma de vapor dentro del molde moviendo de forma lineal la película, unas 3 veces  y con eso continuamos a aumentar la presión hasta los 100 kg/ , repetimos el mismo proceso. - Después aumentamos la presión hasta los 200, 250 y finalmente 300 kg/ (estas presiones fueron obtenidas a través de distintos experimentos y se concluyó que eran la mejor combinación de parámetros para los resultados que buscamos obtener). - Terminado el proceso, enfriaremos con ayuda de un ventilador y reduciremos la temperatura de la prensa a 100°C. - Tomaremos el molde ya con menor temperatura y procederemos a retirar las películas de teflón. - Observamos la muestra y la despegamos. Notamos que el volumen de material utilizado no fue suficiente puesto que al fundirse y someterse a una enorme presión se compacto el material y no se alcanzó a cubrir todo el área del molde, por lo que después de rigurosas pruebas se acordó a utilizar 60 g de material para que logre abarcar todo el molde. Habiendo encontrado los parámetros necesarios para la creación de nuestras placas, recrearemos el mismo proceso y mismas mediciones para los polímeros de envases lecheros. Pasaremos a hacer las pruebas físicas de estas. Se debe dejar reposar por un mínimo de 5 días para que las placas estén bien unificadas. Cortaremos muestras con un cortador especial el cual nos dará pequeños tabloides rectangulares que usaremos para las pruebas. Pasaremos a utilizar un muescador para generar un punto de quiebre en el cual se concentrara la energía de un péndulo que usaremos más adelante. Para calcular este punto, mediremos el ancho de la muestra, después dentro del muescador, para realizar el corte hay que mover la muestra de forma milimétrica, de esta forma dándole giro al sistema de empuje pero con la más mínima fuerza, giraremos el sistema hasta el punto en el que ya no pueda seguir girando y nos dará un valor, restaremos el ancho de la muestra al valor obtenido en el muescador, a l resultado le sumaremos 10.16 que es nuestra medición general de acuerdo a las norma ASTM D-6110, obtendremos el valor que nos indicara hasta qué punto generaremos las muescas en nuestros tabloides. Las muestras ya muescadas se dejan reposar por 24 horas. Utilizaremos un Impactador Charpy Instron CEAST 9050 con un péndulo de 2.7 J, la calibramos y la manejaremos de acuerdo a la norma ASTM D-6110. Calcularemos el grosor de las muestras, si fuesen uniforme un solo calculo nos bastaría, pero al tener partes con diferente grosor, tomaremos tres medidas, dos de las orillas y el grosor de la parte central se sumaran y dividirá el resultado entre el número de cálculos hechos, en este caso tres, y el resultado obtenido lo pondremos dentro de los cálculos que necesita el impactador para generar datos adecuados de acuerdo a la muestras que se utilizara. Colocamos la muestra con la parte muescada en dirección a la caída del péndulo y se procederá dejar caer el péndulo y anotar los resultados obtenidos. Se necesitan de 5 (cinco) muestras de cada placa que tengamos para calcular la desviación estándar que nos pide la norma ASTM. De este modo habremos terminado el experimento y nos quedaremos a comprender los resultados.


CONCLUSIONES

En base a los resultados obtenidos y al tiempo que se tuvo para realizar los experimentos, se concluyó que los parámetros calculados y los procesos para generar las muestras, son adecuados para ser utilizados en la generación de nuevos productos con polietileno reciclado, y de esta forma darle uso a esos plásticos que se encuentran tirados u ocupando gran espacio en los vertederos. Son lo suficientemente resistentes como para crear botes de basura, recipientes, utensilios, y de esta forma se podrían generar locales destinados a este proceso el cual generarían empleos e ingresos al país.
González Fuentes María del Pilar, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Gilberto Gomez Rosas, Universidad de Guadalajara

PROPUESTA DE MEJORA PARA LA OPERACIÓN DEL LABORATORIO LÁSER DEL CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍAS. DISEÑO Y MANUFACTURA DE PIEZAS Y ADITAMENTOS PARA UN BRAZO ROBÓTICO.


PROPUESTA DE MEJORA PARA LA OPERACIÓN DEL LABORATORIO LÁSER DEL CENTRO UNIVERSITARIO DE CIENCIAS EXACTAS E INGENIERÍAS. DISEÑO Y MANUFACTURA DE PIEZAS Y ADITAMENTOS PARA UN BRAZO ROBÓTICO.

Campos Ortega José Manuel, Instituto Tecnológico de Colima. González Fuentes María del Pilar, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Gilberto Gomez Rosas, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La utilización de sistemas láser conlleva un riesgo intrínseco de exposición del organismo humano a una fuente de Radiación No Ionizante, en función de la clase del sistema y de las medidas de control que sean adoptadas. Por ende es imperativo que los lugares donde se albergan este tipo de sistemas cuente con las medidas preventivas necesarias para garantizar la seguridad de los operadores así como el óptimo funcionamiento del sistema. El principal obstáculo que se presentó para cumplir este objetivo fue que en el laboratorio donde se realizan los experimentos  con el láser de alta potencia y el brazo robótico ABB 120 para el tratamiento de materiales, no se cumplen con las normativas para la operación de este tipo de sistemas, presentando mala organización del espacio de trabajo, falta de la señalética adecuada, carencia de limpieza del laboratorio y averías o mal funcionamiento de las herramientas de trabajo. Siendo el último el mayor de los impedimentos para el desarrollo de los experimentos que se llevan a cabo en el laboratorio, ya que, además de que el sistema láser clase 4 actualmente no se encuentra en operación por fallas en su funcionamiento, el brazo robótico presentaba una pieza rota a causa de un accidente durante la manipulación- del mismo.



METODOLOGÍA

Se hizo la implementación de las 5’S, la cual es una metodología que, con la participación de los involucrados, permite organizar los lugares de trabajo con el propósito de mantenerlos funcionales, limpios, ordenados, agradables y seguros. Nos presentamos con el encargado de laboratorio para hacerle una encuesta de la implementación de las 5’S en el laboratorio de ABB 120.   Para que la estrategia de las 5S´s funcione plenamente, requiere de: ·         el compromiso de la dirección para promover actividades, ·         el ejemplo por parte de supervisores, ·         y el apoyo permanente de los líderes en los sitios específicos de trabajo.   El apoyo de la dirección, con su compromiso permanente sobre la actuación de sus colaboradores, así como el estímulo y el reconocimiento, son fundamentales para perpetuar el proceso de mejora, que supervisores le den a las acciones que deben realizar los operarios, clave para crear una cultura de organización, orden, disciplina y progreso personal.   También se sustituyó una pieza que forma parte de las garras del brazo robótico con el que se realizan los experimentos. La pieza en cuestión se encontraba rota por la mitad y hacían falta partes que, aunque eran pequeñas también eran esenciales. Se duplicó mediante modelado e impresión 3D. Aprovechando el hecho de que el sistema de sujeción utiliza dos garras iguales utilizamos la que se encontraba en buen estado para realizar las mediciones necesarias para realizar modelado en 3D mediante el software AutoCAD. El modelo elaborado a partir de las mediciones tomadas se exportó al formato .stl, con el objetivo de que el modelo pueda utilizarse en el software asistente de impresión 3D CURA. Con el apoyo del área encargada del desarrollo de proyectos de innovación e impresiones 3D, pudimos imprimir en filamento ABS la pieza que previamente modelamos, ya que este material presenta cualidades físicas similares al de la pieza original. Una vez que la pieza estuvo impresa y gracias a que la revisamos, encontramos algunos errores de diseño, los cuales corregimos. Ya impresa la pieza corregida volvimos a cerciorarnos que el modelo hecho por computadora no tuviera errores, una vez que verificamos que todo estuviera en orden la montamos en el sistema de las pinzas y pudimos constatar que funcionaba de la misma manera que la pieza original dañada. Esto se comprobó conectando el sistema de las pinzas a la salida del compresor del robot, y activando la salida del aire para abrir y cerrar las pinzas, corroborando que efectivamente estas se abrían y cerraban de manera correcta.   Además, diseñamos un sistema de sujeción para el brazo robótico que pudiese adaptarse a casi cualquiera de las geometrías de los materiales utilizados durante las pruebas y que pudiese atender las distintas necesidades que se presentan durante del proceso de experimentación. Se modeló mediante el software AutoCAD las piezas que conforman el sistema, el cual está constituido por una placa que funciona como base de todo el sistema, acoplamientos para el brazo robótico y las piezas que ayudan a sujetar los materiales con los que se experimenta.   mentará. Se exportaron las piezas diseñadas al formato .iges, para manipularlas con mayor facilidad en el software SOLIDWORK y con ayuda del asistente de dibujo se elaboró el plano correspondiente para cada una de las piezas del sistema, debido a  que se llevarían a un taller de maquinado para su fabricación. El tipo de material seleccionado para la fabricación de las piezas fue el aluminio 1100, debido a que, por su ligereza, resistencia, facilidad de maquinado y resistencia a la corrosión es idóneo para el proceso de experimentación. Se ensambló e instaló el sistema para realizar pruebas de funcionamiento que consistieron en mover el brazo robótico mientras que el sistema estuviera puesto y observar que se mantuviera firme y sujetando el material de experimentación en todo momento. Se realizaron los ajustes necesarios y se resguardaron los componentes del nuevo sistema en un lugar adecuado dentro del laboratorio.


CONCLUSIONES

Durante la estancia de verano se logró realizar una propuesta de mejora para el laboratorio donde se realizan los experimentos, para que así cumpliese con las normas necesarias para garantizar la seguridad del personal que labora ahí. También se diseñaron y construyeron piezas y aditamentos para mejorar el funcionamiento del brazo robótico empleado en el tratamiento láser de los materiales y de esta manera se comprendió como es que este mecanismo ayuda a mejorar el proceso de tratamiento.
González García Gabriela Alondra, Universidad Autónoma del Estado de México
Asesor: Mtro. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos

MOTIVACIóN: FACTOR QUE IMPULSA LA PRODUCTIVIDAD LABORAL EN LA EMPRESA PURIFICADORA DE AGUA BERMAR S.A. DE C.V.


MOTIVACIóN: FACTOR QUE IMPULSA LA PRODUCTIVIDAD LABORAL EN LA EMPRESA PURIFICADORA DE AGUA BERMAR S.A. DE C.V.

González García Gabriela Alondra, Universidad Autónoma del Estado de México. Asesor: Mtro. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el único camino para que una empresa pueda crecer y aumentar su rentabilidad es ser más competitiva que sus competidores en el mercado. Existen muchos factores que contribuyen a la competitividad empresarial tales como la ubicación, los equipos, las materias primas, la distribución, entre otros más, pero el capital humano es el factor decisivo para crear una ventaja competitiva a largo plazo. Para incrementar la productividad humana del personal en una organización es necesario conocer los factores que influyen de manera directa e indirecta en el desempeño de sus labores, así mismo es fundamental que la empresa garantice su bienestar, brindándole todas las herramientas y condiciones que les permitan desarrollarse personal y profesionalmente. El estudio de campo realizado en la microempresa Purificadora de Agua Bermar S.A. de C.V., ubicada en el Municipio de Balancán, Tabasco, mostró que existe una gran deficiencia en el rubro de la capitalización el factor humano, así como en el control de ingreso y egreso de producto a la planta.



METODOLOGÍA

Con la finalidad de identificar y determinar el área de oportunidad de mayor interés para la organización se llevó a cabo un diagnóstico preliminar. Por medio de un SIPOC se logró visualizar los principales procesos que la empresa desarrolla durante la realización de sus actividades diarias, así mismo llevo a cabo un mapeo de esos procesos para conocer las actividades específicas que se realizan en cada uno de ellos. Finalmente se hizo un AMEF de tipo detectivo para identificar y analizar las posibles fallas potenciales en los principales procesos, esta herramienta dio como resultado la identificación de la actual falla potencial en el proceso productivo. A través de una lista de verificación se auditó las condiciones estructurales con las que la empresa opera actualmente, el formato aplicado se estructuro de tal manera que se logrará no sólo identificar el área con mayores deficiencias sino también conocer cuáles son esas deficiencias y como afectan al personal. Con el propósito de identificar las áreas de oportunidad que permitan determinar y gestionar un ambiente de trabajo adecuado para cumplir con los requerimientos del producto y servicio, se aplicó una encuesta analítica que evaluó las condiciones de trabajo, la cooperación interdepartamental, supervisión, condiciones físicas del área de trabajo, satisfacción laboral y compatibilidad entre la vida laboral y familiar. Se le aplicó una encuesta descriptiva titulada Encuesta de Servicio de Atención al Cliente a los habitantes de la cabecera municipal del Municipio de Balancán que son consumidores, con la objetivo de conocer las necesidades e inquietudes sobre el servicio que los repartidores les ofrecen al momento de adquirir el producto que la empresa. Para llevar a cabo la priorización de las áreas de oportunidad con mayor impacto en la empresa primeramente se enlistaron y a través de un CNM se evaluaron respondiendo a los cuestionamientos por qué se considera como tal y cómo impacta en la organización cada una de las ramificaciones del Árbol de Necesidad se ponderaron según su grado de impacto, al CTQ más crítico de cada área de oportunidad se le realizó un análisis a través del cual se obtuvo su línea base y  RTY correspondiente. Se identificó el CTQ con menor RTY dentro de la empresa el cual es la falta de control en el ingreso y egreso de producto a la planta, así como la deficiencia en la capitalización del factor humano. Una vez identificada la problemática principal: Falta de control en el ingreso y egreso de producto a la planta, así como la deficiencia en la capitalización del factor humano. Se implementó la metodología Six Sigma para darle solución y control. Etapa 1: Definición: Se realizó un Marco del Proyecto Six Sigma en el cual se definió el título del proyecto, las necesidades de la organización a ser atendidas, la declaración del problema, los objetivos y el alcance que se pretende lograr, los roles y responsabilidades dentro de la empresa, los recursos necesarios y métricas a utilizar, y el entregable final a la empresa. Etapa 2: Medición: En esta etapa las herramientas que se implementaron fueron un mapeo especializado del proceso de registro y control de ingreso y egreso de producto a la planta, se calculó el Nivel Sigma de dicho proceso, y la realización de gráficas de Pareto para medir la motivación del personal dentro de la empresa. Etapa 3: Análisis: Tomando como base el mapeo especializado se aplicó un AMEF para conocer dónde se encuentra la falla potencial en el proceso de registro y control, los resultados obtenidos dan a conocer que el RPN de mayor grado se encuentra en la actividad de registrar de la cantidad de garrafones anotados en el formato. Ya identificada la actividad que provoca la variabilidad del proceso se empleó la técnica de los 5 por qué para encontrar la causa raíz de dicha variabilidad. Etapa 4: Mejora: Se llevaron a cabo las propuestas de acción necesarias para optimizar las áreas de oportunidad identificadas como las de mayor impacto para la empresa, en ellas se establecieron las metas, líneas de acción, actividades a realizar, responsables y el entregable de cada una de ellas. Etapa 5: Control: En este apartado se dan a conocer las herramientas o métodos de control para inspeccionar las propuestas de mejora presentadas en la etapa anterior, dando a conocer el objetivo que se persigue y los posibles responsables de la supervisión de cada uno de ellos.


CONCLUSIONES

Finalmente se dará a conocer al Gerente General de la empresa Purificadora de Agua Bermar S.A. de C.V., los beneficios de la correcta implementación de las propuesta de mejora y sus respectivos controles para lograr optimizar no sólo el proceso de registro y control de ingreso y egreso de producto a la planta sino también aumentar la productividad del personal por medio de la aplicación adecuada de los programas motivacionales.
González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
González González Óscar Arturo, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ANáLISIS DE LOS DELITOS DENUNCIADOS EN LA CIUDAD DE MéXICO UTILIZANDO TéCNICAS DE MACHINE LEARNING


ANáLISIS DE LOS DELITOS DENUNCIADOS EN LA CIUDAD DE MéXICO UTILIZANDO TéCNICAS DE MACHINE LEARNING

González González Óscar Arturo, Instituto Politécnico Nacional. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El análisis de las denuncias realizadas por habitantes de la Ciudad de México permite obtener información primordial que debe de tomarse en cuenta para la realización de futuras acciones para evitar la incidencia de delitos en determinadas zonas de la ciudad a determinada hora o temporada del año. El análisis de bases de datos de la PGJ de la Ciudad de México permitirá obtener hallazgos importantes acerca del comportamiento de los datos. Además, los datos serán analizados utilizando técnicas de Machine Learning, para poder realizar predicciones, y con esta información las autoridades de la Ciudad de México crearán planes estratégicos para contrarrestar la incidencia de ciertos delitos.



METODOLOGÍA

El proceso de Data Science requiere como primer proceso conocer y definir el objetivo del proyecto, como segundo proceso se debe realizar la recuperación de los datos, en este caso es la obtención y limpieza de los datos eliminando los valores que no sean importantes para el análisis, así como la eliminación de datos erróneos o nulos. Como tercer proceso se deben elegir los datos que serán relevantes para ser manipulados. Una vez delimitado el conjunto de datos se realizarán distintas pruebas con algoritmos de Machine Learning, y de esta forma elegir el algoritmo que sea más adecuado. Como cuarto proceso, se deben presentar los resultados en alguna aplicación. Dentro del proceso de Data Science deben realizarse pruebas con distintos algoritmos de Machine Learning y comparar los resultados obtenidos de la predicción de los datos. Los algoritmos utilizados en las pruebas corresponden con los algoritmos de aprendizaje supervisado: redes neuronales, bayesianos y árboles de decisión; y los de aprendizaje no supervisados: clustering.


CONCLUSIONES

El análisis de los datos de la incidencia de delitos en la Ciudad de México permitirá encontrar patrones que serán de utilidad a las autoridades de la PGJ. Con ello se podrán tomar medidas para beneficiar a la población, ya que se tendrán identificados los delitos con mayor prevalencia en cierta zona o fecha específicas.
González Gutiérrez Alfredo, Instituto Tecnológico de Querétaro
Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

ANODIZADO DE RECUBRIMIENTOS BASE TI DEPOSITADOS MEDIANTE ARCO CATóDICO, SíNTESIS Y EVALUACIóN DE SUPERFICIES.


ANODIZADO DE RECUBRIMIENTOS BASE TI DEPOSITADOS MEDIANTE ARCO CATóDICO, SíNTESIS Y EVALUACIóN DE SUPERFICIES.

González Gutiérrez Alfredo, Instituto Tecnológico de Querétaro. Asesor: Dr. Guillermo César Mondragón Rodriguez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se ha llegado a demostrar que nanotubos de TiO2 formados por anodización cuentan con un sobresaliente rendimiento en detección de gases, foto-electrólisis del agua, celdas solares sensibilizadas por colorante y celdas solares de heterounión de estado sólido. Los parámetros de anodización que incluyen voltaje, tiempo, corriente y la composición del electrolito afectan sustancialmente la morfología de los nanotubos resultantes, incluyendo el diámetro del poro, espesor de pared, longitud, uniformidad y la geometría específica de los nanotubos. Con un alto grado control de la arquitectura de los nanotubos, se puede llegar a controlar las propiedades funcionales. La capa externa de un determinado producto es la responsable, en gran medida, de su comportamiento y apariencia. La búsqueda de nuevos recubrimientos, así como su optimización, se basan en la aplicación concreta, buscando las propiedades más adecuadas: elevada resistencia al desgaste, bajo coeficiente de fricción, alta dureza y resistencia a la oxidación. El proceso de pre-tratamiento del sustrato suele ser tardado y a veces innecesario, por lo que el análisis y la determinación de las condiciones más óptimas y costeables en la deposición de películas por arco catódico, analizando las variaciones de rugosidad y adherencia en los recubrimientos sobre acero inoxidable pulido y no pulido, es un objetivo a destacar.



METODOLOGÍA

16 placas de una lámina de acero inoxidable austenítico 316 fueron cortada en geometrías rectangulares con medidas de10 x 50 x 1 mm, la función de estas placas fue la determinación de un proceso optimizado mediante la variación de los parámetros de anodizado. Con propósitos de escalamiento se cortaron 9 placas de geometría cuadrada cuyas dimensiones fueron 50 x 50 x 1 mm. 8 muestras de acero inoxidable (10 x 50 x 1 mm) se sometieron a pre-tratamiento antes de su recubrimiento mediante un desbaste mecánico con la ayuda de una tornamesa (Struers, modelo labosystem) hasta llegar a un pulido espejo. Para la deposición PVD de películas delgadas mediante la técnica de evaporación por arco catódico magnéticamente asistido se utilizó un equipo de la marca Oerlikon.Se utilizó un cátodo de Titanio con 99.5 % de pureza (PLANSEE). Se montaron 25 muestras totales en el planetario que permitió la homogeneidad del recubrimiento girando en 3 ejes. El proceso de depósito se inició haciendo alto vacío a 8x10-5 mbar de presión constante, un calentamiento a una temperatura constante de 500 °C.  Durante el proceso de evaporización catódica se le suministró una corriente eléctrica de 130 A y una carga eléctrica de 700 Ah. 10 láminas de prueba (10 x 50 x 1 mm) fueron anodizadas a diferentes tiempos, corriente y voltaje en una celda electrolítica usando una placa de acero inoxidable (50 x 50 x 1 mm) como cátodo a una distancia de 20 mm entre placas. Todos los experimentos fueron realizados a una temperatura constante de 35 °C permitida por un agitador magnético con plato caliente (Scilogex). La celda electrolítica fue formada por un vaso de precipitado de 150 ml, el cátodo y el ánodo fueron sujetos por cables caimán que a su vez estos se conectaron con una fuente de alimentación de corriente directa. La solución que contiene glicerina (98 wt. %), H2O (2 wt. %) y NH4 F (0.3 wt. %) fue usada en este experimento. El anodizado se llevó a cabo con diferentes parámetros: un voltaje de 30 V y 60 V, una corriente de 3 A y 6 A, y tiempos de 30, 45, 60, 90, 120, 150 y 210 minutos.  La rugosidad de la superficie de las muestras antes del proceso de anodizado y sus espesores fueron analizados con un Perfilómetro de contacto (DekTak de Bruker). Se evaluaron dos muestras realizando un ensayo de rayado en cada una. Estos análisis se realizaron en un Scratch Tester (Anton) para determinar la adhesión y el coeficiente de fricción de recubrimientos de titanio en un sustrato pulido y en otro no pulido.. Los parámetros fueron basados según la Norma ASTM C 1624-05. El análisis morfológico de las muestras y las películas se llevó a cabo en un microscopio electrónico de barrido de emisión de campo (JEOL, modelo JSM 7200F), en donde se midieron los espesores, longitudes, diámetro de poros, se analizó la geometría  de los nanotubos.  La detección y el análisis de las fases de los recubrimientos de Ti y los nanotubos de TiO2 fueron analizados con un difractómetro de rayos X (SmartLab de Rigaku). 


CONCLUSIONES

La rugosidad superficial en un recubrimiento de titanio con espesor promedio de 4 - 5 µm y sustrato de acero inoxidable pulido a espejo fue un 11 % mayor que un sustrato sin pulir, mientras que el coeficiente de fricción resultó ser ligeramente mayor en el recubrimiento de titanio con superficie pulida a espejo. Se llegó a la conclusión que el proceso de pre-tratamiento del sustrato es innecesario en la técnica PVD por arco catódico, debido a que un sustrato no pulido representa coeficientes de fricción más bajos, rugosidades menores y mejor adherencia al recubrimiento Las placas de acero recubiertas con titanio que fueron sometidas a voltajes de anodizado de 60 V y 6 A presentaron un incremento del 56 % en el diámetro de poro con respecto a los recubrimientos de Ti anodizadas a 30 V y 3 A, mientras que a mayores tiempos de anodizado la longitud de los nanotubos de TiO2 se incrementa. Los mejores resultados en cuanto a la calidad de la superficie anodizada fueron analizados mediante SEM y se obtuvieron con un voltaje de 60 V, corriente de 6A y un tiempo de 2 horas mostrando longitudes superiores a ~ 1.6 µm, diámetros de poro alrededor de 154 nm y superficies mayormente anodizadas. La difracción de rayos X permitió analizar que los electrolitos que contienen fluoruros producen una estructura amorfa de los nanotubos de TiO2. Se propone hacer un tratamiento térmico a una temperatura superior a los 300 °C para alcanzar la cristalización a la fase anatasa de los nanotubos de TiO2. Debido a capas superficiales densas de TiO2 que cubren a los nanotubos, se propone hacer un decapado mediante bombardeo de iones de argón para desprender capas nanométricas de material y dejar expuesta la superficie y porosidad abierta de los nanotubos de TiO2. 
González Huerta Stacy, Universidad de Guadalajara
Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa

ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.


ANáLISIS, DISEñO Y CONSTRUCCIóN DE UN PROTOTIPO DE PRóTESIS DE MANO.

Becerra Cervantes Luis Ruben, Universidad de Guadalajara. García Valdez Andrea Alejandra, Universidad Politécnica de Sinaloa. González Huerta Stacy, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Lugo Villeda, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En México al año 2014 de acuerdo al INEGI, el 6% de la población total, es decir, 7.1 millones de habitantes del país no pueden o tienen mucha dificultad para hacer alguna de las ocho actividades evaluadas, : caminar, subir o bajar usando sus piernas; ver (aunque use lentes); mover o usar sus brazos o manos; aprender, recordar o concentrarse; escuchar (aunque use aparato auditivo); bañarse, vestirse o comer; hablar o comunicarse; y problemas emocionales o mentales. En este proyecto nos centramos en el problema de mover o usar sus brazos o manos. Del mismo modo en Mexico las mayoría de las amputaciones son a causa de enfermedades como la diabetes o accidentes laborales, siendo así que en el año 2012 la encuesta nacional de salud y nutrición se percató que existían mas amputaciones de mano completa y/o dedos de la mano que cualquier otra amputación. Específicamente se procura evitar la amputación del pulgar debido a la importancia de sus movimientos. La diferencia de la amputaciones de mano o dedo pulgar respecto a otras, yace en la funcionalidad que presentan estos órganos en el cuerpo, siendo el movimiento de oposición por ejemplo, el que le permite al ser humano realizar mucho tipos sujeciones.  El dedo pulgar presenta una problemática al momento de modelar, ya que la articulación trapeciometacarpiana cuenta con movimientos mas complejos y por lo tanto más difíciles de representar.  Es por esto por lo que en el presente trabajo nos enfocamos en realizar principalmente los movimientos articulares del pulgar de manera correcta, es decir un pulgar que permita realizar oposición con cada dedo y que permita realizar movimientos de la mano (aquellos que involucran al pulgar) básicos en la vida de cualquier persona. En este proyecto se presenta el diseño de una mano bajo criterios biomecánicos, mismo que se utilizará para la fabricación de una prótesis robótica de mano, haciendo énfasis en el dedo pulgar.  



METODOLOGÍA

Se realizó un análisis biomecánico de la mano para poder entender los movimientos articulares de los dedos. Una vez que se entendieron los tipos de movimientos que cada dedo realiza de acuerdo con su tipo de articulacion se procedio a pensar en un modelo de cinematica directa que considera diferentes aspectos. Primero se extrajeron medidas antropométricas de la mano y se realizó el modelo de cinemática directa en Matlab y se representó de manera gráfica. Posteriormente se diseñó un modelo de la mano en CAD de acuerdo con el modelo cinemático obtenido anteriormente en el cual se procuró respetar los rangos de movilidad de cada articulación así como las medidas antropométricas utilizadas. Finalmente, se construyó mediante impresión 3D un prototipo del modelo previamente diseñado.


CONCLUSIONES

Después de haber realizado el análisis, diseño y construcción de la mano, pudimos percatarnos de la importancia que tiene un órgano como la mano para la función del cuerpo.  La construcción final del prototipo es capaz de imitar muchos de los movimientos de la mano, pero debido a la complejidad de algunas de las articulaciones y el tipo de piezas utilizadas, no se logra crear un modelo ideal que imite completamente los movimientos. Este prototipo, sin embargo, logra realizar los movimientos de manera efectiva y está pensado de manera que permita la integración de motores que hagan de este un prototipo robótico de una prótesis de mano.
Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
González Martín Angel, Universidad de Guadalajara
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Gonzalez Mejia Rodrigo, Universidad Autónoma de Baja California
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

CARACTERIZACIóN DE DEPóSITOS DE INCONEL 718 ROCIADOS POR PROYECCIóN EN FRíO (COLD SPRAY)


CARACTERIZACIóN DE DEPóSITOS DE INCONEL 718 ROCIADOS POR PROYECCIóN EN FRíO (COLD SPRAY)

Gonzalez Mejia Rodrigo, Universidad Autónoma de Baja California. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La tecnología Cold Spray (CS) surgió hace más de tres décadas, con el fin primario de crear recubrimientos. Hoy en día CS tiene más aplicaciones, tales como manufactura aditiva y reparación de componentes. En este proceso, las partículas de un material se aceleran a velocidades supersónicas utilizando un gas de arrastre, previamente calentado, comúnmente Helio o Nitrógeno. Las partículas impulsadas por el gas de arrastre pasan a través de una boquilla convergente-divergente para aumentar la energía cinética de las mismas, causando una alta deformación plástica al impactar contra un sustrato y así lograr una adhesión mecánica en estado sólido. Al trabajar con temperaturas por debajo del punto de fusión de los materiales, se evitan fenómenos como la oxidación, esfuerzos residuales térmicos y transformaciones de fases [1]. Inconel 718 (IN718) es una superaleación base níquel de alta resistencia, utilizada a temperaturas de hasta 650 °C con una excelente resistencia a la fluencia térmica y una buena resistencia a la corrosión. Estas propiedades hacen de este material un candidato ideal para trabajar bajo las condiciones típicas de componentes de un motor de aeronave. La técnica de CS se ha posicionado como una tecnología viable para el recubrimiento, la fabricación o reparación de componentes de motores de aeronaves a base de superaleaciones, tal como IN718. Se ha observado que la variación de diferentes parámetros en el proceso de rociado afecta directamente a las propiedades resultantes del depósito fabricado. Por lo cual en el presente trabajo se propuso estudiar el efecto que tiene la morfología de las partículas de IN718 rociadas sobre un sustrato del mismo material, la distancia de rociado, las características de la boquilla, la velocidad con la que se desplaza la pistola de rociado y la temperatura del gas de arrastre en las propiedades de depósitos de IN718 rociados por CS. Todas estas muestras bajo dos condiciones principales, sin tratamiento térmico (As Sprayed, AS) y con tratamiento térmico (As-Heat treated, HT). La caracterización mecánica de los depósitos resultantes se realizó mediante ensayos de dureza, medición de esfuerzos residuales y evaluación de la porosidad de los depósitos así como su microestructura. [1]       L. I. Pérez-Andrade1, F. Gärtner, M. Villa-Vidaller, T. Klassen,  and J. M. , J. Muñoz-Saldaña, and Alvarado-Orozco, Optimization of Inconel 718 thick deposits by Cold Spray Processing and Annealing, 2019. Manuscript sumbitted for publication.



METODOLOGÍA

Se llevó a cabo una búsqueda de bibliografía especializada (artículos científicos y libros) de los tópicos relacionados con la tecnología CS, las propiedades de las superaleaciones, información sobre los equipos utilizados. Se realizaron ensayos de microdureza Vickers a lo largo de la sección transversal de los distintos depósitos de IN718. Se determinó la porosidad de los depósitos utilizando dos métodos: el principio de Arquímedes y por análisis de imágenes. Se midieron los esfuerzos residuales generados por el rociado de los depósitos, utilizando la técnica de rayos X. Se midieron a diferentes distancias a lo largo del espesor de las muestras, comenzando en la superficie y avanzando con ayuda de un pulido electroquímico. Se llevó a cabo el ataque químico de las muestras para revelar su microestructura y poder observarla mediante microscopía electrónica de barrido (MEB).


CONCLUSIONES

- De acuerdo a los resultados obtenidos en los ensayos de dureza, se determinó que los valores de dureza son mayores en el depósito que en el sustrato para cualquiera de las dos condiciones principales (AS o HT), esto se le atribuye al endurecimiento por trabajo mecánico en frio, la recristalización y la alta cantidad de dislocaciones. En las muestras HT la microdureza disminuye y se homogeniza tendencialmente a lo largo de todo el espesor. El tratamiento térmico provoca el alivio de los esfuerzos residuales, la disolución y posteriormente la formación de fases secundarias y carburos, así como la recristalización del material debido al recocido y envejecido del tratamiento. - Se identificó que la porosidad disminuye en las muestras HT debido al cierre de poros gracias al tratamiento térmico, sin embargo, en algunas muestras no  se alcanza a cerrar todos sus poros debido a su alta porosidad inicial. Dicha porosidad se atribuye principalmente a la distancia y velocidad de la pistola de rociado. Es decir, a una baja velocidad de la pistola se observa el efecto de erosión por las mismas partículas proyectadas, removiendo así las capas de material depositado y disminuyendo la eficiencia de depósito y a una mayor distancia de rociado se presenta menor velocidad de las partículas resultando en menor compactación de las mismas. - En las muestras AS se encuentra un alto valor de esfuerzos residuales a compresión, atribuido al alto trabajo mecánico en frio y a la deformación plástica de las partículas lo cual genera deformaciones en las redes cristalinas del material. Conforme se avanzó en la distancia desde la superficie del depósito hacia el sustrato, se observa un considerable aumento en los esfuerzos residuales a compresión, debido a la acumulación del mismo trabajo en frio ocasionado por la proyección de partículas a altas velocidades. Para el caso de las muestras HT se muestra un bajo pero significativo valor de esfuerzos residuales a compresión. La diferencia con las muestras AS es debido al tratamiento térmico ya que alivia los esfuerzos residuales y favorece a la recristalización. - En las imágenes obtenidas en el SEM se observó diferentes fenómenos en las muestras AS y HT. En las muestras AS las partículas de IN718 se encuentran deformadas y apiladas una sobre otra en desorden. Para el caso de las muestras HT se observó la formación de granos y la unión de algunas partículas, sin embargo, algunas otras aún permanecen adheridas solo por la deformación plástica del proceso de CS. Se identificó la formación de carburos y fases secundarias en las muestras.
González Mena Sonia, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL


LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL

Arredondo Lopez Sonia Guadalupe, Universidad Politécnica del Mar y la Sierra. González Mena Sonia, Tecnológico de Estudios Superiores de Jocotitlán. Vizcarra Meraz Maricela, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El abastecimiento de productos agrícolas al mercado somete a los productores a incertidumbre por el posible decremento en el suministro de los mismos para exportación al no cubrir la demanda de los mismos, lo que ha llevado a los agricultores a buscar alternativas que permitan mantener sus cosechas aseguradas lo que obliga a los productores a buscar técnicas para monitoreo de las áreas agrícolas de una manera automatizada evitando un desgaste en los recursos La problemática que se presenta es recuperar la lectura de los tensiómetros agrícolas en las áreas de cultivo y validar la recolección de los de los datos, por lo que durante la estancia del verano de la investigación científica y tecnológica se trabaja en la automatización del trabajo agrícola en la recolección de datos revelados por los tensiómetros agrícolas implicando la seguridad y fiabilidad de los mismos, para evitar desvío en la información provocando alteraciones en la producción agraria. Los tensiómetros agrícolas son ubicados estratégicamente en ciertos puntos del área de cultivo, dependiendo de análisis de especialistas del tema; la recolección de los valores  que se proyectan debe ser realizada de manera periódica, es decir se debe realizar un recorrido diario por los terrenos de cultivo para obtener los datos revelados.



METODOLOGÍA

La metodología que se lleva a cabo es de tipo exploratorio al desarrollar un sistema único en su tipo, se deduce que hasta el momento no se han encontrado sistemas similares con la funcionalidad requerida por lo que este se elabora  de manera propia con conocimientos del equipo de trabajo, implementando un método de prototipos el cual se basa en realizar el sistema de manera experimental para obtener un modelo preliminar con funcionalidad antes de llegar al sistema final. Sinaloa es uno de los principales estados productores de hortalizas que abastecen la demanda en el país, la administración de las hectáreas productivas se debe llevar de una manera organizada y precisa para un correcto proceso y llegar a un producto satisfactoria que cumplan con los estándares de calidad solicitados por el mercado, algunos productores de la región han adoptado una herramienta que permite recuperar datos sobre la humedad de las tierras de cultivo: tensiómetros agrícolas, instrumentos que funcionan como una raíz artificial que miden la cantidad de agua retenida por el mismo, arrojando estos valores en el vacuometro, parte del mismo instrumento con un rango de valor de 0 a 100, su unidad de medida son los centíbares el material de fabricación y el modelo que se aplica varia y son usados según la preferencia del productor. La recuperación de los valores proyectados por los tensiómetros se realizara de una manera más confiable que proporcione directamente los valores a una Base de Datos sin intervención de terceros, ya que esta información puede estar expuesta en cierta parte a alteraciones o desvió de la misma, por lo que es conveniente implementar un sistema que facilite la recuperación de los datos; para los productores es muy importante asegurarse que la información que se les proporcione sea verídica; los datos que se recuperan son analizados por asesores del productor que se especializan en la producción y si los datos que se les proporcionan no son en su totalidad verídicos estos se pueden enfrentar a situaciones. Elota municipio del Estado de Sinaloa cuenta con extensas áreas de producción agrícola, por lo que la UPMyS  se involucra en el  desarrollo del sistema destinado para uno de los principales productores agrícolas de la región. Se realiza un sistema con apoyo de las tecnologías que permita administrar y recuperar los valores que arrojan los tensiómetros, desarrollando así una aplicación móvil para el sistema operativo Android con una interfaz entendible para el usuario. La Aplicación que se desarrolla se conecta a una Base de Datos que contempla los tensiómetros agrícolas y su correspondiente identificar de cada uno, proporcionándole a este un código QR único para cada uno. El encargado de recuperar los datos de los tensiómetros realizará su recorrido de forma normal, con la aplicación ya terminada e implementada, ejecutará un escaneo de Código QR del tensiómetro y la interfaz le permite capturar el valor que se muestra en el vacúometro al finalizar con la confirmación de captura de los datos inmediatamente se enviará a la Base de Datos en la cual los especialistas en el análisis de los datos tomaran las decisiones más convenientes para los cultivos.


CONCLUSIONES

El sistema de la Aplicación Móvil ya cumple con la funcionalidad solicitada, cumpliendo con las primeras cinco etapas de desarrollo del software ,encontrando el proyecto en la etapa de implementación limitándose aun en la misma  ya que los las tierras de cultivo aún no están preparadas para la siembra y por consiguiente el funcionamiento de los tensiómetros agrícolas, actualmente la pausa que se realiza se destina para afinar la aplicación de algunos detalles respecto a la interfaz gráfica mejorada y más agradable para el usuario, cabe decir que aún se le pueden implementar más funcionalidades al sistema destinado a la aplicación agrícola siendo útil para los productores agrícolas que quieren mantenerse informados de sus cultivos.
González Méndez Agustín, Instituto Politécnico Nacional
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

ELABORACIóN Y CARACTERIZACIóN DE SOLUCIONES SOLIDAS DE BI2O3 CO-DOPADAS CON CATIONES TRI Y PENTAVALENTES PARA APLICACIONES EN SOFC


ELABORACIóN Y CARACTERIZACIóN DE SOLUCIONES SOLIDAS DE BI2O3 CO-DOPADAS CON CATIONES TRI Y PENTAVALENTES PARA APLICACIONES EN SOFC

González Méndez Agustín, Instituto Politécnico Nacional. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

En los últimos años la ciencia y la tecnología han tenido como prioridad la búsqueda de fuentes alternativas de energía, las cuales tienen que cumplir con requisitos tales como una alta eficiencia y bajas emisiones contaminantes, algunas que han tenido bastante desarrollo son las células fotoeléctricas, turbinas eólicas, mareomotrices, hidráulicas, entre otras. Una de las propuestas más interesantes, pero con aun poco desarrollo son las celdas de combustible de óxido sólido (SOFC por sus siglas en inglés) las cuales en esencia están constituidas por un ánodo y cátodo porosos, en donde suceden las reacciones de oxido-reducción entre moléculas de oxígeno con las que deben de estar en contacto el cátodo, y un combustible el cual debe estar en contacto con el ánodo; así como un electrolito denso que debe ser un buen conductor de iones oxígeno. El electrolito ha sido popularmente desarrollado de Circona estabilizada con Itria (YSZ), la cual es recomendable solo para altas temperaturas de trabajo, además es de un precio bastante elevado, por lo que su aplicación se ve limitada a un campo bastante reducido. México es uno de los productores de Bismuto más importantes a nivel mundial, y el óxido de bismuto en su fase cubica centrada en las caras ya ha sido estudiado por parte de distintos investigadores como base para un electrolito viable para SOFC de temperaturas intermedias, por lo que el objetivo de este estudio es encontrar las composiciones y medios de producción de electrolitos para SOFC con base en oxido de bismuto codopados en fase delta, estable a bajas e intermedias temperaturas, como una alternativa más económica y con un campo de aplicación más amplio.



METODOLOGÍA

Se empezó con el cálculo estequiométrico para la preparación de soluciones sólidas para compuestos binarios y terciarios, los dopantes elegidos fueron el óxido de Niobio (Nb2O5) y el óxido de Gadolinio (Gd2O3), en donde el porcentaje de óxido de bismuto no fuera menor al 85%. Se procedió a realizar la mezcla de la solución por distintos métodos, tiempos y condiciones, como la molienda por mortero, y molienda de alta energía con un molino SPEX 8000D, en viales de Nylamid y bolas de Nitruro de silicio en una relación 5:1, en tiempos de 15 minutos y 60 minutos; estas moliendas se realizaron tanto en seco como con un agregado de 10 gotas de peróxido para aumentar la presión parcial de oxígeno. Las muestras se calcinaron en una mufla de alta temperatura a 750° C con una rampa de calentamiento de 5° por minuto y una rampa de enfriamiento de 3° por minuto. La caracterización estructural de las muestras se realizó por medio de difracción de rayos X en un difractómetro de geometría Bragg-Brentano, y refinamiento Rietveld en el software GSAS, la observación de la morfología de los polvos por microscopía electrónica de barrido; a su vez, se analizó el comportamiento térmico y transformaciones de fases por medio de un estudio DSC-TGA en un Sympatec SETSYS.


CONCLUSIONES

Podemos observar fenómenos interesantes desde la elaboración de cada solución sólida, ya que con ayuda del refinamiento y del DSC observamos la formación de Bismuto metálico en las muestras realizadas con ayuda del molino SPEX, esto sucede debido a que en la síntesis mecano-química que se suscita dentro de los viales hay un gran intercambio de energía, en donde el óxido de bismuto se está reduciendo para formar bismuto metálico, esto en consecuencia de la solución por encontrar un equilibrio energético. Dicho efecto se ve reducido en pequeña medida al aumentar la presión parcial de oxígeno con peróxido. Al calcinar las muestras observamos cambios estructurales para todas las composiciones. Para los binarios mayores a 12% molar de Nb2O5 y ternarios como 10% Gd2O3-5% Nb2O5, 12% Nb2O5-3% Gd2O3 Se obtuvo la fase delta del Bi2O3, siendo está la de los picos principales y difractando en forma predominante. Para composiciones binarias menores al 12% de Nb2O5 se observó un sistema tetragonal y para todas las composiciones binarias Bi2O3-Gd2O5 obtenemos un sistema cristalino trigonal. Por lo que el tratamiento térmico debe ser distinto para estas composiciones para posiblemente obtener la fase delta. Por medio del DSC, además de observar la presencia del bismuto metálico, también se observó la temperatura a la que las soluciones cambiaban de fase, para los que presentaron la fase delta esta fue cerca de los 680 °C. La morfología deseada es una lo menos porosa posible, y por medio del SEM observamos que, después de ser calcinadas, las muestras ricas en Nb2O5 mostraban una extensión homogénea y poco porosa, mientras las ricas en Gd2O3 tienen una geometría mucho más definida pero bastante porosa. Referencias S.A. Akbar. (1994). Bismuth Oxide-Based Solid Electrolytes for Fuel Cells. Journal of Materials Science, M. Thompson. (2010). SYNTHESIS AND CHARACTERISATION OF δ-Bi2O3 RELATED MATERIALS STABILISED BY SUBSTITUTIONS OF Ca, Ga, Nb AND Re. University of Birmingham Hsiu-Na Lin, May-Show Chen, Yu-Hsueh Chang, Pee-Yew Lee, Chung-Kwei Lin. (2019). Effect of Oxygen Concentration and Tantalum Addition on the Formation of High Temperature Bismuth Oxide Phase by Mechanochemical Reaction. Journal of Materials Science Z. Shao. M.O. Tadé. (2016). Intermediate-Temperature Solid Oxide Fuel Cells, Materials and Applications. Ed Springer
González Meneses Karla Estela, Universidad de La Salle Bajío
Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)

MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)


MODIFICACIóN DE LOS HáBITOS DE USO Y CONSUMO DE ENERGíA EN LA VIVIENDA MEDIANTE LA VISUALIZACIóN DE DATOS EN FUNCIóN DEL CONTEXTO CLIMáTICO (ACRóNIMO: MODIF-HABIT)

Ayala Hernandez Antonio, Universidad Vizcaya de las Américas. Carmona Martínez Cristóbal, Tecnológico de Estudios Superiores de Valle de Bravo. González Meneses Karla Estela, Universidad de La Salle Bajío. Asesor: Dr. F. Javeir Neila González, Universidad Politécnica de Madrid (España)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven. Actualmente en la ciudad de Madrid se ha observado que el sector residencial representa un elevado porcentaje en el consumo energético final del país (España). Este consumo energético adherido al predecible incremento de temperaturas (a mayor temperatura-mayor consumo energético)  exige la búsqueda de soluciones alternativas para la reducción de consumo energético, de tal manera que se pueda lograr mantener un confort térmico adecuado para los usuarios. Se sabe que la relevancia del contexto climático territorial es indiscutible así como lo es el caso del clima urbano, que a partir de la influencia de la isla de calor sobre la demanda energética se repercute el confort de los usuarios y a consecuencia esta puede estar condicionando o modificando hábitos sobre el consumo energético. El proyecto MODIF-HABIT parte de la hipótesis de que es posible modificar los hábitos de  consumo y uso de los usuarios para que éstos sean más eficientes, mejoren las condiciones de habitabilidad en sus viviendas y reduzcan el consumo energético. Esta modificación de la conducta de los usuarios se posibilita, de acuerdo con la hipótesis de partida, mediante la visualización de los datos de consumo de sus propios hogares, y varía en función del grado de información que se les proporciona a los usuarios, el contexto climático en el que se encuentran y las condiciones  socioeconómicas bajo las que viven.



METODOLOGÍA

El proyecto MODIF-HABIT plantea un análisis comparado de viviendas y perfiles de hogares en tres ciudades: Bilbao, Madrid y Valencia, para valorar la capacidad de sus usuarios de modificar sus hábitos de uso y consumo teniendo además en cuenta el impacto que tiene el contexto socio-climático de los hogares sobre los consumos energéticos y condiciones de habitabilidad térmica interior. De este modo, y partiendo de una caracterización tanto climática como socioeconómica de los perfiles de hogares de la muestra disponible en las tres ciudades se diseñarán unos protocolos tanto de monitorización como de visualización que nos permitan obtener datos reales e información de los hogares de estudio. La campaña de monitorización de los hábitos y patrones de uso y consumo se llevara a cabo en las tres localidades seleccionadas, aunque en Madrid se seleccionaran dos áreas diferenciadas (una en la periferia y otra en una zona más urbana) con el fin de estudiar el efecto de la isla de calor. A la vez que se desarrolla la monitorización, se estudian cuatro escenarios con información relativa al consumo energético en los hogares mediante la visualización de distintos niveles de datos. De este modo se podrá evaluar y analizar por perfiles de hogar y condiciones climáticas, la capacidad de modificación de los hábitos de uso de los hogares en función del nivel de información disponible.


CONCLUSIONES

Con los resultados a obtener se pretende evaluar el potencial que tiene la visualización de datos de consumo energético sobre la modificación de los hábitos de uso en los hogares, así como la definición de estrategias que, adecuándose a la realidad socio-climática de los hogares, estén orientadas a la gestión eficiente de los recursos energéticos en el ámbito doméstico y la mejora de sus condiciones de habitabilidad.  
Gonzalez Montes Citlally, Universidad de Guadalajara
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
González Morales Martha Carolina, Universidad Politécnica de Sinaloa
Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

MOVIMIENTOS DE ROBOT HUMANOID BIOLOID


MOVIMIENTOS DE ROBOT HUMANOID BIOLOID

Castrejon Duran Daniela Alejandra, Universidad Politécnica de Sinaloa. González Morales Martha Carolina, Universidad Politécnica de Sinaloa. Rodriguez Castro Hector Emiliano, Universidad Politécnica de Sinaloa. Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Un robot humanoide es aquel robot que asimila la morfología y movilidad de un ser humano con el que se pretende simular la manera en la que interactúa con su entorno. En la actualidad existen muchos kits de robótica educativa como es el caso del Bioloid, un robot humanoide que funciona mediante 18 motores dyamixel y se puede programar para que realice ciertas acciones deseadas. Idealmente se pueden programar ciertas rutinas específicas mediante su controlador principal el CM-530, sin embargo, es posible utilizar otros módulos para controlarlo; tal es el caso del ESP32, un procesador de 32 bits que es compatible con la interfaz de Arduino. La mayor problemática que se presenta al utilizar este tipo de controlador es que no se cuenta con información que pueda ser utilizada como referencia específicamente para el objetivo deseado, que es el lograr que el robot Bioloid realice ciertas acciones basándose en los colores detectados en una pista a partir de la información obtenida por una cámara, indicándole así la acción que se debe realizar.



METODOLOGÍA

Para darle resolución a la problemática, se necesitó de mucho tiempo de investigación y reconocimiento de distintos entornos de programación que, anteriormente, eran desconocidos. La primera actividad llevada a cabo fue la obtención de distintos softwares que serían usados conforme se fuera avanzando con el tajo asignado. Los softwares descargados fueron RoboPlus y  Eclipse cpp. Se dio inicio a la exploración de las plataformas, usando los motores Dynamixel y el CM 530, controlador por default del bioloid,  para simular movimientos que fueron especificados por medio de la interfaz de RoboPlus Manager, siendo esta la más sencilla de manipular al ser básicamente un contenido de las propiedades de cada motor. Se entendió la forma de cambiar ID, la definición de posición central y velocidad predeterminada. Cuando se hubo entendido el funcionamiento de Manager, se pasó a RoboPlus Motion, la cual contiene más opciones de manejo para la elaboración de movimientos. Posteriormente, se emprendió la tarea de adentrarse en el Software Eclipse cpp, el cual cuenta con una interfaz muy similar a cualquier otra destinada a la programación. Teniendo como objetivo el utilizar la placa ESP32 para el proyecto, se concentró la mayor parte del esfuerzo y tiempo en entender el funcionamiento de dicho controlador, que hasta entonces, resultaba ajeno a nuestro conocimiento. Al inicio, se llevó a cabo programación sencilla en Visual Studio Code, tomando como entorno de programación Arduino ide y añadiendo librerías según se necesitara. Se llevaron a cabo movimientos de uno, dos y tres motores; llegando así a controlar una extremidad completa. A partir de ahí se programaron movimientos a los dieciocho motores. Se crearon primitivas para el robot, desde pasos hasta posiciones complejas, todas estas con el propósito de ser utilizadas después al llamarlas mediante comandos. Los comandos se programaron en Visual Studio, utilizando el monitor serial se pudo llamar la posición o rutina deseada. Después de tener dominado el monitor serial se creó un entorno html con ayuda de la librería wifi.h, gracias a la cual se pudo controlar el robot desde un servidor web por medio de algún dispositivo conectado a la misma red que el controlador. Así, se logró la comunicación inalámbrica con este. Para la programacion del sistema de vision, se utlizó un sistema embebido Arduino Uno, que servia para establecer comunicacion entre la CMUCAM5, que es la camara que se pretende que el robot lleve integrada para poder desenvolverse de manera propia. Se utilzó previamente el software de PixyMon que es el software predeterminado de las Pixy Cam, este software ayudó a programar lo que la cámara percibia y con el arduino filtrar esa información para posteriormente accionar los movimientos ya desarrollados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos sobre cómo se puede utilizar el ESP32 para controlar cada uno de los motores que forman parte del robot Bioloid y así poder manipularlos para que realicen ciertas posturas establecidas a velocidades definidas; ayudando así a establecer los movimientos base o primitivas que permitirán al robot recorrer la pista dependiendo cada uno de los obstáculos que se puedan presentar. De igual manera, se logró realizar la comunicación inalámbrica con el ESP32 para así poder asignarle ciertas rutinas mediante el uso de botones, los cuales mandan la instrucción sobre el movimiento que se quiere que se realice; sin embargo, aún no se logra el objetivo de que el robot sea capaz de identificar por sí mismo qué movimiento debe realizar basándose en el color detectado. Se espera lograr la comunicación de la cámara con el ESP32 para que así se puedan generar condiciones que ayudaran a establecer bajo que circunstancias el robot debe moverse y que movimiento accionar
González Muñoz Edgar, Instituto Tecnológico de Acapulco
Asesor: Mtro. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo

MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO.


MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO.

Flores Carmona Diana Arlett, Instituto Tecnológico de Acapulco. González Muñoz Edgar, Instituto Tecnológico de Acapulco. Asesor: Mtro. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico de Estudios Superiores de Valle de Bravo, cuenta con un sistema de información el cual, tanto alumnos como personal docente y administrativo puede tener acceso, mediante una intranet, para así, realizar diversos trámites, como puede ser, en caso de los alumnos, la consulta de sus calificaciones finales, el registro de una o más actividades complementarias para su ciclo escolar en curso, o en el caso de docentes y directivos, consultar sus plantillas de trabajo, planes de estudio, realizar horarios de actividades, etc. Actualmente se encuentra un problema que impide la correcta optimización del sistema, esto, en la asignación de roles de usuario, ya que al usuario se le asigna un rol de acuerdo al puesto de trabajo al que está adscrito, lo cual genera un menú estático para hacer uso de las funcionalidades permitidas al usuario, sin embargo, algunos usuarios en un momento dado, se ven en la necesidad de hacer uso de funcionalidades que no están comprendidas dentro de su rol, volviendo un tanto compleja la asignación de estas funcionalidades, y de la misma manera, ocasionando conflictos al integrarlas al menú que tienen acceso.



METODOLOGÍA

Debido a la problemática descrita anteriormente, se realizó un proceso de análisis del funcionamiento del sistema de información del Tecnológico de Estudios Superiores de Valle de Bravo, sobre todo en la estructura de la base de datos. Una vez finalizada la fase de análisis, se ha llegado a la conclusión de proponer la siguiente solución: Realizar ciertas modificaciones a la base de datos con la que se trabaja, agregando diversas tablas que permitan llevar una buena gestión de los roles de usuarios, como almacenar los módulos con los que cuenta el sistema, así como las acciones que se puede realizar dentro de los mismos, al igual que las operaciones que el usuario podría ejecutar en ellas, como son registros, modificaciones, eliminaciones o bien, solo lectura. Por otro lado, almacenar los diversos grupos de usuarios disponibles, a los cuales puede pertenecer un usuario, y así, conocer a que módulos tiene acceso un grupo de usuarios, además, se tienen contemplados los privilegios extra, que es donde se almacenarán los diversos privilegios a los cuales los usuarios podrán tener acceso, independientemente del grupo de usuario al que pertenezcan. Con esto se busca que, a partir de estos permisos registrados para cada usuario en la base de datos, se muestre un menú para hacer uso de las diversas funcionalidades que tendrá permitidas, descartando la creación de múltiples menús para los usuarios, debido a la poca factibilidad que estos representan en cuanto a la optimización del sistema, incorporando así, un menú dinámico, que este en función de los permisos que tenga cada usuario. Es importante mencionar que, se busca realizar las actividades ya mencionadas, con la base de datos proporcionada por los asesores de investigación, esto implica una reducción de tiempo en cuanto al desarrollo, puesto que, solo se tendrían que agregar las tablas pertinentes. Aunado a ello, esta solución se desarrollará, en el Framework de Laravel, un entorno que optimiza el trabajo en gran medida, gracias a los beneficios que este brinda como la organización que permite el MVC (Modelo Vista Controlador), estructurando el código de forma entendible, para su futura mantenibilidad.


CONCLUSIONES

Es posible observar la importancia que tienen los sistemas de información en la optimización de procesos, sin embargo, para que esto sea así, debe ser implementado de forma óptima, potenciando su funcionabilidad y periodo de vida. Además, es importante comprender que cada sección o etapa del proyecto es de vital importancia, ya que están relacionadas entre sí, por ende, en caso de que una de ellas este mal estructurada, podría ocasionar fallos en las demás etapas, o bien, aumentar la complejidad del desarrollo, reduciendo el tiempo de elaboración. Por otro lado, el uso de un Framework como Laravel, permite aumentar el conocimiento entorno a la programación, permitiendo agilizar el desarrollo del sistema, aspecto fundamental en la elaboración de proyectos o bien, trabajos profesionales. Durante el tiempo de la estancia, ha sido posible adquirir más conocimiento, permitiendo analizar el problema de diversas perspectivas, para buscar una solución que se adapte correctamente al sistema, generando así, una experiencia cercana al ámbito laboral, permitiendo obtener una idea más clara del ambiente profesional.
González Nava Esmeralda, Instituto Tecnológico de Toluca
Asesor: Dr. Mario Heimer Florez Guzman, Corporación Universitaria Remington (Colombia)

CARACTERIZACIÓN DE LAS PRÁCTICAS DE SOSTENIBILIDAD DE LA INDUSTRIA “UNA PERSPECTIVA DESDE LAS ENERGíAS LIMPIAS”


CARACTERIZACIÓN DE LAS PRÁCTICAS DE SOSTENIBILIDAD DE LA INDUSTRIA “UNA PERSPECTIVA DESDE LAS ENERGíAS LIMPIAS”

González Nava Esmeralda, Instituto Tecnológico de Toluca. Asesor: Dr. Mario Heimer Florez Guzman, Corporación Universitaria Remington (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La sostenibilidad ambiental hace referencia a que la interacción que se ejerce sobre el medio ambiente no conlleven a su destrucción, es decir que dicha actividad tenga un impacto pequeño sobre el medio ambiente, esto para no suponer la degradación del mismo, desde una perspectiva de los recursos naturales, ya sean enfocados a la conservación del agua, la calidad del suelo, la riqueza y diversidad animal y vegetal. (Ecología Verde, 2019). Las organizaciones más sostenibles en el mundo según ranking The Magazine for Clean Capitalism integran una lista de cien empresas en las cuáles se realiza un enfoque profundo en tres las cuáles son Valeo, Honda y Natura. Por ende es necesario investigar las practicas sostenibles que éstas industrias practican para la disminución del impacto generado en el medio ambiente, promoviendo el impulso a otras empresas para realizar éstas estrategias que contribuyan el mejoramiento de la calidad del medio ambiente.



METODOLOGÍA

El presente documento de investigación es de corte descriptivo explicativo, puesto que se busca dar cuenta de las principales políticas de responsabilidad social que tiene las empresas objeto de estudio  a partir del estudio de las características como la relación entre los Objetivos de Desarrollo Sostenible ODS, y posteriormente se analizaran cada una de estas políticas para poder explicar a qué tipología de responsabilidad social pertenecen estas (Estructuralista, Integradora, Filantrópica), situación que según Sampieri es la búsqueda de fenómenos y explicar el por qué suceden o el por qué se deben desarrollar estas variables específicas.


CONCLUSIONES

A partir de todo lo visto en el presente trabajo es posible tener una visión panorámica de las prácticas de sostenibilidad que pueden ser aplicadas y al mismo tiempo crear una extensión de consciencia en la población que realiza actividades que afectan el medio ambiente, así como tener visión más profunda de las aplicaciones de sectores distintos y en su capacidad la elaboración de planes sin verse afectados, más bien tener beneficio de la misma y ser altamente atractivas para los consumidores, ya que es de gran beneficio que la humanidad haga consciencia de la contaminacion.
Gonzalez Perez Martin, Instituto Tecnológico de Tepic
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO DE UN ALGORITMO PARA AUTOMATIZAR EL MODELADO DE CAD 3D DE CORDONES DE SOLDADURA EN GEOMETRíAS COMPLEJAS


DISEñO DE UN ALGORITMO PARA AUTOMATIZAR EL MODELADO DE CAD 3D DE CORDONES DE SOLDADURA EN GEOMETRíAS COMPLEJAS

Gonzalez Perez Martin, Instituto Tecnológico de Tepic. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

En el análisis de soldadura una de las cosas que se deben hacer es generar en un software todos los cordones de soldadura que tendrá en la pieza diseñada. Esto resulta ser una tarea que consume tiempo y esfuerzo del diseñador ya que en una pieza puede haber 50 cordones de soldadura incluso más dependiendo de la complejidad de la pieza. De los tipos de soldadura que existen la más utilizada por su simplicidad y bajo costo es la soldadura de filete, además de ser simple y barato este tipo de soldadura se acopla muy bien a la mayoría de los tipos de juntas lo que lo hace que sea el tipo de soldadura más utilizada, entre el 80% y 90% de la soldadura de una pieza son filetes. Durante la estancia en se buscara la forma de automatizar la tarea de crear un cordón mediante software libre (FreeCAD y Python) de forma automática reduciendo en amenos un 80% el tiempo que llevar hacer cordones de soldadura de filete.



METODOLOGÍA

Para generar los cordones de forma automatizada se utilizaron Macros que permiten correr scripts con solo un Click. FreeCAD cuenta con una consola que permite correr scripts de python, por lo que en esta se fueron probando por separado las partes del código que conforman el Macro. La automatización se realizó en dos macros: El primero coloca un sketch con el dibujo del perfil del filete en un punto específico y orientado de tal forma que el filete no choque con objetos. El segundo realiza un barrido del perfil sobre un borde seleccionado generando así el cordon. A continuación se presenta el método utilizado para realizar las macros correspondientes. Macro 1 Sketch El primer paso para resolver este problema fue dibujar por medio de scripts el perfil de la soldadura, para esto solo fue necesario aprender a hacer líneas y arcos por medio de scripts. El verdadero problema fue el llevar a cabo la orientación y traslación de este objeto. Para poder realizar el dibujo es necesario tener el punto inicial y final (punto medio en caso de arcos) los cuales se obtienen a partir de vectores. El punto inicial siempre será el vértice donde se encuentran los dos objetos, para encontrar el otro punto se propuso obtener el vector normal a la cara de ambos objetos para obtener la dirección de la línea a dibujar. Para esto el usuario realizara una selección, con la cual el programa podrá extraer los datos necesarios de los objetos seleccionados. El siguiente paso es realizar el ajuste de orientación mediante matrices rotacionales y el ajuste de posición mediante sumas vectoriales No todos los objetos tendrán siempre la misma orientación o referencias globales, por lo que es necesario obtener estos datos de los ensambles a los que pertenecen. Macro 2 Sweep Al igual que con el sketch para realizar la operación de barrido, el usuario tendrá que seleccionar los bordes sobre los cuales se realizará la operación, para que el programa pueda extraer los datos necesarios. Para realizar la operación sweep es necesario una lista de bordes sobre el cual se realiza la operación y un perfil. El perfil asignado a la operación será siempre el último sketch realizado en el primer macro, para la asignación del borde se podría realizar la asignación directa del borde seleccionado, pero de acuerdo a las pruebas realizadas hay casos en los que el barrido se realiza de forma incorrecta, por lo que se optó por realizar una réplica borde, mediante un algoritmo que detecte el tipo de línea (línea, arco, circulo, BSplie) así como los datos de su geometría para así replicarlo, de esta forma se corrigieron los errores de barrido. Adicionalmente en este macro se agregó la creación de un ensamble en el cual se encuentran todos los cordones generados por este macro y una línea de código la cual elimina el sketch realizado en el macro 1 que ya no sirve. Esto para tener un orden y mantener un espacio de trabajo más limpio.


CONCLUSIONES

Durante la estancia se logró realizar una metodología para generar los cordones de soldadura de filete mediante dos macros en la que el usuario puede modificar el perfil del filete modificando tres variables del código. Con respecto a la orientación del sketch y el barrido se realizó con éxito en piezas complejas, sin embargo sería conveniente seguir probando la eficiencia del código en piezas con diferentes geometrías por posibles errores que puedan surgir. Para las geometrías en las que se realizaron las pruebas el resultado fue altamente exitoso.
González Rivas Jesús Ramiro, Instituto Tecnológico de Culiacán
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES


DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES

Baños Hinojosa Paulina Berenice, Instituto Politécnico Nacional. González Rivas Jesús Ramiro, Instituto Tecnológico de Culiacán. Treviño Trujillo Juan José, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Un cohete es un vehículo, aeronave o nave espacial que obtiene su empuje por la reacción de la expulsión rápida de gases de combustión desde un motor cohete (motor de reacción que genera empuje mediante la expulsión de gases que provienen de la cámara de combustión). Carlos Duarte Muñoz, 2018. El principio de funcionamiento del motor de cohete se basa en la tercera ley de Newton, la ley de la acción y reacción, que dice que "a toda acción le corresponde una reacción, con la misma intensidad, misma dirección y sentido contrario". La importancia de estos vehículos radica en dos características: su capacidad de alcanzar grandes velocidades y aceleraciones y poder funcionar en el vacío, al igual que a través de ellos investigar sobre los distintos fenómenos en el espacio y así experimentar mediante el lanzamiento de carga útil. Es por eso que la electrónica de cohetes es fundamental para cumplir estos objetivos de investigación, ya que con ella se puede obtener datos específicos a través de distintos tipos de sensores y artefactos electrónicos, como la ubicación, velocidad, aceleración, temperatura, presión, entre otros. Dentro de nuestro proyecto haremos uso de ella para la adquisición de datos de la IMU y GPS. La principal herramienta utilizada en el desarrollo de nuestro proyecto es la unidad de medida inercial (IMU) desarrollada especialmente para ser utilizada en cohetes de agua y aire comprimido. La IMU desarrollada cuenta con 10 grados de libertad, la selección de los sensores fue realizada teniendo en cuenta las características de vuelo de nuestro cohete. Para obtener estas variables es necesario programar cada uno de los componentes de acuerdo a las necesidades del cohete. El principal obstáculo en nuestro proyecto es la creación de un código que se apegue a las especificaciones del acelerómetro y al Sistema de Posicionamiento Global (GPS) al igual que el correcto almacenamiento de los datos, por lo que durante el verano, se estudiarán la características de cada uno de estos componentes, utilizando el lenguaje de programación en Arduino.



METODOLOGÍA

Componentes utilizados: -Acelerómetro de 9 ejes JY901 (Wit Motion) -Adafruit Ultimate GPS Logger Shield (Adafruit) -Arduino UNO R3 de Steren -Tarjeta microSD de 8GB El ensamble del circuito se hizo teniendo como base el Arduino UNO, al cual se le acopló de manera directa el GPS y sobre el se soldó el GPS. Las librerias usadas para laprogramacion de los comonentes son: "Adafruit_GPS.h", "JY901.h" y "avr/sleep.h". La información que se requería obtener del acelerómetro fue: -Aceleración, Velocidad, Posición, Ángulo  todos en los 3 ejes(x,y,z) Los 3 datos que se obtienen de manera directa del acelerómetro son las 3 aceleraciones, entonces para obtener las 3 velocidades se filtro por el método de pasa bajas del trapezoide para obtener los datos de aceleración suavizada, y después se integraron estos datos para obtener las tres velocidades deseadas. Para obtener la posición en los 3 ejes, se siguió el mismo paso de integración en la velocidad. Lo siguiente es el módulo GPS del circuito. Este componente trabaja a una frecuencia máxima de 10Hz, pero debido a la aplicación que se le va a dar se optó a trabajar con el a la frecuencia por defecto que tiene (1Hz). Este componente nos sirvió para obtener dos tipos de enunciados usados por la NMEA (National Marine Electronics Association, o la Asociación Nacional de Electrónica de la Marina): los enunciados GGA y RMC.  Lo último sería la adquisición de datos en la tarjeta SD, lo cual se logró generando dos archivos dentro del código: un archivo .csv para los datos del acelerómetro y un archivo .txt para los del GPS. Los datos se guardan en la tarjeta SD.


CONCLUSIONES

Durante la estancia de verano se logró adquirir diversos conocimientos teóricos y prácticos acerca de la electrónica que debe de tener un cohete para el censado de su aceleración, velocidad, posición, ángulos de giro, así como también su geolocalización, así como también el desarrollo del programa que tomará estas lecturas junto con los sensores usados, los datos obtenidos en pruebas de laboratorio, tanto como de la IMU como del GPS son los siguientes; 0.08/-0.06/0.97/0.03/-0.02/0.33/0.01/-0.01/0.11/-4.08/-3.62/-8.32 Los datos anteriores muestran aceleración, velocidad, posición y ángulos de inclinación, tomando para cada uno 3 casillas las cuales representan en cada uno de ellos (X, Y, Z) respectivamente, (lectura prueba acelerómetro). $GPRMC,020825.000, A,3144.9771, N,10625.4068, W, 0.61, 98.31, 110719, A*4ª Lo anterior nos proporciona; Hora (GMT) (020825.000), Latitud (3144.9771, N), Longitud (10625.4068, W),     Velocidad del viento en nudos (0.61), Angulo de ataque (98.31), Fecha (110719), (lectura prueba GPS). La realización de este proyecto proporciono conocimiento sobre algunos aspectos que se tiene que tomar en cuenta para el censado en el lanzamiento de un cohete, así como también, la utilización correcta de ambos sensores y su programación, adjuntando a esto el procesamiento y filtrado de datos para la obtención de muestras más limpias.  A pesar de la dificultad y de algunos contratiempos que se presentaron durante la realización del proyecto, su conclusión fue un éxito ya que después del montado del circuito en el cohete y efectuado su lanzamiento, se pudieron obtener los datos en la tarjeta micro SD preestablecida para el guardado de los datos del monitoreo en la cual se guardaron los dos formatos de archivos .CSV y .TXT registrado en el primero de ellos los datos del desplazamiento y el segundo los datos de la geolocalización listos ya para ser procesados con las herramientas establecidas.
Gonzalez Ruiz Merle Arely, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Juan Manuel Gutierrez Salgado, Centro de Investigación y de Estudios Avanzados (IPN)

ANÁLISIS Y PROCESAMIENTO DE SEÑALES MOX DE UNA NARIZ ELECTRÓNICA, DISEÑO E IMPRESIÓN DE PIEZAS PARA OJO ELECTRÓNICO.


ANÁLISIS Y PROCESAMIENTO DE SEÑALES MOX DE UNA NARIZ ELECTRÓNICA, DISEÑO E IMPRESIÓN DE PIEZAS PARA OJO ELECTRÓNICO.

Gonzalez Ruiz Merle Arely, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Juan Manuel Gutierrez Salgado, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

El uso de tecnologías inspiradas basados en los sentidos de los mamíferos como el olfato, el gusto y la vista, representan una herramienta innovadora para la evaluación y clasificación de compuestos en el sector alimentario. En general, las tecnologías bio-inspiradas hacen uso de la conocida inteligencia artificial, misma que tiene por fundamento la compleja operación llevada por el cerebro, con la intención de comprender la información necesaria para la toma de decisiones. Ejemplos claros de algoritmos de inteligencia artificial son las redes neuronales artificiales que requieren un proceso de entrenamiento con el fin de realizar tareas de predicción de la misma forma en la que un ser humano lo haría. Durante la estancia de Verano Científico se llegó a conocer de los sistemas inteligentes basados en emular la inteligencia humana, principalmente en el software aplicado a una nariz electrónica, una herramienta muy útil para caracterizar productos por su aroma de manera no destructiva, gracias al aprendizaje que obtiene por el empleo de modelos matemáticos, bases de datos, y programación. Las bases de datos que generan estos sistemas se obtienen gracias a la tecnología de arreglo de sensores electroquímicos, que identifican compuestos volátiles por cada muestra de alimento, creando una huella única digital representada en varias señales continuas. Debido a que estas señales cuentan con una gran cantidad de puntos, su procesamiento y análisis demandan un alto costo computacional, por lo que es necesario utilizar alguna técnica de procesamiento que permita caracterizar las señales, la aprendida fue el Análisis de Componentes Principales (PCA, por sus siglas en inglés), la cual consigue la información relevante de un conjunto de variables dispuesto en una matriz y la dispersión de sus datos. Para la interpretación de los datos se utilizaron redes neuronales artificiales. Para definir la arquitectura de red, se debe elegir un número de capas, neuronas, funciones de activación, además de parámetros asociados con el algoritmo de entrenamiento. El trabajo a realizar se basó en colaborar con la toma de muestras alimentarias para la creación de una base de datos prueba, la cual es necesaria para el análisis de señales MOX, su posterior procesamiento y clasificación, que pretende mejorar el sistema olfatométrico actual de reconocimiento de patrones e incrementar la selectividad del análisis sensorial de los productos. Y al mismo tiempo ayudar con el diseño de piezas implementadas en SolidWorks y posterior impresión 3D, para el proyecto de ojo electrónico.



METODOLOGÍA

Se utilizó tés de diferentes marcas y sabores como muestras, para cada una fue necesario llevar un registro que contenga los datos de marca, sabor y empaque, así como la hora, temperatura y humedad del día en el que se realizó la muestra. El olfatómetro cuenta con un módulo de muestreo de 4 canales basado en la generación y control de aire. Para extraer la información es necesario que el sistema pase por diferentes caminos y ciclos para llegar a ser medido, donde el flujo de aire permanece constante. El sistema hace uso de una bomba que transporta los volátiles del canal 2 donde se encuentra la muestra y los lleva a la cámara donde sera sensada. Una vez que realiza este proceso, efectúa el mismo procedimiento pero ahora con aire limpio. Este proceso genera dos curvas características destinadas a ser analizadas. El procedimiento dura aproximadamente 350 segundos generando  490 kB de datos por cada ciclo, el proceso se repite 10 veces dando un total de 58 minutos aproximadamente para  cada muestra. La configuración se realiza en Python 3.5.3 por medio de una Raspberry Pi 3b que es parte de la nariz electrónica, de la que se obtiene los 10 archivos de datos que son gestionados en la nube. La metodología empleada fue el uso del software Matlab 2015b para ver si la toma de datos de cada muestra de té era correcta, graficándose los archivos de datos de los barridos 8o y 9o, de los que se obtienen las señales más limpias, ya que las primeras eliminan los volátiles que pudiera haber dejado la muestra anterior por lo que pueden contener los datos erróneos, lo más recomendable es realizar una muestra de té y después una limpia con alcohol, pero al ser una base de datos prueba se excluye este procedimiento. También se utilizó las herramientas Neural Network 8.4 para conocer sobre las arquitecturas de red, y PCA para entender más sobre la técnica de procesamiento vista. El diseño de las piezas fue realizado en SolidWorks 2017 y la impresión de las mismas en la aplicación Repertier Host  1.3.1 la cual viene junto con la impresora. De este software se logró aprender parámetros de configuración, como: temperatura, velocidad, altura de capa, patrón y cantidad de relleno, realizando algunas tareas de ajuste importantes y en base a como salían los diseños, proceder hacer piezas más exactas.


CONCLUSIONES

En base a toda la información recopilada a lo largo de la estancia acerca de las investigaciones de los estudiantes de posgrado, se llegó a tener una idea más ampliada de lo que es la inteligencia artificial y el gran papel que está jugando actualmente, se vio un poco sobre procesamiento de señale, y construcción de redes neuronales artificiales que me servirán para mi formación como estudiante. Acerca de las muestras, como bien mencione anteriormente la base de datos que se realizó fue una prueba para seguir mejorando el software de clasificación, se espera que las muestras posteriores genere señales más limpias por los cambios que se hicieron al olfatómetro y nariz electrónica a lo largo del muestreo, como fue el cambio de bombas y mangueras, la cantidad de bolsas de té para generar más volátiles, el flujo de aire, el lugar, que al no estar en un ambiente totalmente aislado a olores estos tenían una repercusión a la muestra, y el arreglo al fallo de un sensor pueda ayudar a que presenten mejoras.   Después de haber realizado diferentes piezas que no se quedan en un simple diseño sino que tiene un aporte para un proyecto, puedo decir que una impresora 3D es una herramienta necesaria para motivar el diseño y facilitar los proyectos en las escuelas, estas generan un ahorro de tiempo y costos, sin mencionar que permite hacer modificaciones según las necesidades de cada persona.   
González Sánchez Anette Michelle, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Cristina Pereira Jiménez, Universidad de Extremadura (España)

DETECCIóN Y CONTROL DE MOHOS MICOTOXIGéNICOS EN ALIMENTOS DE ORIGEN VEGETAL


DETECCIóN Y CONTROL DE MOHOS MICOTOXIGéNICOS EN ALIMENTOS DE ORIGEN VEGETAL

González Sánchez Anette Michelle, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Cristina Pereira Jiménez, Universidad de Extremadura (España)



PLANTEAMIENTO DEL PROBLEMA

Los hongos con potencial micotoxigénico pertenecen principalmente a los géneros Aspergillus, Fusarium y Penicillium, producen metabolitos secundarios capaces de causar síndromes llamados micotoxicosis en el hombre y en los animales. Las aflatoxinas, producidas por el género Aspergillus, en concentraciones muy bajas tienen efectos negativos en la salud del hombre y de los animales. Las aflatoxinas son metabolitos secundarios de los hongos, principalmente del género Aspergillus, tales como Aspergillus flavus y Aspergillus parasiticus, que se pueden desarrollar en variados alimentos de origen vegetal. El consumo de alimentos contaminados con aflatoxinas puede acarrear problemas agudos y crónicos para la salud de las personas, siendo la más tóxica la aflatoxina B.



METODOLOGÍA

METODOLOGÍA El objetivo de este trabajo fue determinar el crecimiento y producción de micotoxinas producidas por el moho Aspergillus flavus aislado previamente de higo. Para realizar este trabajo, se usaron 7 fungicidas, 6 de ellos naturales y 1 de ellos sintético y se enfrentaron a un moho con capacidad de producir aflatoxinas como es Aspergillus flavus. Para ello se realizó un medio de cultivo de agar específico (PDA) para el crecimiento del moho En cada placa se repartieron 10 ml del medio y posteriormente se le aplicó el fungicida correspondiente y se rotularon poniendo el número de fungicida y el número de repetición. Cada fungicida se analizó por triplicado y también se realizó una muestra control (sin fungicida). Para saber la concentración de esporas que se añadiría , se  agregó 4 ml de agua estéril con tween al 0.05% al moho crecido y se raspó con una pipeta las esporas producidas recogiéndose posteriormente la solución de esporas. Para el cálculo de su concentración se usó una cámara de neubauer en el que se colocó una gota de la solución de esporas en el cubreobjeto y en el microscopio se localizó una cuadrícula en la cual se cuantifica el número de esporas en el cuadro grande o en el cuadro pequeño. Se contabilizan varias colonias y se obtiene la media de esos datos para poder llevar a cabo la fórmula: No. De células/ ml    =      __________No de células___________                       (0.0025 mm2)( 0.1mm)(0.001 ml/mm3)     La media que se obtuvo fue 16, por lo tanto la concentración de células fue 2.5x107, Este resultados se diluyó con 900 microlitros de agua esteril y 100 microlitros de las esporas recolectadas para obtener una concentración de esporas de 106. Después de haber sembrado el fungicida, se inocularon en el centro de la placa 2 μL de una concentración de 106 esporas/mL de del moho a evaluar. La toma de muestras se realizó cada día para determinar el crecimiento de la colonia del moho y posteriormente ver la producción de micotoxinas. Se evaluó el crecimiento de moho y la producción de micotoxinas a 25°C de incubación durante 7 días para ver cómo afectaba el fungicida aplicado en el crecimiento y producción de micotoxinas . La medida del diámetro de las colonias se realizó en dos direcciones en ángulos rectos uno del otro cada dos días siguiendo la metodología descrita por Medina y Magan (2011). La placa crecida con el moho fueron recogidos y almacenados a -20ºC para su posterior extracción de microtoxinas. La extracción de las micotoxinas se realizó siguiendo el método optimizado por Rodríguez y col. (2013), y su detección y cuantificación se realizará mediante HPLC-MS utilizando el protocolo descrito por Sosa y col. (2002).


CONCLUSIONES

Los fungicidas 4 y 5 son los que impiden de manera más eficaz el crecimiento del moho, mientras que los fungicidas 1 y 6 crecen de la misma manera que la muestra de control.  Tras ser analizadas las muestras en el HPLC se determinó que de igual manera, los fungicidas 3, 4 y 5 son los que inhiben la producción de aflatoxinas, mientras que los fungicidas 1 y 6 rebasan por mucho los límites en producción de aflatoxinas B1 (igual que el control).
González Víctor Viviana, Instituto Tecnológico de Jiquilpan
Asesor: M.C. Luis Alberto Bretado Aragón, Universidad de La Ciénega del Estado de Michoacán de Ocampo

EVALUACIóN DEL COMPORTAMIENTO CITOTóXICO DE ANDAMIOS A BASE DE MATERIALES POLíMEROS


EVALUACIóN DEL COMPORTAMIENTO CITOTóXICO DE ANDAMIOS A BASE DE MATERIALES POLíMEROS

González Víctor Viviana, Instituto Tecnológico de Jiquilpan. Asesor: M.C. Luis Alberto Bretado Aragón, Universidad de La Ciénega del Estado de Michoacán de Ocampo



PLANTEAMIENTO DEL PROBLEMA

La Ingeniería de Tejidos se centra en la creación y diseño de andamios a base de materiales compatibles a sistemas biológicos que permitan la proliferación, viabilidad celular y adhesión para aplicaciones biomédicas. Existen diferentes factores que causan el fracaso del andamio, por ejemplo la contaminación del material por bacterias y la toxicidad del material a las células con que tendrá contacto. El ácido poliláctico (PLA) es un polímero usado para la fabricación de andamios en medicina regenerativa debido a su fácil manufactura, sin embargo las propiedades de los polímeros pueden ser modificadas y mejoradas para tener mayor funcionalidad. En este trabajo se utilizaron andamios de PLA sin recubrimiento, así como recubiertos de quitosano y quitosano con nitrato de plata para evaluar el efecto de los materiales en diferentes modelos biológicos como bacterias y células sanguíneas.



METODOLOGÍA

  Elaboración y diseño de andamios El diseño del andamio fue realizado en el software online Tinkercad se obtuvieron en una impresora 3D marca IFUN empleando ácido poliláctico (PLA). El andamio fue recubierto con dos soluciones Quitosano y Quitosano con Nitrato de Plata (AgNO3) para realizar todos los ensayos. Los andamios con y sin recubrimiento fueron caracterizados mediante Microcopia Electrónica de Barrido. Pruebas antimicrobianas Las pruebas antimicrobianas miden la propiedad inhibitoria de los materiales sobre bacterias. Los materiales evaluados en este ensayo fueron el material de PLA, material PLA-Quitosano (PLA-Q) y material PLA-Quitosano-Plata (PLA-Q-Ag). Para desarrollar los ensayos se utilizaron cepas de referencia ATCC para cumplir con los parámetros de calidad internacionales. Se aislaron las cepas E. coli ATCC25922 y S. aureus ATCC25923 en medios de cultivo para efectuar las pruebas. Cada aislado fue evaluado por el método de Kirby-Bauer con una suspensión de bacterias usando de referencia la turbidez 0.5 de McFarland que corresponde a 1.5 x108 UFC por mililitro. Cada andamio fue expuesto a las cepas e incubados por 24 h para observar su propiedad antimicrobiana con la medición de halos de inhibición. Prueba Hemólisis Es una prueba de citotoxicidad utilizada para evaluar el daño celular que el material puede causar al ser expuesto a un modelo biológico. Para este ensayo se tomó muestra de sangre en tubos con heparina. Este procedimiento fue llevado a cabo de acuerdo a la NORMA ASTMF 756-00 donde se determina la cantidad de hemoglobina liberada de células sanguíneas al ser expuestas al material o nanopartícula de interés. Los ensayos fueron realizados en una placa de 96 pocillos marca Microtiter por duplicado y procesados a la par con controles positivos y negativos que hicieron referencia al control de calidad del experimento. El volumen por pocillo fue de 300 ul y fueron leídos en el lector Elisa Fisher Scientific a una absorbancia de 540 nm. Prueba MTT Es una prueba de citotoxicidad utilizada para evaluar daño celular a nivel mitocondrial el ensayo se basa en la reducción metabólica del Bromuro de 3-(4,5- dimetiltiazol-2-ilo)-2,5-difeniltetrazol (MTT) realizada por la enzima succinato-deshidrogenasa determinando la funcionalidad mitocondrial de las células evaluadas. Para este ensayo se obtuvieron muestras de sangre en tubos heparinizados de dos donadores para obtener leucocitos en sangre periférica que fueron cuantificados en una cámara neubauer para determinar la cantidad de células 106/ml necesarias para poder realizar el experimento. Durante 24 h a 37°C las células fueron expuestas a los materiales PLA, PLA-Q y PLA-Q-Ag. Después de la incubación a las soluciones se les agregó el reactivo MTT por 3 h, posteriormente pasar 200 ul en una placa de 96 pocillos para realizar la lectura a 570nm en el lector Elisa.  


CONCLUSIONES

Las micrografías tomadas a los andamios fueron a diferentes magnificaciones para identificar la porosidad en el material, se muestra que tenían poros con arquitectura de rombos con bordes suavizados, las dimensiones de la diagonal mayor fue de 1.6315 μm y diagonal menor de 1.105 μm para el andamio de PLA. En el andamio PLA-Q los poros promedian diámetros aproximados de 1.5812 µm, mientras con el material PLA-Q-Ag tuvieron 1.488 μm de diagonal mayor y diagonal menor de 987.711 µm, adicionalmente ambos recubrimientos presentaron una buena homogenización. Las pruebas antimicrobianas realizadas en los andamios PLA-Q-Ag presentaron diámetros con promedio de 15mm para E.coli y diámetros con promedio de 14mm para S. aureus. Los andamios PLA-Q presentaron halos de inhibición promedio de 22.5 mm para E.coli y no presentaron inhibición en el caso de S.aureus. Los andamios de PLA sin recubrimiento no presentaron diámetros de inhibición en ninguna de las dos bacterias. En las pruebas de hemolisis y en el ensayo MTT no se encontraron diferencias entre los materiales evaluados, en ninguno de los casos se identificó daño a las células empleadas. Finalmente, de acuerdo a los resultados el mejor material fue el andamio de PLA recubierto con quitosano y plata (PLA-Q-Ag).
Govea Paz Luis Issai, Instituto Tecnológico de Pachuca
Asesor: Dr. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco

MANUFACTURA DE AGLOMERADOS UTILIZANDO ASERRíN CON NANOPARTíCULAS DE CU Y ZN


MANUFACTURA DE AGLOMERADOS UTILIZANDO ASERRíN CON NANOPARTíCULAS DE CU Y ZN

Govea Paz Luis Issai, Instituto Tecnológico de Pachuca. Asesor: Dr. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco



PLANTEAMIENTO DEL PROBLEMA

El uso de fibras de madera para la producción de muebles a nivel mundial, en la actualidad ha tenido un auge significativo dado su costo relativamente bajo y la variedad de productos realizables. Generalmente se usan residuos o pedacería para la elaboración del tablero de partículas, pero para producciones mayores, la madera joven es utilizada en su totalidad, lo que provoca una deforestación sin el total aprovechamiento de la materia prima; ya que el desperdicio, como el aserrín no es plenamente utilizado. Las desventajas que se presentan, restringiendo su uso en determinadas áreas y ambientes, son el peso y el grosor de los tableros, ya que, para poder soportar determinadas cargas, la cantidad de aserrín debe de aumentar, lo que limita la movilidad de los mismos. Por otro lado, no son resistentes a ambientes húmedos ya que en ellos la resina que los une pierde ciertas propiedades. Además, es un medio idóneo para el desarrollo y la propagación de microorganismos (hongos), deteriorando rápidamente el producto final lo que genera apariencia y olores desagradables. En este punto es necesario reemplazar el mobiliario, lo que aumenta el gasto del cliente final.



METODOLOGÍA

Para la investigación se ahondó en literatura sobre la manufactura de aglomerados, síntesis y caracterización de materiales compuestos. Se realizó un estudio de normas relacionas a paneles de partículas y fibras a base de madera, en específico ASTM D1037, partiendo de ello, se obtuvieron las medidas estandarizadas sobre las probetas. La obtención del material compuesto o composito se obtuvo por medio de síntesis química, utilizando precursores de los iones de Cu y Zn para formar las correspondientes nanopartículas soportadas en matriz de aserrín, buscando mejorar las propiedades mecánicas del material. Esta síntesis se realizó por medio de reducción química de sales metálicas a través de dos rutas; en un caso se utilizó glucosa y en otro borohidruro de sodio como agentes reductores. Con el uso de glucosa, aunque es un reactivo más amigable con el medio ambiente y de fácil manipulación, esta es necesario de utilizar en grandes cantidades, además de que se requiere calentamiento al sistema manteniendo la temperatura de la mezcla a 95°C durante 20 min. Utilizando borohidruro de sodio no se requiere un aumento de temperatura del sistema porque se lleva a cabo a temperatura ambiente y las cantidades del mismo que se utilizan son menores. Con ambos reductores de debe agitar la solución durante un periodo de 50 min aproximadamente, ajustar constantemente el pH, filtrar el precipitado, lavar con agua y acetona y secar en un horno mufla. La caracterización del material sintetizado conllevó la determinación de la densidad total y aparente, así como el análisis de la morfología a través de Microscopía Electrónica de Barrido (MEB) y análisis semi-cuantitativo (EDS). Los resultados obtenidos permitieron validar que las nanopartículas fueron soportadas en el aserrín y a la vez calcular la cantidad de urea a mezclar con el material sintetizado para manufacturar los aglomerados. La disposición del material agregado es de suma importancia para poner homogenizar las propiedades del componente final. Uno de los principales puntos a tratar, fue la viabilidad a escala industrial tanto de las síntesis, como del producto. Las altas cantidades de glucosa que se requieren, a pesar de contar con un precio accesible, y la temperatura a la que debe de estar sometida la mezcla, hace que realizar la sustancia compuesta por medio de dicho agente reductor sea un inconveniente para escalar. Por ello se concluyó que la ruta de síntesis donde se utiliza borohidruro de sodio sea la más factible técnica y económicamente para lograrlo. A fin de poder realizar los ensayos mecánicos del aglomerado sin y con nanopartículas, para poder tener un punto de comparación, es necesario tener el equipo para la obtención de la probeta. Su diseño se basó en la presión y temperatura que se requiere para compactarlo además del tamaño de la probeta, la cual se definió utilizando las normas ASTM.


CONCLUSIONES

En el periodo de estancia de verano se obtuvo información teórica y práctica sobre la síntesis y caracterización de los materiales a utilizar con aglomerados con propiedades mecánicas mejoradas. Los materiales sintetizados se caracterizaron a través de la determinación de la densidad total y aparente y por MEB-EDS. Se diseñó y construyó el equipo para obtener las probetas de los materiales compuestos sintetizados que permitirán conocer las propiedades mecánicas del material y su posterior comparación con los materiales que se utilizan a escala industrial para producir los aglomerados.
Govea Torres Maria Jose, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

INVESTIGACIóN:LAS CONDICIONES CLIMáTICAS SON UN FACTOR DE RIESGO PARA LAS PERSONAS QUE PADECEN DIABETES.


INVESTIGACIóN:LAS CONDICIONES CLIMáTICAS SON UN FACTOR DE RIESGO PARA LAS PERSONAS QUE PADECEN DIABETES.

Govea Torres Maria Jose, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El clima presente en la cuidad de Mazatlán es un factor muy relevante en los síntomas que generalmente se presentan con la diabetes, la presencia de un clima con cambios drásticos de temperaturas puede causar falsos positivos para una persona que sufre diabetes  y comúnmente no se les presta demasiada importancia y esto puede confundir a las personas con un diagnóstico erróneo de su salud. 



METODOLOGÍA

Se estudió y analizó la problemática, realizando diferentes herramientas de trabajo para ser aplicadas como: La investigación sobre el tema. Intercambio de conocimientos con los otros alumnos, analizando las estadísticas reales de años pasados para determinar qué tan estudiado está el tema que se planteó y buscar resultados reales. Realización de encuestas y aplicándola en una clínica abarcando nuestra población meta. Trabajando en conjunto con las otras herramientas de trabajo que se nos ofrecieron, como los cursos de aprendizaje en redes y móviles y así poder buscar cómo aplicar las tecnologías en la investigación, siento también un material de apoyo para poder realizar la investigación.


CONCLUSIONES

Se comprobó que las personas con este padecimiento no están realmente informadas del efecto negativo que causan el estar expuesto a las temperaturas altas, ocasionando una confusión en los síntomas por lo que el implementar estrategias para difundir que la temperatura es un factor de riesgo, favorecerá a las personas con diabetes a mantener una salud estable.
Grajales Tamez Dario Alfonso, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Fidel Diego Nava, Instituto Politécnico Nacional

REDISEñO CONCEPTUAL DE UN BRAZO PORTAHERRAMIENTAS DE UN ARADO DE TRACCIóN ANIMAL


REDISEñO CONCEPTUAL DE UN BRAZO PORTAHERRAMIENTAS DE UN ARADO DE TRACCIóN ANIMAL

Grajales Tamez Dario Alfonso, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Fidel Diego Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

  Actualmente no se fabrican arados metálicos de tracción animal en México y los que quedan han sido reparados o modificados de tal modo que ya no cumplen con los requerimientos necesarios para desempeñar su tarea de manera eficiente. Estos tienen mayor vida útil que los arados de palo, pero son más pesados, por lo que es mayor el cansancio que produce en el operador y en los animales de tiro.  En el ámbito internacional se han realizado varias investigaciones con el objeto de mejorar las características de diseño y durabilidad en los aperos de tracción animal (Gebresenbet et al., 1997), pero han sido diseñados en función de las condiciones específicas del suelo, geometría de las herramientas de labranza y variedades vegetales diferentes a las encontrados en el territorio nacional. Estos problemas están presentes en la mecanización del suelo en México pues se han tratado de introducir tecnologías desarrolladas para condiciones muy diferentes a las de estas zonas por lo que ha traído rechazo de parte de los campesinos por lo que prefieren seguir usando los tradicionales arados de madera (Aveldaño et al., 1999). Sin embargo estos últimos presentan una serie de problemas que repercuten en el desempeño y eficiencia de las labores agrícolas, pues poseen una baja durabilidad que obliga a los campesinos a tener que renovar constantemente  su apero o partes de su apero frecuentemente. Por lo anterior, en conjunto con el Dr. Fidel Diego Nava quien trabaja en la línea de investigación del diseño de aperos agrícolas en el CIIDIR Unidad Oaxaca IPN, y que ha estado desarrollando un arado de tracción animal metálico que cumpla con las exigencias de las condiciones propias de las tierras del sur del país, se presenta el rediseño conceptual de un brazo metálico de arado de tracción animal con el objetivo de mejorar su desempeño actual en términos de su resistencia, durabilidad y corrección de errores en la pieza original.



METODOLOGÍA

Se consideró como material para el brazo portaherramientas el acero AISI 1045 estirado en frío que posee un limite elástico de 530 MPa.​ Se utilizó el paquete de software comercial SolidWorks para hacer virtual el modelo original, así como para rediseñarlo y ejecutar el análisis estático para determinar esfuerzos máximos, desplazamientos y deformaciones. Se modelaron 6 brazos portaherramientas diferentes: los originales con una inclinación de herramienta de 45° y 60°. Curvos a 45 y 60°. Por ultimo dos más de 45 y 60°, rectos, y con la modificación de los errores del modelo original.   Debido a que los modelos presentaban varias curvaturas, el mallador se basó en esta para crear un mallado solido con el fin de hacer más exactos los resultados. El valor de la carga producida por el suelo sobre el arado proviene de un análisis hecho por el Dr. Fidel Diego Nava en el que determinaron los distintos sistemas de fuerza provenientes de la operación de un arado de palo tradicional sobre un suelo clasificado como Regosol (WRB, 2006). En este análisis se encontró que la demanda de fuerza de tiro alcanza valores que varían de 850 a 2182 N, por lo que por cuestiones de diseño seleccionamos la fuerza de 2200 N que actuarían horizontalmente sobre el brazo portaherramientas colocándolo de manera perpendicular al suelo. Se usó la sujeción fija para restringir la pieza de cualquier movimiento de rotación o traslación en la posición donde se produce el mayor momento de flexión. El software se encarga de encontrar a través del método de los elementos finitos y la teoría de la energía de distorsión o teoría de Von Mises los esfuerzos de Von Mises con los que podemos determinar si con determinadas cargas el modelo fallará. La ecuación de diseño derivada de la teoría de Von Mises es: F.S. = Sy / σ’ Donde F.S. es el factor de seguridad, Sy es el límite elástico del material y σ’ son los esfuerzos de Von Mises. Como podemos suponer el limite elástico debe ser mayor que los esfuerzos de Von Mises para que el factor de seguridad sea mayor a 1 y evitar que el material falle. Dependiendo de la aplicación se busca el factor de seguridad deseado, en este caso buscamos un factor de seguridad de 1.5 a 2.


CONCLUSIONES

Se tenían unos cuantos problemas en el modelo original que fueron corregidos en los modelos modificados. Al ser las modificaciones meramente virtuales no se puede asegurar que la solución a estos errores sea 100% satisfactoria, por lo que los procesos de construcción quedarían pendientes para poder evaluar el proyecto. Los resultados del análisis estático son los siguientes: Brazo portaherramientas: Original 45° Altura total: 566 mm Esfuerzos de Von Mises máx: 280 MPa Desplazamiento máx: 1.66 mm Factor de seguridad: 1.89 Brazo portaherramientas: Original 60° Altura total: 581 mm Esfuerzos de Von Mises máx: 288.2 MPa Desplazamiento máx: 1.75 mm Factor de seguridad: 1.84 Brazo portaherramientas: Curvo 45° Altura total: 570 mm Esfuerzos de Von Mises máx: 282.5 MPa Desplazamiento máx: 1.83 mm Factor de seguridad: 1.88 Brazo portaherramientas: Curvo 60° Altura total: 581 mm Esfuerzos de Von Mises máx: 274.5 MPa Desplazamiento máx: 1.85 mm Factor de seguridad: 1.93 Brazo portaherramientas: Recto 45° Altura total: 570 mm Esfuerzos de Von Mises máx: 286.6 MPa Desplazamiento máx: 1.73 mm Factor de seguridad: 1.85 Brazo portaherramientas: Recto 60° Altura total: 581 mm Esfuerzos de Von Mises máx: 281.8 MPa Desplazamiento máx: 1.75 mm Factor de seguridad: 1.88 Se observa una mejora con respecto al modelo original en los brazos de 60°, siendo el curvo el que mejor se comporta. En el caso de los brazos de 45° se logra un resultado parecido al del original con el brazo curvo. Por lo que queda demostrado que los modelos curvos presentan una mayor resistencia que los rectos en este caso.
Granados Arellano Juana Isamar, Instituto Tecnológico Superior de Guanajuato
Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato

APROVECHAMIENTO DE FRIJOL DE SOJA PARA LA PRODUCCIóN Y ANáLISIS DE TOFU


APROVECHAMIENTO DE FRIJOL DE SOJA PARA LA PRODUCCIóN Y ANáLISIS DE TOFU

Granados Arellano Juana Isamar, Instituto Tecnológico Superior de Guanajuato. Lona Ramirez Janet Abigail, Instituto Tecnológico Superior de Guanajuato. Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los problemas de salud en la actualidad, ha hecho que incremente la tendencia a llevar una alimentación sana y las dietas alternas surjan con mayor auge en la última década, modificando las necesidades del consumidor. El enfoque hacia este mercado conforman personas con un régimen alimenticio especializado, libre de productos de origen animal o intolerantes a la lactosa. Fomentando el consumo de productos derivados del extracto de soja para el consumo humano en México, ya que es uno de los principales países consumidores de soja, ya que es una excelente fuente de proteína de alta calidad, en países occidentales se ha consumido por siglos y actualmente se utiliza para la elaboración de diversos alimentos, ya que aporta aminoácidos esenciales, isoflavonas, vitaminas, minerales y un alto contenido proteico. Los alimentos elaborados a partir del frijol de soja son no fermentados y generalmente insípidos, como la leche y queso de soja, también llamado Tofu. Considerando el aporte nutrimental de la soja se planteó desarrollar un producto de alta calidad y valor nutritivo, como es el Tofu, con características organolépticas atractivas al consumidor, entre ellas se destaca sabor a chile chipotle.



METODOLOGÍA

En este trabajo se realizo en tres etapas, que incluyen la caracterización por medio de análisis bromatológico, microbiológico y textura del producto. Etapa I. Análisis bromatológico Este análisis se llevo a cabo por triplicado en cada una de las muestras y obteniendo así un porcentaje de humedad del 24%, ceniza 3%, grasa cruda 23% y proteína cruda los cuales aun se están determinando. Etapa II. Análisis microbiológico Este análisis se realizaron tres métodos: para la cuenta de microorganismos aerobios, mohos y levaduras y coliformes totales. Para cada método se utilizó 1 ml de la muestra líquida directa o de la dilución primaria, repitiendo el procedimiento hasta la disolución 10-4, obteniendo un crecimiento ausente en cada uno de los métodos. Etapa III. Análisis de textura El análisis de textura se realizo para evaluar la calidad del producto ya que nos sirve para monitorear cambios en los atributos que afectan la vida de anaquel, dicho análisis se realizo mediante el texturometro midiendo los siguientes atributos: cohesividad, dureza, elasticidad y masticabilidad.


CONCLUSIONES

El presente proyecto surgió generar una alternativa de consumo para personas que optan por una dieta de ausencia de lácteos, que a su vez buscan productos que aporten los mismos nutrientes. Se realizaron se llevo a cabo en tres etapas que incluyen el análisis bromatológico, microbiológico y de textura con el fin de obtener nuestro producto final. El análisis bromatológico muestra resultados verídicos y un alimento con un alto valor nutricional. El análisis microbiologico muestra que el producto alimenticio es libre de microorganismos patógenos, por lo tanto, es un alimento inocuo para el consumidor. Por último en el análisis de textura obtenemos como resultado un alimento de calidad según los atributos evaluados.    
Guapo Mendieta Diego, Universidad de Guanajuato
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

ALGORITMO PARA LA DETECCIóN DE CALCIFICACIONES EN MAMOGRAFíAS


ALGORITMO PARA LA DETECCIóN DE CALCIFICACIONES EN MAMOGRAFíAS

Guapo Mendieta Diego, Universidad de Guanajuato. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El cáncer de mama es el principal padecimiento en este tipo que afecta a las mujeres en países desarrollados y en desarrollo.  La detección temprana del cáncer de mama aumenta las opciones de tratamiento y la expectativa de supervivencia.  Hoy en día, la mamografía es el principal método y él más confiable para la detección del cáncer de mama. Además, varios sistemas de detección asistidos por computadora (sistemas CAD) ayudan al procesamiento de mamografías para proporcionar resultados más precisos. El uso de algoritmos de aprendizaje de máquina (Machine Learning) en sistemas de diagnóstico y analítica puede llevar a importantes mejoras en la predicción de enfermedades. Para poder funcionar adecuadamente, el Machine Learning necesita enormes cantidades de datos. En este proyecto se aplican modelos paramétricos y estadísticos para la detección de calcificaciones y su clasificación en mamografías.



METODOLOGÍA

El primer paso en nuestra metodología es: leer la imagen en formato DICOM. Después, se obtiene la imagen de sumas y diferencias para un conjunto de desplazamientos establecidos en una vecindad. La imagen de suma se obtiene sumando cada píxel de la imagen con otro píxel separado por un conjunto de desplazamientos relativos, de forma similar la imagen de diferencia, solo que el operador es los pixeles son restados entre ellos. Una vez que se tienen estas dos imágenes se deben de obtener los histogramas. Se obtendrá un histograma por cada imagen, en este caso en una vecindad de 3x3 pixeles para cada una de las imágenes de suma y diferencia. La vecindad en los histogramas es de dimensiones pequeñas, ya que las calcificaciones son más visibles al usar esta dimensión. El desplazamiento fue establecido horizontalmente, aunque después se varía para la clasificación. Para cada histograma obtenido se obtienen diversas características de textura, las cuales son: media, varianza, energía, correlación, entropía, contraste, homogeneidad, agrupamientos de saliencia y de prominencia. Una vez obtenidas las distintas características, se analizan cada una de ella para determinar cuál es la más discriminante. Se analiza su comportamiento mediante la determinación de la función de densidad que lo define, estos es el histograma de la característica, para ello, normaliza la imagen del histograma de 0 a 1 y se reduce el bin en el rango de la característica a 100, ya que algunos rangos de los valores en los distintos histogramas son del orden de 106 para la imagen. Una vez reducido el número de bins, se establece el rango normalizando la clase que van desde 0 hasta 1, de esta forma el rango y la imagen son normalizados. Del procedimiento anterior, resultan 100 pares de puntos, con lo que podemos modelar su comportamiento usando la técnica de Vandermode. Se modela numéricamente usando interpolaciones que resultan en una función polinomial de grado n, esta función en general describe el cómo se comportan los diferentes histogramas obtenidos. Una vez obtenido la función polinomial que describe los histogramas, es importante determinar qué orden se usará para la función. Para esto es necesario calcular y graficar el error cuadrático medio (MSE, por sus siglas en inglés) entre cada uno de los posibles ordenes de la función polinomial con los valores reales del histograma.  Se pudo observar que existe un mínimo MSE en el orden de 10 a 15, por lo que una función polinomial con cualquiera de esos valores se puede utilizar para modelar los histogramas de características. Para poder clasificar las mamografías entre si existen calcificaciones o no, es necesario hacer el entrenamiento de un clasificador donde se entrenen con dos o más parámetros con base a la función polinomial obtenida, estas características pueden ser: número de raíces reales dentro del rango del histograma, número de raíces imaginarias, número de puntos de inflexión, número de pixeles en la última raíz, etc. Después, se puede medir el desempeño del algoritmo. Para medir el desempeño del algoritmo propuesto se necesita un marco de evaluación que consiste en una base de datos con diagnóstico y medidas de rendimiento.


CONCLUSIONES

CONCLUSIONES Durante la estancia de investigación se lograron adquirir conocimientos teóricos acerca de las mamografías y sobre los algoritmos utilizados para texturas en imágenes. El clasificador fue entrenado con 24 mamografías, 12 con calcificaciones y 12 sin ellas. La mejor eficiencia se obtuvo con un ventaneo de 3x3 pixeles, un desplazamiento de 1 con un ángulo de 45° y tomando como parámetros de la función polinomial: el número de raíces reales y el número de puntos de inflexión. La eficiencia obtenida fue de 0.792, la sensibilidad de 0.67 y la precisión de 0.92. Es importante tener una gran base de datos para poder lograr una clasificación con mejor rendimiento, para esto es necesario poder adquirir imágenes en formato LJPEG, que es el formato donde hay una gran cantidad de información, la cual se puede usar después para optimizar el algoritmo y su clasificación.  
Guardado Cano Gloria Paulina, Universidad Autónoma de Occidente
Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente

ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO


ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO

Aguiar Bernal Perla Denise, Universidad Autónoma de Occidente. Garcia Valenzuela Siria Alejandra, Universidad Autónoma de Occidente. Guardado Cano Gloria Paulina, Universidad Autónoma de Occidente. Lopez Moreno Lorenicela, Universidad Autónoma de Occidente. Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El Fuerte es el único municipio en el noroeste de México en producción de arándano y Sinaloa es el principal productor de maíz en el país, registrando una producción anual superior a 6 millones de toneladas en las cosechas. Sin embargo más del 50% de la materia prima se exporta a otros lugares sin ser transformada en otros productos, por lo que se decidió hacer mermelada a base de arándano azul con elote debido al gran número de producción de estos que hay en la región.



METODOLOGÍA

Se elaboró una mermelada nueva, hecha de elote y arándano azul, ya que estos alimentos son considerados originarios de la región, en el estado de Sinaloa. Se realizó una mermelada en el laboratorio de alimentos de la Universidad Autónoma de Occidente unidad Los Mochis, de acuerdo a la norma CODEX para las frutas jaleas y mermeladas (CODEX STAN-296-2009), de acuerdo a la descripción de mermelada de agrios. Para esto se realizó un diseño de mezclas hasta encontrar los parámetros ideales de la mermelada como color, olor, sabor, pH, °Bx, actividad de agua, entre otros.


CONCLUSIONES

RESULTADOS PRUEBA 1  pH:3,°Bx:59, % humedad:2.6 %,temperatura: 28°C,  Actividad de agua: 0.858aw / 25.9°C PRUEBA 2 pH:3,°Bx:64, % humedad:2.8 %,temperatura: 28.2°C,  Actividad de agua: 0.742aw / 25.3°C CONCLUSIÓN Se logró cumplir con el objetivo de la investigación el cual fue elaborar una mermelada a base de elote y arándano (Blueberry) con amaranto. El diseño de mezclas de los parámetros ideales de la mermelada fue la prueba 1. Fue una estancia que nos dejó un aprendizaje significativo ya que conocimos materiales y técnicas en el laboratorio de alimentos, reforzando los conocimientos adquiridos durante la carrera.  
Gudiño Márquez Jorge Wah-hing, Universidad de Colima
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

DEEP REINFORCEMENT LEARNING


DEEP REINFORCEMENT LEARNING

Gudiño Márquez Jorge Wah-hing, Universidad de Colima. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje profundo o DRL por sus siglas en ingles es uno de los temas más revolucionarios en nuestra época, que tiene que ver con la inteligencia artificial ya que por medio de este se pueden generar sistemas autónomos, que ayuden a solucionar problemas con los cuales la sociedad interactúa diariamente, por lo que abre a muchas nuevas aplicaciones en dominios tales como cuidado de la salud, robótica, redes inteligentes, finanzas entre otras. El funcionamiento de los algoritmos en base a este concepto es mediante un sistema multiagente el cual lleva a el código a un aumento de recompensa o al éxito de la tarea. Siendo este un indicador útil, pero proporciona solo una medida aproximada de las habilidades de comunicación aprendidas del agente. Así mismo Joelle Pineau profesora de la universidad McGill nos habla que, aun cuando se han creado varios algoritmos alrededor del mundo, en países como Estados Unidos y China, donde se generan cientos de artículos con base en este concepto de DRL son muy pocos los que funcionan correctamente. Ya que, aunque estos tengan la misma finalidad los datos que se obtienen diferencian mucho entre si dado a que se construyen sin una buena metodología. Dándonos así nuestra mayor problemática que es la falta de documentos que muestren una buena metodología y los pasos a seguir para la obtención de buenos resultados y código que sea posible ejecutar. Algo que cabe recalcar es que en México no se ha explorado lo suficiente este tema de investigación y, sin embargo, es un campo de investigación que tiene un gran potencial en el futuro de las industrias.



METODOLOGÍA

Para poder trabajar de manera más optima se tuvieron que plantear conceptos previos los cuales son necesarios al momento de adentrarnos a lo que fue el DRL, algunos de estos fueron explicados por nuestro investigador mientras que algunos otros estaban aclarados mediante la lectura de documentos que este mismo nos proporcionaba. Para poder comenzar a programar se utilizó un equipo de computación con sistema operativo Windows 10. Se instaló Anaconda® como ambiente de trabajo; junto con este paquete, se incluyó Python 3.7. Dentro de Anaconda® Navigator, se empleó Jupyter Notebook para comenzar el dominio del lenguaje Python. Dado que no todos conocíamos completamente el funcionamiento de este programa fue necesario tomar un curso introductorio a el ambiente de programación de Python organizado por el Instituto Tecnológico de Massachusetts (MIT) el cual abarcó temas básicos hasta los temas más avanzados mediante una serie de ejercicios en Jupyter y Spyder siendo útiles para poder generar la sintaxis correcta al momento de escribir código. Por consiguiente, se entrenó un modelo con MNIST la cual es una base de datos con números escritos con diferente caligrafía. Cuyo funcionamiento consiste en identificación de cualquier número del 0 al 9 que se está escribiendo, y calcular el promedio de exactitud del programa. Para indicar a que grupo pertenecía el valor introducido utilizando RandomForestClassifier. Una vez concluido el código, se implementó Deep Learning con la red neuronal convolucional (CNN). Se entrenó un modelo, con la misma base de datos de MNIST, pero incluyendo los paquetes de Keras, de red neuronal y posteriormente se guardó para evitar entrenarla cada vez que se ejecutara el código. Cada número ingresado en el programa fue predicho y clasificado con una gran exactitud del 99%. Keras es una API de redes neuronales de alto nivel, escrita en Python y es capaz de ejecutarse sobre TensorFlow. Para continuar con el curso entramos a la parte de aprendizaje por refuerzo profundo mediante una serie de actividades de la universidad de Berkeley California en donde se aprendieron conceptos nuevos como la función Q, la implementación del policy gradient y el entrenamiento de un algoritmo con recompensa. Con los códigos proporcionados en el mismo se ejecutaron en Python los códigos para comparar diversas políticas; esto refiere a que un agente tiene la oportunidad de escoger una acción de todas las historias posibles en un entorno virtual. Durante la primera asignación, el agente tiene una enseñanza por imitación. Se compara Behavioral Cloning y DAgger, esto con la finalidad de observar el crecimiento de aprendizaje y definir qué código es óptimo para el intermediario. Relacionando los dos códigos, se encontró que DAgger es un mejor código de implementación. Sus ventajas son que tiene un aprendizaje elevado con cada iteración, sin embargo, el tiempo de ejecución del programa es un poco más lento. En la segunda tarea, se desarrollaron políticas gradientes que ayudaron al agente en su toma de decisiones. Para reducir la varianza del gradiente de la política fue sumar las recompensas de la función Q, mejor conocido como reward-to-go. Por último, en la tercera actividad se entrenó el videojuego de Atari, Pong, con Deep Q-Network con la finalidad de observar el aprendizaje del agente virtual. Al finalizar, se graficaron los pasos por los que interactuó el juego teniendo como finalidad evaluar aprendizaje de la convolución de redes neuronales. También, se entrenó un agente para escalar una montaña y se ingresaron diferentes parámetros para conseguir un buen resultado.


CONCLUSIONES

Por medio de la estancia de investigación de verano delfín pudimos adquirir conocimientos teóricos relacionados a Machine Learning, Deep Learning y Deep Reinforcement Learning que nos ayudaron a comprender el entorno de programación como es que están estructurados los diferentes algoritmos, cuáles son sus principios de funcionamiento, la lógica de su ejecución y las ecuaciones fundamentales que hacen posible que el código pueda ir aprendiendo con una relación de entrada, salida y recompensa. Dejándonos así las bases del Deep Reinforcement Learning e incentivándonos a adentrarnos más a esta área de la Inteligencia Artificial en la cual aún faltan muchos aspectos por descubrir ya que es un área bastante amplia y revolucionaria que se puede implementar con múltiples finalidades.
Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
Guerra Gómez Carlos Eduardo, Universidad de Guadalajara
Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara

FUNCIONALIZACIóN DE LáMINAS DE ALUMINIO PARA ADHESIóN DE MOLéCULAS ORGáNICAS POR MEDIO DE PLASMA


FUNCIONALIZACIóN DE LáMINAS DE ALUMINIO PARA ADHESIóN DE MOLéCULAS ORGáNICAS POR MEDIO DE PLASMA

Abarca Venegas Mariana, Universidad de Guadalajara. Guerra Gómez Carlos Eduardo, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El plasma es materia calentada más allá de su estado gaseoso, la temperatura es tal que los átomos comienzan a eliminar al menos un electrón en sus capas externas, de modo que lo que queda son iones positivos en un mar de electrones libres. La ganancia o pérdida de electrones en los iones hace que estos átomos sean susceptibles a reaccionar químicamente con otras especies. Esta susceptibilidad de los iones para las reacciones químicas, permiten a los reactores de plasma realizar reacciones superficiales sencillas y complejas que en algunas ocasiones no son viables por métodos de química convencional. Lo que se pretende con este enfoque superficial y estas posibilidades que nos da el reactor de plasma, es el intentar la adhesión química de moléculas orgánicas al metal.



METODOLOGÍA

Se realizó el mantenimiento del reactor antes de comenzar las actividades. Éste se llevó a cabo limpiando todas las superficies con fibras y jabones especiales, además se utilizó isopropanol y un tratamiento de plasma de oxígeno. Se decidió que la mejor opción para conseguir nuestro objetivo era mediante la adhesión de grupos hidroxilos a la superficie del aluminio, esto se lograría mediante su modificación superficial. Dicha modificación consistiría en la formación de hidróxido de aluminio, para de esta manera formar un anclaje que reaccione o se adhiera a las moléculas orgánicas de interés. Antes de realizar los tratamientos con aluminio, se hicieron pruebas de oxidación con polietileno.   TRATAMIENTO A POLIETILENO En los experimentos con polietileno se pretendió la adhesión en la superficie de grupos funcionales que contienen oxígeno, lo que aumentaría notablemente su afinidad al agua. Esta adhesión se realizó por dos medios: la exposición directa con plasma de oxígeno puro y la formación de radicales libres con plasma de argón para su posterior exposición a O2 y aire atmosférico. Para los tratamientos, se utilizaron cuadros de aproximadamente 5x5 cm de polietileno limpiados con isopropanol. Tratamientos con plasma de oxígeno. Se trabajó en presiones de 0.3 a 0.4 mBar, variando la potencia en un rango de 25 a 100 watts, por un tiempo de 0.5 a 3 minutos Debido a que los resultados más favorables fueron a 0.3 mBar y a 100 watts, se realizó una serie de experimentos en esas condiciones cada 30 segundos hasta los 3 minutos Tratamientos con plasma de argón Se hizo un acondicionamiento de la cámara con argón. El acondicionamiento fue llevado a cabo a una presión de 0.3 mBar y 100 watts durante 5 minutos Se realizó una serie de experimentos a 0.3 mBar y 100 watts cada 30 segundos hasta los 3 minutos exponiendo el sustrato al aire atmosférico. Se continuó con una serie de experimentos expuestos a una atmósfera de oxígeno puro para comparar, al llegar a 4 mbar se cerró el vacío y el flujo dejando la cámara con el oxígeno durante 15 minutos.   TRATAMIENTO A ALUMINIO Los tratamientos al aluminio fueron enfocados a la formación de grupos hidroxilo en la superficie para posteriores reacciones con moléculas orgánicas. Se cortaron láminas de papel aluminio convencional extrafuerte de 5 x 5 cm y se limpiaron con isopropanol. Cada experimento llevó una cara opaca y una cara brillante del papel. La primer serie de experimentos fue enfocada a la limpieza de la superficie de las láminas con plasma de oxígeno. Se realizaron exposiciones al plasma de oxígeno a las mismas condiciones de tiempo (cada 30 segundos hasta los 3 minutos) y presión de la cámara (0.4 mBar), pero variando la potencia, de 25 a 100 watts. Una vez realizada la prueba hidrofílica a los experimentos de 75 watts, las láminas perdían afinidad con el contacto de películas poliprotectoras antielásticas que se usaban para secar las láminas frotándolas. La investigación se tornó a la búsqueda de cuál método nos ofrecía un mejor tiempo de vida y una mayor resistencia del tratamiento. Se determinó que los pretratamientos óptimos para los experimentos eran a 0.4 mbar, 100 watts y 3 minutos. Plasma de mezcla estequiométrica de agua y oxígeno Para conseguir que en este plasma se favorecería la presencia de grupos hidroxilo, se hizo una mezcla estequiométrica con relación 2:1 de agua bidestilada y oxígeno puro respectivamente. Para comparar el funcionamiento del pretratamiento, se realizaron tratamientos con dos láminas pretratadas y dos láminas sin pretratar por experimento. Los experimentos se trabajaron a una presión de 0.44 mBar con exposiciones de 2.5 minutos modificando las potencias de 25 a 100 watts. Una vez terminados los tratamientos se dejaban dentro del reactor a una exposición de gas de agua durante 5 minutos. Debido a que las láminas con pretratamiento mantuvieron el efecto hidrofílico, se decidió hacer los pretratamientos a las condiciones de 0.5 mBar, 100 watts y 5 minutos. Tratamiento con plasma de etanol Se realizaron tratamientos a las láminas previamente tratadas con oxígeno, a las condiciones de 0.34 mBar durante 2.5 y 5 minutos modificando las potencias siendo de 25 a 100 watts. Tratamiento con plasma de isopropanol Se realizaron tratamientos a las láminas con pretratamiento de oxígeno, a las condiciones de 0.5 mBar, 50 watts y tiempos de 2.5, 5 y 7.5 minutos


CONCLUSIONES

Durante la estancia del verano de investigación se pudieron adquirir habilidades en el manejo y mantenimiento del reactor de plasma frío, además de la funcionalización de materiales con diferentes plasmas. En esta área de investigación resulta importante la modificación y control de las variables para cada tratamiento, ya que, dependiendo del tiempo, la potencia o el flujo, los materiales presentan diferentes características. A pesar de que solamente se hicieron pruebas hidrofílicas para verificar su funcionalización, es necesario en un futuro realizar un análisis a las superficies para comprobar la adhesión de los grupos funcionales. Se espera que los mejores resultados sean los aluminios previamente tratados con oxígeno en un tiempo promedio a una alta potencia, para así garantizar un mayor periodo de activación y/o tiempo de vida.
Guerra Gonzalez Jessica, Instituto Politécnico Nacional
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

COMPARATIVA DE METODOLOGÍAS PARA LA PRODUCCIÓN DE POLIHIDROXIALCANOATOS


COMPARATIVA DE METODOLOGÍAS PARA LA PRODUCCIÓN DE POLIHIDROXIALCANOATOS

Guerra Gonzalez Jessica, Instituto Politécnico Nacional. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se estima que para el año 2030 la producción de plástico en el mundo aumente 700 millones de toneladas y 1800 millones para el 2050 (ONU), la búsqueda de alternativas que remplacen el uso de plástico de origen pétreo, así como que sean económicas y amigables con el medio ambiente nos lleva al uso de Polihidroxialcanoatos. Los Polihidroxialcanoatos (PHA) son poliésteres naturales con las características de ser biodegradables (pueden ser asimilados por muchos microorganismos ya sea de suelos, mares, lagos o aguas residuales) y son biocompatibles (no causan efectos tóxicos), (Y. González García et al.  2013). Son una gran alternativa para remplazar los plásticos pétreos, sin embargo, su elaboración se ve limitada por el elevado costo de producción, hasta 10 veces más que un plástico convencional. En algunos lugares se han utilizado las Plantas de Tratamiento de Aguas Residuales (PTAR) para la producción de bioplásticos, debido a que en ciertas condiciones en los reactores de lodos activados existen  microorganismos capaces de almacenar PHA, y la ventaja de un bajo costo usando las aguas residuales como sustrato para la producción de ácidos volátiles grasos (AVG), (T. Pittmann et al, 2014).



METODOLOGÍA

Para la recopilación de información se utilizaron las bases de datos bibliográficas Scopus, Mendeley y Google Académico, de los cuales se tomaron en cuenta los artículos relacionados con la producción de polihidroxialcanoatos en plantas de tratamiento de aguas residuales en los últimos 30 años. La información fue clasificada según el método de producción de PHA en anaeróbico-aeróbico, anaeróbico, aeróbico y anóxico, de los cuales se analizó el proceso y los resultados en porcentaje en peso seco, temperatura, pH, tiempo de retención hidráulica, tiempo de retención de lodos, y la variante de PHA (PHB o PHV).


CONCLUSIONES

Comúnmente las plantas de tratamiento de aguas residuales cuentan con un reactor anaeróbico y un aeróbico, que pueden ser utilizados para la producción de PHA; se han presentado producciones de PHA con mejores resultados en la zona aeróbica (36-50% peso seco)  que en la zona anaeróbica (17-28% peso seco), controlando los niveles de acetato y propionato (Ueno et al.1993; Dai et al, 2007; Bengtsson et al, 2008; Kasemsap et al, 2007). Si el sistema es modificado o sólo se utiliza el reactor anaeróbico se obtienen niveles de PHA de un máximo de 89% en peso seco agregando el microorganismo Bacillus licheniformis  y Mutante M2-12 (Sangkharak et al, 2013), pero debido al costo de un aditivo es mejor el método aeróbico, donde se presentaron niveles de producción de PHA de  78.5% a base de cultivos mixtos (Serafim et al, 2004). En cuanto a la zona Anóxica presento resultados muy satisfactorios de 79.2% en peso seco en una planta de tratamiento de almidón de yuca (Chaleomrum et al., 2014), cifra elevada pero no lograda con condiciones de una PTAR común. Realmente son pocos los avances para la producción de polihidroxialcanoatos en PTAR, y en México prácticamente nulos. Las investigaciones son hechas mayormente en prototipos pilotos sin aplicaciones  a gran escala. REFERENCIAS Yolanda González García, Juan Carlos Meza Contreras, Orfil González Reynoso y Jesús Antonio Córdova López. (2012). Síntesis y biodegradación de polihidroxialcanoatos: plásticos de origen microbiano. Rev. Int. Contam. Ambie. 29, 77-115. Pittmann, T., Steinmetz, H., (2013). Influence of operating conditions for volatile fatty acids enrichment as a first step for polyhydroxyalkanoate production on a municipal waste water treatment plant. Bioresour. Technol. 148C, 270-276. Ueno T, Satoh H, Mino T, Matsuo T. (1993). Polym Preprints Jpn (in Japanese). 42, 3673. Yu Daia, Zhiguo Yuana, Xiaolian Wanga,b, Adrian Oehmena,c, Jurg Keller (2007). Anaerobic metabolism of Defluviicoccus vanus related glycogen accumulating organisms (GAOs) with acetate and propionate as carbon sources. Waterresearch, 41, 1885-1896. Simon Bengtsson*, Anton Karlsson, Tomas Alexandersson, Luca Quadri, Markus Hjort, Peter Johansson, Fernando Morgan-Sagastume, Simon Anterrieu, Monica Arcos-Hernandez, Lamija Karabegovic, Per Magnusson, Alan Werker. (2017). A process for polyhydroxyalkanoate (PHA) production from municipal wastewater treatment with biological carbon and nitrogen removal demonstrated at pilot-scale. New Biotechnology. 35, 42-53. Kasemsap, C., & Wantawin, C. (2007). Batch production of polyhydroxyalkanoate bylow-polyphosphate-content activated sludge at varying pH. Bioresource Technology, 98, 1020-1027. Kanokphorn Sangkharak,  Poonsuk Prasertsan. (2013). Municipal Wastes Treatment and Production of Polyhydroxyalkanoate by Modified Two-Stage Batch Reactor. J Polym Environ. 21, 1009-1015. Luısa S. Serafim, Paulo C. Lemos, Rui Oliveira, Maria A. M. Reis.(2004). Optimization of Polyhydroxybutyrate Production by Mixed Cultures Submitted to Aerobic Dynamic Feeding Conditions. BIOTECHNOLOGY AND BIOENGINEERING. 87, 145-160. Nitinard Chaleomrum, Kannika Chookietwattana, Somchai Dararat. (2014). Production of PHA from Cassava Starch Wastewater in Sequencing Batch Reactor Treatment System. APCBEE Procedia. 8, 167 - 172.
Guerra Mercado Sebastián, Corporación Universitaria del Caribe (Colombia)
Asesor: Dr. Carlos Escobar del Pozo, Universidad de Colima

ANáLISIS DE FACHADAS DOBLES POR MEDIO DE SIMULACIONES EN SOFTWARE DE DINáMICAS DE FLUIDO COMPUTACIONAL (CFD)


ANáLISIS DE FACHADAS DOBLES POR MEDIO DE SIMULACIONES EN SOFTWARE DE DINáMICAS DE FLUIDO COMPUTACIONAL (CFD)

Guerra Mercado Sebastián, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Carlos Escobar del Pozo, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

  FACHADAS DOBLES Las fachadas dobles, también conocidas como fachadas de doble piel o ventiladas, hacen referencia a fachadas de edificios que cubren uno o más niveles con múltiples pieles esmaltadas, separadas por un espacio de aire, con el atributo común de contar con un sistema de sombras controlable y un flujo de aire dentro de la cavidad entre las capas de la fachada. El espacio de aire entre las dos capas funciona como una barrera aislante contra los impactos no deseados de las condiciones micro climáticas. (Ghaffarianhoseini et al., 2016). Es imprescindible la tecnicidad que se debe tener para un correcto funcionamiento de las fachadas dobles, en donde la integración de los distintos componentes que conforman éstas permiten un desarrollo adecuado de las mismas, así como la adecuación de las aberturas en las capas internas y externas, dispuestas de tal manera que garanticen la ventilación natural en las cavidades y los espacios interiores de la fachada, todo esto con el objetivo de permitir una eficiencia y ahorro energético que se moldee a las necesidades del mundo actual, en lo que los aspectos de sostenibilidad son la vanguardia en el campo de la construcción, haciendo apología a una arquitectura sostenible y amigable con el medio natural. Aquí radica la necesidad de encontrar nuevas formas y variantes que permitan retirar el calor de las fachadas en climas cálidos, por ende, en el presente trabajo se realiza un estudio donde se analiza el comportamiento de una celosía, como elemento envolvente de un muro, expuesta a las condiciones medioambientales de la ciudad de Colima, y que presentará dos condiciones morfológicas distintas, para con ello determinar una serie de resultados que permitan inferir como es el comportamiento de la celosía ante las variantes en su geometría y forma, acompañado de un agente natural externo como lo es el viento, y a su vez ver como este último tiene repercusiones en proceso de calentamiento y/o enfriamiento de elemento expuesto.



METODOLOGÍA

PROCESO DE SIMULACIÓN POR MEDIO DE LA HERRAMIENTA FLUID FLOW (FLUENT). Asignación de la herramienta Fluid Flow (Fluent) Diseño de la geometría. Características geométricas de los elementos. Materiales empleados Definición de las superficies y aplicación del mallado. Uso de la interfaz Setup e inicio de solución.​


CONCLUSIONES

CONCLUSONES. Los resultados de las celosías sin modificar nos permiten determinar que, en términos generales, no existe gran variación en relación con el comportamiento de la celosía ante el impacto del sol en los distintos meses del año a los que fue sometidos, se presenta pequeños cambios en las distintas horas a las que fue sometido, producto del movimiento aparente del sol. Es importante destacar las zonas que presentan mayor índice de calentamiento y el comportamiento interno de la celosía misma, dejando claro que las zonas expuestas por obvias razones son las más afectadas, mientras que las zonas internas de la celosía presentan mínimos, pero considerables, índices de transferencia de calor, los cuales propiamente no afectan del todo al muro que está en contacto con la celosía pero si nos permite registrar que la temperatura del muro puede aumentar un mínimo, afectando el confort térmico , a pequeña escala. Por otra parte, los resultados arrojados por las simulaciones hechas con las celosías modificadas, no permite evidenciar un comportamiento totalmente diferente, en donde las zonas que en están expuestas, y en primer instancia presentaban altos índices de calentamiento, en este caso presentan todo lo contrario, mostrando índices que permiten reflejar un enfriamiento en estas zonas, al igual que en las zonas internas de la celosía, presentando un comportamiento similar en los meses del año al que fue sometida la simulación, y sin mostrar gran variedad en las distintas horas del día, lo que nos permite deducir que la modificación hecha en la celosía, y la entrada de vientos constante, permite crear un flujo de aire que no permite la transmisión continua de calor, actuando este como un canal disipador, permitiendo así mantener una temperatura adecuada en la celosía y en el muro que está en contacto con la misma, en comparación de la temperatura exterior, mantenido así un confort térmico en el interior, a pesar que en los extremos se videncia mapas de calor pero que en su totalidad no sería gran afectación. Queda recalcado, a partir de la anterior experimentación, la eficiencia y las ventajas que posee este sistema de fachadas ventiladas, siempre y cuando exista un flujo de viento que permita la disipación y dispersión del calor generado por el calentamiento del elemento, en este caso las celosías, que se encuentra más expuestos al impacto del sol y que aparte de una función estética, cumple una función bioclimática. 
Guerrero Altamirano Mauricio, Instituto Politécnico Nacional
Asesor: Dr. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)

INFLUENCIA DE LA ORIENTACIóN DE SUSTRATOS DE SILICIO EN LA SíNTESIS DE NANOESTRUCTURAS DE DISULFURO DE MOLIBDENO (MOS2) MEDIANTE EL MéTODO DE DEPOSICIóN QUíMICA DE VAPOR


INFLUENCIA DE LA ORIENTACIóN DE SUSTRATOS DE SILICIO EN LA SíNTESIS DE NANOESTRUCTURAS DE DISULFURO DE MOLIBDENO (MOS2) MEDIANTE EL MéTODO DE DEPOSICIóN QUíMICA DE VAPOR

Guerrero Altamirano Mauricio, Instituto Politécnico Nacional. Asesor: Dr. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El disulfuro de molibdeno, que consiste de una capa de molibdeno intercalada, mediante fuerzas covalentes, entre dos capas de azufre, forma parte de una gran familia de materiales conocidos como materiales bidimensionales, llamados así para enfatizar su espesor del orden atómico. Estos materiales, cuya exploración se ha fomentado gracias al auge del grafeno y sus potenciales aplicaciones han demostrado poseer características excepcionales.  Dentro de los materiales bidimensionales, el disulfuro de molibdeno pertenece al grupo de los dicalcogenuros de metales de transición (TMDs), con fórmula MX2 (M = Mo, W; X = S, Se, Te), donde M es un átomo de un metal de transición y X es un átomo calcógeno.  La banda prohibida que presenta el disulfuro de molibdeno en su forma monocapa, y su manipulación mediante el proceso de sintetizado, es la característica del material que más interés ha despertado. Por esto, se han hecho esfuerzos considerables para la preparación de películas delgadas de  disulfuro de molibdeno. Para este estudio, se realizó la síntesis de disulfuro de molibdeno mediante el método de deposición química de vapor (CVD por sus siglas en inglés), el cual ha demostrado ser útil para obtener grandes áreas de monocapas policristalinas de MoS2, lo que es vital para que las aplicaciones antes mencionadas resulten viables. Se utilizaron dos tipos de sustratos de silicio: con orientación conocida y sin orientación; esto, con la finalidad de conocer la influencia que este parámetro tiene en distintas metodologías desarrolladas para el método de CVD en la síntesis de MoS2.



METODOLOGÍA

MATERIALES. Para la síntesis del disulfuro de molibdeno, se utilizó óxido de molibdeno (MoO3) obtenido sintetizado en el LabSyM M2D del CIMAV, mientras que el azufre reactivo utilizado fue comprado de la marca Meyer, S.A. de C.V (México); se utilizó argón  de alta pureza como gas de arrastre. La preparación de los sustratos de silicio se llevó a cabo utilizando acetona y posteriormente isopropanol para su limpieza, comprados también de la marca Meyer.  INSTRUMENTOS. La deposición química de vapor fue realizada en un horno modelo Lindberg/Blue M marca ThermoFisher, con tubo de cuarzo de 1 pulgada de diámetro y una longitud aproximada de 52 centímetros. Para la limpieza de los sustratos se utilizó un limpiador ultrasónico, modelo 1800, marca Branson. Las caracterizaciones correspondientes se realizaron con un microscopio electrónico de barrido, modelo Nova NanoSEM 200, marca FEI; un microscopio Raman confocal, modelo LABram HR Evolution, marca Horiba; y un espectrofotómetro UV-Vis-NIR, modelo Cary 5000, marca Agilent. PROCEDIMIENTOS. Se limpiaron, antes del crecimiento, los sustratos de silicio sonicándolos por 30 minutos en acetona y 30 minutos en isopropanol. Después de limpiarlos, se dejaron secar naturalmente.  Se colocaron 14 mg de polvo de MoO3 en un crisol cerámico sobre el que se fueron posicionando, uno por ciclo, los sustratos de SiO2/Si. En un crisol cerámico separado se colocó el azufre en una relación 1:8 (óxido: azufre). Ambos crisoles fueron puestos dentro del horno con una separación de 15 cm aproximadamente uno del otro. M1. Se llevó a cabo la evacuación de oxígeno a 300°C por 10 min. con un flujo de argón constante; después de este tiempo se elevó la temperatura hasta 850°C con rampa de 50°C/min, dando un tiempo de crecimiento de 5-10 minutos.  M2. Se llevó a cabo la evacuación de oxígeno a 300°C por 10 min. con un flujo de argón constante; después de este tiempo se elevó la temperatura hasta 950°C con rampa de 50°C/min, dando un tiempo de crecimiento de 5-10 minutos.  Pasado el tiempo de crecimiento, el horno se dejó enfriar hasta temperatura ambiente con flujo de argón constante. La caracterización de las muestras obtenidas se realizó mediante análisis SEM, espectroscopía Raman y UV-VIS. Para el análisis SEM se utilizó un cañón de emisión de campo (FEG), un detector de electrones secundarios a 15 kV. El análisis por espectroscopia Raman se realizó con un láser de 633 nm con un objetivo de 50X. Se analizó UV-vis con configuración de reflectancia difusa DRA externo. 


CONCLUSIONES

Para la metodología M1, las micrografías obtenidas sobre los sustratos orientados (Figura 3a-b) revelaron la formación de MoS2 con una morfología tipo lámina en los extremos laterales del sustrato, mientras que en el centro del sustrato se observaron morfologías atípicas (una especie de cubos), que posteriormente, con un barrido elemental, se corroboró no correspondían a MoS2. Se observó una zona de transición entre morfologías. Este fenómeno puede atribuirse a una saturación de los precursores en la zona central del sustrato, mientras que en los extremos laterales existe una concentración idónea para la nucleación y posterior crecimiento del dicalcogenuro de metal de transición. Por su parte, las micrografías de los sustratos no orientados, con la misma metodología (M1), muestran la presencia de morfologías tipo láminas tendiendo a pétalos individuales esparcidos por la muestra. En este caso, sin embargo, no es posible identificar zonas de transición específicas entre morfologías, sino que a lo largo de las zonas observadas se encuentran aleatoriamente ambos tipos de morfología (Figura 3c-d), esto se atribuye a la falta de orientación en el sustrato.    De acuerdo a las condiciones de síntesis estudiadas y a la orientación del sustrato como un factor gobernante sobre el crecimiento de MoS2, se puede concluir que se logró la síntesis de diferentes morfologías siendo el tipo pétalo la gobernante sobre otras como triángulos o hexágonos, y que, ésta se ve mejor definida en sustratos con orientación, siendo su concentración mayor en zonas de baja saturación. En el caso de las condiciones de síntesis debe resaltarse que una mayor temperatura en la etapa de crecimiento promueve morfologías como triángulos y hexágonos en las zonas de baja saturación, de los cuales, se estudiarán las propiedades electrónicas como un trabajo próximo.
Guerrero Arredondo Eduardo, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

MATERIALES COMPUESTOS SUSTENTABLES DE POLIETILENO RECICLADO REFORZADOS CON CARGA HÍBRIDA DE FIBRAS DE CARBÓN Y FIBRAS DE AGAVE.


MATERIALES COMPUESTOS SUSTENTABLES DE POLIETILENO RECICLADO REFORZADOS CON CARGA HÍBRIDA DE FIBRAS DE CARBÓN Y FIBRAS DE AGAVE.

Guerrero Arredondo Eduardo, Universidad Autónoma de Sinaloa. Moreno Peña Denisse Fernanda, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, dentro de los materiales compuestos, los materiales híbridos basados en polímeros reforzados con cargas híbridas compuestas por fibras naturales y fibras sintéticas han despertado un gran interés, ya que permiten la combinación de componentes orgánicos (tal como fibras naturales provenientes de desechos agroindustriales) e inorgánicos (como fibras de vidrio o carbono recicladas) con el objetivo de producir materiales sustentables, ligeros y más económicos, con propiedades óptimas para una aplicación específica, debido a la interacción de los componentes (efecto de hibridación).   En este sentido, las fibras naturales poseen algunas ventajas sobre las fibras sintéticas, tales como su baja densidad, baja abrasividad y toxicidad, alta disponibilidad, bajo costo y biodegradabilidad, sin embargo, uno de sus principales inconvenientes es la incompatibilidad que presentan al ser empleadas como refuerzos en materiales compuestos, debido a la naturaleza hidrofílica de las fibras e hidrofóbica de la mayoría de la matrices poliméricas. Por todo ello, la combinación de los dos tipos de fibra en un material híbrido es una propuesta interesante. Existen compuestos híbridos de fibra natural con fibra sintética que son rentables y alcanzan un rendimiento eficiente, por lo que durante el verano de investigación científica se prepararon compuestos híbridos utilizando fibra de agave y fibra de carbono reciclada en una matriz de polietileno de baja densidad, con la finalidad de conseguir un material que presente mejoras en cuanto a su resistencia al impacto, tensión y flexión.



METODOLOGÍA

Los materiales requeridos en el presente estudio fueron: fibra de agave proveniente de desechos industriales de la producción del tequila de diversas destilerías locales (Tequila, Jalisco), fibras de carbono recicladas y particuladas, suministradas por la empresa Zoltek (El Salto, Jalisco), y como matriz polimérica polietileno lineal de media densidad (PELMD RO 93650) en polvo, así como polietileno de baja densidad reciclado (r-PEBD) en polvo, proveniente del rechazo del proceso de fabricación de películas contenedoras de soluciones inyectables de la empresa PiSA (Guadalajara, Jalisco).  Se inició realizando la matriz polimérica mezclando 60% de polietileno virgen y 40% de polietileno reciclado. A partir de esto se realizaron las siguientes muestras: 85% de la matriz polimérica y 15% de fibras de carbono. 85% de la matriz polimérica y 15% de fibras de agave. 85% de la matriz polimérica, 10% de fibras de carbono y 5% de fibras de agave. 85% de la matriz polimérica, 10% de fibras de agave y 5% de fibras de carbono. Las mezclas fueron llevadas a un horno a 70° C durante aproximadamente 24 horas con el objetivo de reducir su humedad. Una vez transcurrido este tiempo, se procedió a realizar tres placas de 5 x 5 in de cada material, utilizando 25 gramos de mezcla por placa, en una termo prensa hidráulica para muestras de plástico, a 180°C durante 10 minutos hasta una presión máxima de 200 bar. Posteriormente, se cortaron dos tipos de muestras en las placas utilizando suajes, aplicando presión con la prensa hidráulica. El primer tipo de corte se realizó con una geometría correspondiente a probetas tipo IV (tipo hueso o mancuerna) para ser ensayadas en una máquina universal de ensayos mecánicos (INSTRON 3345) de acuerdo con la norma ASTM D638, y el segundo tipo de corte fue en probetas rectangulares de 12.7 x 127 mm, a las cuales se les realizó un corte en forma de muesca triangular y se ensayaron de acuerdo a la norma ASTM D6110 en un impactador Charpy (INSTRON CEAST 9050).  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las pruebas mecánicas que se realizan para la cuantificación de las propiedades de compuestos híbridos. Se llegó a la conclusión que al adicionar las fibras de carbono recicladas se producen compuestos sustentables con mejor desempeño mecánico del material compuesto a base de un polímero post-industrial y  además, en conjunto con las fibras de agave se obtiene un incremento considerable en las propiedades mecánicas debido al efecto de hibridación, a la vez que se reduce el costo de y el peso de estos materiales.
Guerrero Bustos Miguel Angel, Universidad Autónoma de Tamaulipas
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO E IMPLEMENTACIóN DE UNA APP PARA VISUALIZAR MéTRICOS DE CALIDAD EN FáBRICAS INTELIGENTES


DISEñO E IMPLEMENTACIóN DE UNA APP PARA VISUALIZAR MéTRICOS DE CALIDAD EN FáBRICAS INTELIGENTES

Guerrero Bustos Miguel Angel, Universidad Autónoma de Tamaulipas. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

En los últimos años con el crecimiento de la industria y la cantidad de elementos manufacturados en aumento se ha hecho más difícil el poder monitorear el estado de un producto, estación de una línea de producción o de la línea de producción de un producto en general. En la gran mayoría de los casos las estadísticas y análisis del estado calidad de producción se haces unas cuantas veces al mes, esto limitando el poder comprender en que se está fallando en el momento.



METODOLOGÍA

Antes de entrar a la metodología de este proyecto se tiene que explicar el trasfondo de cómo funciona la alimentación de datos. Primeramente, las hojas de estado de producto individual se escanean al finalizar su recorrido por la planta, al iniciar el escaneo estos son leídos para la extracción de su información por un algoritmo de reconocimiento de patrones en este caso números y a su vez estos son almacenados y enviados a una base de datos. Una vez que la información llega a la base de datos es en ese momento en el que mi proyecto empieza. Debido a que se quiere informar a los ingenieros, obreros y administrativos del estado de producción se desarrollaron dos maneras para hacer llegar la información: Para los ingenieros y administrativos se desarrolló una aplicación de celular para plataforma Android con base en lenguaje de programación JAVA, esta a su vez está conectada a una base de datos llamada Firebase. Este servicio de base de datos de Google tiene dos modalidades, pero la elegida para este proyecto fue Realtime Database que como su nombre lo indica es una base de datos alojada en la nube en tiempo real. Los datos se almacenan en formato JSON y se sincronizan en tiempo real con cada cliente conectado y todos los usuarios comparten una instancia de Realtime Database y reciben actualizaciones automáticamente con los datos más recientes. La aplicación tiene diferentes apartados, para poder acceder al estado primeramente se debe de elegir el nombre de la parte de la cual quiere ver información, ya elegida la parte esta mostrara todas las estaciones en la cual la parte está corriendo y tiene un pequeño apartado para ver el estado general de cada estación en caso de que no se quiera acceder de una en una para ver su información. En la siguiente pantalla se verán los datos de reconocimiento de la parte, su nombre y estación, esta muestra el estado general de la estación y su first pass yield. Además, esta cuenta con dos botones que dan acceso a: tomar acción y ver gráficos. Tomar acción se usa en caso de que el encargado se dé cuenta de que hay problemas en el estado de la línea de producción y decida tomar acción, para esto hay un switch dentro de esta pantalla que cambia el estado de la línea y este actualiza el estado de la línea para que todos los usuarios tengan conocimiento de que alguien va a trabajar en ese momento en resolver los problemas en la estación. Ver gráfico muestra una tabla con los cinco modos de falla más repetitivos dentro de esa estación perteneciente a cierta parte. Esta a su vez tiene acceso a otra pantalla que despliega una gráfica de barras para visualizar de otra manera la información. Para los ingenieros de piso y obreros se desarrolló un dashboard en una pantalla con ayuda de una Raspberry Pi 4 B‎ y una librería llamada Smashing que muestra widgets que pueden ser configurables con las múltiples librerías y al igual que la aplicación están conectadas a Firebase con ayuda de unos programas escritos en Python que permiten la extracción de datos de Firebase Realtime Database y sobrescribirlos en los documentos que tienen la información mostrada en la pantalla, también una torreta de tres colores tipo industrial fue instalada para indicar el estado de la estación que estará conectada a la Raspberry Pi para recibir información en tiempo real desde un módulo creado en Python.


CONCLUSIONES

A lo largo de la duración de la estancia de verano se lograron adquirir diversos conocimientos de programación de Python , JAVA, bases de datos no relacionales, cURL en PHP y el manejos en sistemas operativos base Linux. Se espera que lo desarrollado en este proyecto llegue al mercado del noreste del país a finales de este año y a principios del 2020.
Guerrero López Julio Leonardo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

CARACTERIZACIÓN FÍSICO-MECÁNICA DE CONCRETO ELABORADO CON AGREGADOS PÉTREOS DE LA REGIÓN. CASO DE ESTUDIO, MICHOACÁN DE OCAMPO: LOS NOGALES, JOYITAS Y PIEDRAS DE LUMBRE


CARACTERIZACIÓN FÍSICO-MECÁNICA DE CONCRETO ELABORADO CON AGREGADOS PÉTREOS DE LA REGIÓN. CASO DE ESTUDIO, MICHOACÁN DE OCAMPO: LOS NOGALES, JOYITAS Y PIEDRAS DE LUMBRE

Guerrero López Julio Leonardo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Al momento de edificar una construcción, se pretende usar los materiales pétreos que estén disponibles en la zona con el fin de reducir costos y tiempos relacionados con el transporte de estos materiales hasta el sitio de obra o a la planta concretera. Sin embargo, los materiales que se utilizan para la elaboración de concreto en ocasiones pueden o no contar con un adecuado análisis o no contar con estudio alguno, lo cual genera que los concretos elaborados no cumplan con las normatividades vigentes causando que las estructuras sean inseguras para los usuarios. En el estado de Michoacán de Ocampo, México, existen una gran variedad de bancos de materiales que pueden ser utilizados para la elaboración de mezclas de concreto. El problema radica en que los materiales extraídos en algunos de estos bancos no cuentan con estudios previos que permitan conocer las propiedades físicas de los mismos. Por ello, se ha decidido investigar a uno de estos bancos llamado Los Nogales, cercano a la ciudad de Chilchota en el estado de Michoacán de Ocampo.



METODOLOGÍA

Se utilizó la grava proveniente del banco Los Nogales que se encuentra sobre la carretera Morelia-Jiquilpan en el kilómetro 124+000 con coordenadas 19°50’54’’N - 102°09’09’’O. Para su caracterización se aplicaron las siguientes pruebas: muestreo representativo de grava y cuarteo (NMX-C-170-ONNCCE-1997 y NMX-C-030-ONNCCE-2004); prueba de humedad actual en gravas (NMX-C-166-ONNCCE-2006); pruebas de humedad de absorción y densidad de gravas (NMX-C-164-ONNCCE-2014); masa volumétrica seca suelta y la masa volumétrica seca varillada (NMX-C-073-ONNCCE-2004); análisis granulométrico en gravas (NMX-C-077-ONNCCE-1997). Para las arenas, se utilizaron muestras obtenidas de los bancos de Piedras de Lumbre (kilómetro 112+000 con 19°26'57"N-100°27'56"O sobre la carretera Toluca-Morelia), de Joyitas (kilómetro 014+500 con 19°43'07"N-101°23'22"O sobre la carretera Morelia-Jiquilpan), y del propio banco de Nogales. Para su caracterización se aplicaron las siguientes pruebas: muestreo de arena y cuarteo; prueba de humedad actual en arena; prueba de humedad superficial y de absorción de arenas, y de densidad; masa volumétrica seca suelta y masa volumétrica seca varillada; análisis granulométrico en arenas. El cemento que se usó fue un CPC 30R RS, al cual se le aplicaron las siguientes pruebas para su caracterización: prueba de consistencia normal del cemento (NMX-C-057-ONNCCE-2015:); prueba de los tiempos de fraguado del cemento hidráulico con aparato de Gillmore (ASTM C66-03 y ASTM C150-07); prueba de densidad del cemento (NMX-C-152-ONNCCE-2010). Se procedió a realizar el diseño de la mezcla de concreto según el método ACI, el cual concibe una serie definida de pasos. Las mezclas resultantes se colaron en moldes cilíndricos de 10cmx20cm. Pasadas 24 horas se procedió a desmoldar los especímenes resultantes para continuar con el curado de los mismos por el método de inmersión (NMX-C-159-ONNCCE-2004).  A los 7 y 14 días se extrajeron 2 especímenes de cada diseño de mezcla de la pila de curado y se aplicaron las siguientes pruebas: determinación de la variación de longitud en especímenes de concreto (NMX-C-173-ONNCCE-2010); prueba de resistividad eléctrica en concreto hidráulico (NMX-C-514-ONNCCE-2016); determinación de la velocidad de pulso a través del concreto (NMX-C-275-ONNCCE-2004); cabeceo de especímenes cilíndricos (NMX-C-109-ONNCCE-2013); resistencia a la compresión de especímenes cilíndricos (NMX-C-219-ONNCCEE-2005 y NMX-C-083-ONNCCE-2002).


CONCLUSIONES

Sobre la caracterización de la grava, se obtuvo que los valores de la MVSS y la MVSV fueron bajos, lo que se interpreta como una masa unitaria ligera, también resultando en una densidad de valor bajo. En la humedad de absorción obtuvo valores muy altos de acuerdo a los rangos normados. Sobre la caracterización de las arenas, se obtuvo que los valores de la MVSS y la MVSV para las tres arenas fueron bajos, lo que se interpreta como masas unitarias ligeras según la norma vigente. En la humedad de absorción la arena de Los Nogales obtuvo valores muy altos de acuerdo a los rangos normados. Sobre la caracterización del cemento, los resultados de las pruebas realizadas entraron en los parámetros de las normativas, por lo que se deduce que el cemento estudiado es apto para la elaboración de las muestras cilíndricas de concreto. Por los resultados obtenidos en los diseños se resalta la mezcla obtenida para grava y arena de Los Nogales, la cual, por sus bajas masas unitarias, su gran porosidad aparente y sus altos porcentajes de absorción es la que requiere mayor cantidad de agua. Para este caso se propone el uso de un aditivo fluidificante para disminuir este gran consumo de agua. En base a los resultados obtenidos en la prueba de resistividad eléctrica se deduce que están muy por debajo de lo que recomienda la norma (ρ>10 KΩ-cm), por lo que las tres muestras tienen grandes capacidades conductivas resultando en grandes probabilidades de corrosión; se esperan los resultados a 28 días de edad. Respecto a la prueba de velocidad de pulso ultrasónico, desde edades tempranas los especímenes consiguieron superiores a los estipulados por la norma oficial para ser considerado un concreto durable con pocos vacíos. Se esperan los resultados de las pruebas a los 28 días. Por último, en las pruebas de compresión, los especímenes cilíndricos superaron el diseño original, sólo la mezcla con arena de Piedras de Lumbre dio resultados parecidos a este valor a los 7 días. Las mezclas con arena de Nogales presentaron resistencias muy superiores a los factores de diseño que se interpreta como una resistencia superior gracias al uso de materiales provenientes del mismo banco. Se espera que la resistencia a los 28 días aumente conforme las muestras alcanzan su resistencia máxima.
Guillén Morales Samantha, Instituto Tecnológico de Morelia
Asesor: Dr. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

EFECTO DE LA TERAPIA FOTODINáMICA EN MICOSIS MEDIANTE PROCESAMIENTO DE IMáGENES


EFECTO DE LA TERAPIA FOTODINáMICA EN MICOSIS MEDIANTE PROCESAMIENTO DE IMáGENES

Guillén Morales Samantha, Instituto Tecnológico de Morelia. Asesor: Dr. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las micosis son aquellas enfermedades causadas por hongos microscópicos, las micosis superficiales son producidas por dos grandes grupos de hongos: las levaduras y los dermatofitos (tiñas). A la infección clínica producida por levaduras del género Cándida (C.) se le denomina Candidiasis o Candidosis. La especie involucrada más frecuentemente como agente causante de la enfermedad es Candida albicans, que pertenece a la microbiota gastrointestinal, vaginal, orofaríngea  y algunos pliegues cutáneos. Debido a la resistencia de la Candida a los compuestos azólicos (medicamento fungico), se están buscando alternativas para su tratamiento, una de ellas es la Terapia fotodinámica, la cual representa una alternativa para el tratamiento de enfermedades. Tiene grandes ventajas, tales como costos menores, en muchos casos es más eficiente, carácter no invasivo y menores efectos secundarios en comparación con los tratamientos tradicionales. Por lo que durante el verano de investigación se busca estudiar los efectos de la terapia fotodinámica (PDT); la cual consiste en destrucción selectiva de células, a través de procesos biológicos activados por luz, en este caso se aplicara a las levaduras del genero c. albicans y c. tropicalis, estos cambios serán evaluados mediante la toma y procesamiento de una base de datos (imágenes), en las que se realizara una comparación entre un control y varias lapsos de exposición a la PDT.



METODOLOGÍA

La metodología consiste en 4 etapas las cuales son: adquisición de la base de datos, procesamiento, extracción de características y evaluación de los resultados, que serán descritos a continuación: a. Adquisición de la base de datos: En esta etapa se obtuvieron las muestras de cultivos nuevos de las cepas de C. albicans y C. tropicalis, estas fueron sembradas en cajas Petri de pet, esterilizadas e incubadas a 32°C para su crecimiento durante lapsos de tiempo de 24hrs y 48hrs, estas se mantuvieron en el laboratorio de Terapia Fotodinámica en el INAOE resguardadas de la contaminación para su uso.  La adquisición de la base de datos se obtiene mediante la toma de imágenes speckle, este proceso consiste en hacer incidir un láser en la colonia de elección, esta genera un patrón de interferencia que es producido por la luz reflejada o dispersada por la superficie iluminada y que es capturada por una cámara Retiga. Durante esta etapa la base de datos que se obtuvo está compuesta por 1000 imágenes de una colonia de control, 1000 imágenes de una colonia a la cual se le aplico un tiempo de exposición a la terapia fotodinámica y 1000 imágenes de una colonia con fluconazol. b. Procesamiento de la base de datos: Durante esta etapa como ya se mencionó anteriormente se aplicaron algoritmos que permiten analizar el comportamiento de las imágenes obtenidas sobre la dinámica de las colonias, los cuales son: Correlación_1, n:  que es un algoritmo que consiste en la comparación de cada una de las imágenes con el conjunto de imágenes totales; que son 1000, esto te permite conocer si hubo alguna interferencia en el momento de la captura de los datos y así confirmar que no existen factores externos que alteren la muestra. Correlación n, n+1 es un algoritmo en el que se realiza una comparación de imágenes; una a una, obteniendo un promedio entre las dos y comparando las 1000 imágenes  permitiendo como ya se mencionó confirmar que no existe alteraciones externas en la captura de la muestra. FUJII Y K Temporal estos algoritmos aunque su función de trabajo  es diferentes, en los resultados presentan algo muy similar, aplican la técnica conocida como falso color que permite asociar a un rango de gris un color específico que tiene como único propósito, hacer más visibles las áreas correspondientes; que en este caso es la zona más dinámica de la colonia a estudiar. c. Extracción de características: Lo que se busca realizar es obtener las características que nos permitan observar las mejoras que existe en el uso de cada uno de los tratamientos; ya sea con FDT o fluconazol, para eso durante esta etapa se van a proponer métricas para su demostración, la cual consta de realizar dos pasos: medir la variación en el tamaño de la colonia y medir la disminución de la dinámica de la colonia antes y después de la aplicación de fluconazol o FDT. d. Evaluación de los resultados: Con toda la información ya obtenida, se procede a realizar una discusión de los resultados. Se aplicaran técnicas estadísticas que permitirán evaluar y confirmar el porcentaje de efectividad de la FDT aplicado en las colonias de c. albicans y c. tropicalis, esperando que los resultados sean sobresalientes.


CONCLUSIONES

En la adquisición de la base de datos se escogieron colonias de tamaño grande que oscilaba entre 5 y 10 micras  con 24hrs o 48 hrs de crecimiento ya que estas presentan un tamaño considerable para la toma de imágenes, a las colonias se les aplico un haz colimado con un láser He-Ne; se le llama haz colimado a la luz cuyos rayos son paralelos entre sí para que sea captado por la cámara, otras características que se tomaron en cuenta para la toma de imágenes fue un tiempo de exposición de 1µs, así como una apertura de 3.5; estos datos se obtuvieron de manera experimental al realizarse más pruebas y fueron elegidos por que se presentaban imágenes que al aplicarles la correlación_1,n y la correlación_n,n+1 presentaban un comportamiento lineal; es decir las imágenes presentaban variaciones como se espera pero son variaciones menores generando una gráfica de comportamiento lineal. En el procesamiento de las imágenes se obtuvieron conocimientos básicos de programación así como el uso de software de Matlab, sistema que ayudo en el procesamiento, las imágenes se procesaron con los algoritmos Fujii, K Temporal, Correlación_1,n y Correlación_n,n+1; descritos en la metodología,  para tener un  análisis de la dinámica de las colonias; el análisis será usado para la extracción de características así como evaluación de datos resultantes a los que se le aplicaran métodos estadísticos para la evaluación de la efectividad de la FDT.
Guluarte Camacho Michelle, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES

Gálvez Camargo Rubén, Consejo Sudcaliforniano de Ciencia y Tecnología. Gil Lemus Heriberto, Consejo Sudcaliforniano de Ciencia y Tecnología. Guluarte Camacho Michelle, Consejo Sudcaliforniano de Ciencia y Tecnología. Ramirez Ramirez Giselle, Universidad Autónoma de Sinaloa. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

  Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Gumeta de la Cruz Irving Alexis, Instituto Politécnico Nacional
Asesor: Dr. Francisco Leonel Silva Gonzalez, Instituto Mexicano del Petróleo

CáLCULO DE CARGAS QUE PROVOCAN LOS CAMBIOS TéRMICOS DE UNA LíNEA DE FLUJO EN LA CIMENTACIóN DE UN EQUIPO SUBMARINO UTILIZANDO UN MODELO DE ELEMENTO FINITO


CáLCULO DE CARGAS QUE PROVOCAN LOS CAMBIOS TéRMICOS DE UNA LíNEA DE FLUJO EN LA CIMENTACIóN DE UN EQUIPO SUBMARINO UTILIZANDO UN MODELO DE ELEMENTO FINITO

Gumeta de la Cruz Irving Alexis, Instituto Politécnico Nacional. Asesor: Dr. Francisco Leonel Silva Gonzalez, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Los equipos submarinos utilizados en la explotación de pozos de la industria de aceite y gas están sujetos al fondo marino a través de cimentaciones conocidas como pilotes de succión. Estas cimentaciones reciben el efecto que tienen ciertos fenómenos relacionados al ambiente en el que se encuentran tales como corrientes marítimas y sismos y, fenómenos correspondientes al propio proceso de exploración como lo pueden ser los paros o inicios repentinos de producción y el efecto de expansión que sufren las tuberías que transportan el fluido caliente.  Por esta razón, para poder asegurar el correcto funcionamiento de los pilotes de succión, es necesario realizar la evaluación de estos fenómenos traducidos como cargas sobre el pilote de succión utilizando un modelo de elemento finito como se ha vuelto tendencia en la industria del aceite y gas. En este trabajo se lleva a cabo el cálculo de las cargas que soporta un pilote de succión, debidas a la expansión térmica de una línea de flujo típica sobre un periodo de operación normal.



METODOLOGÍA

Para poder alcanzar los objetivos de la línea de investigación se llevó a cabo la siguiente metodología: Se leyeron artículos científicos sobre evaluación del comportamiento de equipos submarinos.  Se familiarizó con el software de código abierto Salome-Meca en el cual se llevará a cabo el modelado de la línea de flujo. Se determinó el arreglo submarino que se modelará en el software para la determinación de la expansión térmica de la línea de flujo. De forma preliminar, se plantearon las condiciones de frontera con las que contará el modelo de la línea de flujo, apegándose a la práctica común en la industria de aceite y gas. Se modeló la línea de flujo. Se obtuvieron resultados preliminares.  Se agregó al modelo un jumper rígido que conecta la línea de flujo con el equipo submarino. Se obtuvieron resultados en la interfaz del jumper y el equipo submarino. Se aplicaron las fuerzas obtenidas sobre el modelo del equipo submarino y, se obtuvieron resultados del efecto que estas tienen sobre la cimentación. Se obtuvo una función analítica que represente el efecto de la expansión térmica de la línea de flujo sobre la cimentación del equipo submarino. Durante cada parte del proceso se llevaron a cabo evaluaciones en conjunto con el Investigador para asegurar el estar apegados a los objetivos de la línea de investigación


CONCLUSIONES

La expansión térmica de la línea de flujo a pesar de no desplazar a esta una distancia muy grande (menos de 50cm), sí provoca fuerzas de reacción de orden de unas decenas de miles de Newtons y momentos que tienen a separar a los equipos submarinos de las cimentaciones. 
Gurrola Pulido Melisa Dariana, Universidad Politécnica de Sinaloa
Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

ROBOT A465 HARDWARE


ROBOT A465 HARDWARE

Gurrola Pulido Melisa Dariana, Universidad Politécnica de Sinaloa. Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo, los avances tecnológicos se han desarrollado de manera en que estos puedan beneficiar de muchas maneras al ser humano. Los robots han sido uno de los avances tecnológicos mas importantes ya que estos representan los movimientos que puede realizar el ser humano en las labores diarias. El brazo robótico está hecho para realizar funciones similares al brazo humano. Este a su vez permite realizar movimientos rotacionales o desplazamientos lineales en conjunto con servomotores para realizar distintas tareas. Los brazos robóticos son mayormente utilizados en las industrias para la automatización del proceso de producción. Estos realizan distintas tareas como montajes, empaquetado, pulido, soldadura, atornillado entre otras funciones. Es importante conocer tanto el software como el hardware de un brazo robótico para que este sea utilizado de manera en que beneficie las tareas que se deben de realizar.



METODOLOGÍA

La identificación de las características del robot es importante para que tener conocimiento de donde se encuentran las piezas que lo componen y como estos están conectados entre si para que el robot pueda funcionar. Se enfoco principalmente en los siguientes componentes: transformador, motores, frenos magnéticos y fuente de alimentación. Se pudo obtener mayor conocimiento a través de distintas fuentes de investigación, además de que se utilizó la tesis Diseño e Implementación de una arquitectura abierta el cual contiene un trabajo similar al que se pretendía implementar. El diseño del puente H para el cambio de giro de los motores del brazo robótico se simulo primeramente en PROTEUS para así analizar los componentes que podrían soportar tanto el voltaje como amperaje que utiliza el brazo robótico. Una vez que obtenido el circuito que cumpla con las especificaciones del brazo robótico, se pudo realizar la implementación física del puente H así obteniendo el cambio de giro requerido en el brazo robótico. El transformador conectado con el banco de capacitores daba un voltaje de 0v por lo tanto se tuvo que observar con un osciloscopio si este otorgaba alguna señal o pulso. Se concluyo que, por la falta de capacitores, este no pudo funcionar de manera correcta.


CONCLUSIONES

En el plazo de la estancia de verano se logró poner en práctica distintos conocimientos ya adquiridos a lo largo de la ingeniería para poder resolver las distintas problemáticas presentados a lo largo del proyecto. Además de que se pudo obtener un mayor conocimiento de cómo el hardware funciona en un brazo robótico, como este está conectado entre si para que este pueda funcionar de manera correcta. Como existe Debido a la escasez de recursos, no se pudo observar el movimiento completo de este. Mas, sin embargo, se espera poder obtener estos componentes para poder articular y conectar todas las piezas entre sí y contemplar el funcionamiento completo del brazo robótico.
Gutiérrez Arámbula Diego, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

EVALUACIóN DEL EFECTO ANTIBACTERIANO DEL TRATAMIENTO COMBINADO AMINOGLUCóSIDO/METALES DE TRANSICIóN EN ESCHERICHIA COLI ATCC 11229


EVALUACIóN DEL EFECTO ANTIBACTERIANO DEL TRATAMIENTO COMBINADO AMINOGLUCóSIDO/METALES DE TRANSICIóN EN ESCHERICHIA COLI ATCC 11229

Gutiérrez Arámbula Diego, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

E. coli es un patógeno que se considera un problema de µsalud pública a nivel mundial dado que algunas cepas son altamente patógenas y que uno de los principales problemas en su tratamiento es que algunas cepas han desarrollado resistencia a los tratamientos convencionales. Por lo tanto, la investigación de nuevos tratamientos para las cepas farmacorresistentes debe basarse en nuevos mecanismos de acción en relación con los actuales, teniendo en cuenta el menor numero de efectos secundarios. En consecuencia, en los últimos años el desarrollo de los metalofármacos ha aumentado, ya que se ha demostrado anteriormente que tienen una acción terapéutica con los cuales se ha logrado superar las cepas resistentes.



METODOLOGÍA

MICs (concentraciones mínimas inhibitorias) Los valores de MICs se obtuvieron utilizando el ensayo en microplaca de poliestireno transparente de 96 pozos. Para la obtención del inoculo, se realizó un cultivo overnight de la cepa de interés, a partir de este se tomaron 200µL y se agregaron en 5 mL de caldo LB, y se incubó a 37°C y 150 rpm hasta alcanzar una densidad óptica (DO) de 0.2 y finalmente se realizó una dilución 1:100 en caldo LB. Se utilizaron concentraciones descendientes (18 - 2 mM) de los tratamientos aminoglucósido,  sal metálica de transición A, y B en un volumen final de 200µL de caldo Luria Bertani (LB) incluyendo el inoculo de las bacterias (20µL de la dilución previamente realizada). Las cepas se incubaron durante 18 horas a 37°C y 150 rpm.  Se determinó la DO a 600 nm en un espectrofotómetro UV-Vis y se registraron los valores respectivos. Todas las pruebas y sus respectivas muestras de control se realizaron en triplicado.   Tratamientos combinatorios Para los tratamientos combinatorios se utilizaron las fracciones (0.5, 0.25) de las MICs de cada sal metálica de transición y de aminoglucósido en un volumen final de 200 µL de caldo LB, incluyendo el inóculo de bacterias. Las placas de 96 pozos se incubaron a 37 °C durante 18 horas. Se midió la densidad óptica (DO) a 600 nm en un espectrofotómetro UV-Vis. Todos los grupos se realizaron en triplicados.   Inhibición de síntesis de proteínas Las condiciones de cultivo y las combinaciones de las MIC se realizaron como se describió anteriormente. La cuantificación de proteínas se realizó por el método de Bradford utilizando un estándar de BSA (albumina bovina sérica). Una vez finalizado el tratamiento se transfirió el contenido de cada pozo en tubos eppendorf y se centrifugaron a 4,000 rpm por 5 minutos. Posteriormente se recolectó el sobrenadante en tubos nuevos. El pellet se lavó una vez con PBS 1X, se centrifugó nuevamente a 13,200 rpm por 5 minutos. Se realizó el lisado pellet con Buffer de lisis (tris glicerol, tritón, Mg, lisozima) durante 15 minutos en agitación constante. El lisado bacteriano se obtuvo por centrifugación a 13,200 rpm por 5 minutos. Las muestras fueron almacenadas a -20 C° hasta su uso. Cuantificación de radicales libres de oxígeno (ROS) Se realizaron los mismos tratamientos para las pruebas combinatorias y las mismas condiciones de cultivo descritos anteriormente. Finalizado el tratamiento, las placas se centrifugaron a 4000 rpm durante 15 minutos, se desechó el sobrenadante y se lavó con 200 µL de PBS y se centrifugó nuevamente a 4000 rpm durante 15 minutos. Se realizó la tinción con 100 µL de CDM-H2DFSDA (Invitrogen) a 10 µM. Se incluyó un control positivo tratado con peróxido de hidrógeno (H2O2) 5mM. Se cuantificaron las unidades relativas de fluorescencia (URF) en cada pozo mediante un Fluorskan (excitación:485nm, y emisión:538nm) a 0, 15, 30 y 45 minutos.


CONCLUSIONES

Durante la estancia en este verano se aprendieron diversos conocimientos teóricos y técnicas de microbiología que pueden ser utilizadas en un futuro. Se aprendió que la resistencia de las bacterias a algunos antibióticos han sido un problema importante el desarrollo de medicamentos más eficientes y efectivos. Por lo anterior, el tratamiento combinatorio resultó en un efecto sinérgico significativo dado que el uso de menores concentraciones de los tratamientos combinados mostró ser más efectivo que los tratamientos individuales. Por lo tanto, la combinación de antibióticos con metales de transición resultó ser una excelente alternativa de tratamiento con potencial uso en la práctica clínica.
Gutiérrez Ceceña Paul Enrique, Instituto Tecnológico de Los Mochis
Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez

DISEñO Y DESARROLLO ERGONóMICO EN MANUFACTURA ADITIVA EN TECNOLOGíA FABRICACIóN POR FILAMENTO FUNDIDO


DISEñO Y DESARROLLO ERGONóMICO EN MANUFACTURA ADITIVA EN TECNOLOGíA FABRICACIóN POR FILAMENTO FUNDIDO

Gutiérrez Ceceña Paul Enrique, Instituto Tecnológico de Los Mochis. Rodríguez Montiel Daniela, Instituto Tecnológico de Pachuca. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Debido a la rápida evolución de la manufactura aditiva se percibe cada vez más cercano su uso en la denominada industria 4.0, donde la impresión 3D deja de limitarse al prototipado rápido para centrarse en la producción de elementos de alta calidad mecánica y estética. Al día de hoy, las principales máquinas que hacen uso de la tecnología FFF (Fabricación por Filamento Fundido) tienen ciertas deficiencias en  temas de ergonomía, mantenimiento y seguridad de los equipos, que a su vez repercuten en las propiedades físicas de los objetos resultantes. A medida que se incrementa el uso de esta tecnología aumenta la necesidad de optimizar el proceso para que el usuario logre fabricar piezas con un acabado uniforme sin comprometer las bondades del material, reduciendo el post-procesado y con ello disminuyendo las lesiones del usuario. Por lo anterior, esta investigación se centra en tres objetivos para mejorar el diseño y ergonomía en la manufactura aditiva con tecnología FFF. En primer lugar se plantea el diseño de nuevas boquillas para estos equipos, teniendo como  hipótesis que distintas geometrías de salida ayudan al óptimo depósito del material, reduciendo el escalonado y así mejorando la calidad del producto final. En segundo lugar se pretende demostrar las características mecánicas de probetas de PLA impresas con las nuevas boquillas diseñadas, haciendo uso de las  normas de la American Society for Testing and Materials (ASTM). Por último se proponen la implementación de componentes SMED (Single-Minute Exchange of Die) para el cambio rápido de extrusores.



METODOLOGÍA

Rediseño de boquillas con diferente geometría de salida De manera preliminar se diseñaron 3 tipos de boquillas con geometría de salida cuadrada, hexagonal y de estrella de 5 picos. La elección de estas figuras se basó en las diferentes variables a analizar: salida adecuada del material, reducción de atascos, fácil mantenimiento,  menor escalonado y acabado del producto. En cada caso se hicieron los cálculos para aproximar el mismo flujo de salida que tendría una boquilla comercial con punta de 0.4mm. Ya que el factor de escalonamiento en las piezas impresas afecta directamente la estructura molecular de los productos por FFF, es necesario evaluarlo en laboratorio. Por ello, para  comprobar la funcionalidad de las boquillas propuestas se buscan dos posibles situaciones: que se reduzca el escalonado generando piezas más resistentes, o en su defecto, que las características mecánicas del material se mantengan. Con el propósito de demostrar lo anterior se siguieron las normas ASTM D638-ISO527 y ASTM D695-ISO 527 para pruebas de tensión y compresión en plásticos. Para la prueba de tensión se diseñó una probeta de Tipo I acorde a la norma ASTM D638 con dimensiones de 165mmx19mmx7mm y de 13mm en su sección angosta. Para la prueba de compresión se diseñó una probeta cilíndrica de 12.7mm de diámetro y 25.4mm de largo, cumpliendo la norma ASTM D695. Debido a que las impresiones con tecnología FFF son anisotrópicas las normas indican que para cada ensayo se deben utilizar 10 probetas. La anisotropía es la característica que poseen algunos materiales de tener diferentes propiedades según la dirección que se estudia o que es sometida a fuerzas externas, éste último es el caso que corresponde a la impresión 3D con filamento fundido, ya que la diferencia en los ángulos de relleno genera variaciones de las características mecánicas del material. Por ende, para cada ensayo, se plantea imprimir 10 probetas con diferente orientación. Éste arreglo se empleará para comparar una boquilla comercial contra las rediseñadas. En total el experimento consta de 80 probetas para realizar ambas pruebas. Ya que en esta primera etapa de la investigación no fue posible fabricar las boquillas propuestas, se realizó una simulación del comportamiento de las probetas de PLA. Con ello se observó que las probetas a 45° son más resistentes y que una geometría poligonal de salida no supone suficientes variaciones en las propiedades del material. Componentes SMED para el cambio rápido de extrusor Son varias las razones por las que es necesario hacer un cambio de extrusor en los equipos FFF, ya sea por mantenimiento o para reemplazar piezas dañadas sin detener la producción. Se hizo un breve estudio para medir el tiempo que tardan diferentes individuos en realizar esta actividad, encontrándose que en promedio la tarea toma entre 15 y 20 minutos, considerando que el encargado de realizarlo posee conocimientos básicos sobre los equipos y la pieza esta fría para poder manipularla con seguridad. Para reducir el tiempo de la tarea se realizó una propuesta de cambio rápido de extrusor a base de ensambles usando el sistema SMED. Al realizar nuevamente el estudio con el nuevo componente mencionado se probó la disminución del tiempo de la tarea hasta en un 50%. Este componente tendría un impacto en las empresas que se basen únicamente en la manufactura aditiva para la elaboración de sus productos.


CONCLUSIONES

Los primeros resultados de la investigación muestran la posible introducción en el mercado de los productos diseñados. Sin embargo, para las boquillas de distinta geometría es necesario encontrar fabricantes para pasar de las simulaciones a la realización de pruebas. En una segunda etapa se buscará realizar más propuestas de boquillas, hacer estudios a fondo de la estructura molecular de las probetas fabricadas y evaluar los tiempos de fabricación con cada una de las boquillas. Si posterior a las pruebas mencionadas se concluye que las boquillas con diferente geometría mejoran las propiedades del material, se podrá proponer la reducción del uso de soportes favoreciendo el ahorro en los materiales de fabricación y el tiempo de post-procesado. Respecto al componente de cambio rápido, se espera contribuir a la reducción de esfuerzo físico y mental al realizar el cambio.
Gutiérrez Hinojosa Iván, Instituto Politécnico Nacional
Asesor: Dr. Enrique Martínez Franco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

CARACTERIZACIóN DE UN PIRóMETRO OPTRIS CT LASER 2MH1


CARACTERIZACIóN DE UN PIRóMETRO OPTRIS CT LASER 2MH1

Gutiérrez Hinojosa Iván, Instituto Politécnico Nacional. Asesor: Dr. Enrique Martínez Franco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La manufactura aditiva es un proceso donde, en lugar de quitar material, como en la manufactura tradicional, se añade material (normalmente capa por capa), mejorando así las propiedades de la pieza y optimizando el proceso para geometrías complejas.  Uno de los diferentes factores que afectan el resultado final de la manufactura es la temperatura a la que ocurre el proceso, por lo que es necesario monitorearla y estudiarla. Por lo anterior es importante implementar un sensor (pirómetro) para obtener datos de la temperatura, y además, que estos datos tengan la confiabilidad necesaria para poder utilizar dicha información para posteriores aplicaciones.



METODOLOGÍA

Para poder llevar esto a cabo es necesario definir el ambiente que se utilizará para la adquisición de datos. Lo que se pretende hacer en un futuro es desarrollar alguna red neuronal o inteligencia artificial con los datos obtenidos, por lo que se opto por usar un software libre. La adquisición de los datos se baso en el framework ROS por su flexibilidad ya que cuenta con librerías y paquetes que facilitan su implementación.  Lo que se hizo al principio fue introducirse en el ambiente de ROS para poder utilizarlo y adaptarlo a las necesidades. Una vez que se familiarizó se implemento una tarjeta Arduino UNO para la adquisición de datos conectado a ROS por medio de comunicación serial. Para esto se desarrollo un código en lenguaje python para guardar los datos obtenidos en dos archivos que contienen los datos de la lectura y el tiempo en el que se leyó, uno en formato JSON y un archivo de Excel, esto para poder interpretar los datos más fácilmente tanto para lenguaje hombre y máquina. Posteriormente se leyeron los manuales del pirómetro Optris para poder obtener la señal de salida y leerlo con el Arduino. Una vez obteniendo la lectura en el Arduino se realizaron pruebas en un horno con una pieza de Inconel 718 para obtener el valor de la temperatura, la cual tenia un error considerable con respecto a los valores arrojados por el horno. Lo que se pretende hacer en la semana faltante es obtener la lectura con un pirómetro Metis H322 y compararla midiendo aproximadamente en el mismo punto, ya que no tenemos la certeza de que la medición de la temperatura obtenida del horno sea la correcta en la pieza. Posterior a eso se pretende hacer la corrección y calcular la incertidumbre del pirómetro Optris con respecto a la medición del pirómetro Metis.


CONCLUSIONES

La obtención de una lectura correcta en el procesamiento de información es de vital importancia ya que, si no se tiene la exactitud correcta, los resultados obtenidos estarán muy alejados de lo esperado, por lo que se pretende obtener una lectura similar al Metis H322 (incertidumbre del 0.5% de la medición en ºC) con el pirómetro Optris.
Gutierrez Larios Hernan, Universidad de Colima
Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo

EFECTO DE LAS PROPIEDADES FISICOQUíMICAS DE LOS SUELOS EN LA CORROSIóN DE ACEROS DE DUCTOS


EFECTO DE LAS PROPIEDADES FISICOQUíMICAS DE LOS SUELOS EN LA CORROSIóN DE ACEROS DE DUCTOS

Gutierrez Larios Hernan, Universidad de Colima. Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

México es un país petrolero, donde actualmente se cuenta con una extensa red de ductos  con más de 65,000 km. Dicho sistema de tuberías distribuye los hidrocarburos abasteciendo a todos los mexicanos. En esta extensa red de transporte se presentan grandes fallas y pérdidas. Las mayores pérdidas en este sistema se presentan en el robo de combustibles y en las fallas de los ductos por corrosión. Nos enfocaremos  en la corrosión, que un proceso electroquímico que repercute directamente en el área de la ingeniería. Considerando que la corrosión externa en un ducto ya sea sumergido o enterrado, se presenta debido a la interacción de este con el electrolito que lo rodea, el suelo el principal electrolito existente en este proceso, sus propiedades fisicoquímicas como el pH, resistividad, potencial redox y humedad al verse incrementadas o disminuidas afectan directamente al efecto corrosivo en la tubería enterrada. Este cambio de propiedades puede acelerar el proceso o hacerlo más agresivo, por lo tanto, está investigación se centra en el estudio de las propiedades fisicoquímicas de los suelos y su efecto en la corrosión externa de los aceros más usados en el transporte de hidrocarburos (X52, X60 y X70).



METODOLOGÍA

Se realizó una investigación de las características de la corrosión, factores naturales que propician la misma y su comportamiento en ductos enterados. Posteriormente se estudió el sistema de ductos en México, localizando zonas en las que las tuberías tienden a tener mayor cantidad de fallas por corrosión, Minatitlán, Veracruz y Salina Cruz, Oaxaca. En el IMP se diseñó previamente un sistema experimental (con duración total de dos años) que simula las condiciones reales a las que el ducto está expuesto en estas tres grandes zonas. Para un mayor alcance del sistema y tomando en cuenta las fallas ocurridas en zonas específicas se dividieron las dos grandes zonas en tres puntos específicos, Las Matas Ver., Texistepec Ver., y el sitio conocido como Chamizal Oax., en Salina Cruz. Para el desarrollo del sistema experimental se estudiaron las condiciones climáticas de precipitación por mes y se tomaron 300kg de muestras de suelo a 1.5m de profundidad (a la que está expuesta el ducto). Los cupones analizados estuvieron enterrados y monitoreados a diferentes lapsos de tiempo, el registro que se tuvo de estos es a una semana, dos semanas, un mes, dos meses, seis meses, un año y dos años donde la medición de las propiedades fisicoquímicas del suelo como pH, Resistividad, Potencial redox y Humedad se efectuaron durante toda la prueba, obteniendo su comportamiento de manera gráfica. De igual manera para realizar las pruebas se maquinaron cupones (5x5cm) de los tres aceros con el que se fabrican los ductos (X52, X60 y X70). Los cupones fueron enterrados en el suelo que se extrajo y se replicaron las lluvias que suceden de forma natural en el lugar. Los cupones analizados estuvieron monitoreados a diferentes lapsos de tiempo, el registro que se tuvo de estos es a 1  y 2 semanas, 1, 2 y 6 meses, 1 y 2 años. El monitoreo de las propiedades fisicoquímicas del suelo como pH, resistividad, potencial redox y humedad se efectuaron durante toda la prueba, obteniendo su comportamiento de manera gráfica. Los cupones enterrados en los suelos fueron: Las Matas X52 y X60, Texistepec X52, X60 y X70 y Chamizal X52, X60 y X70. Durante la estancia se participó en la limpieza de óxidos de algunos cupones con ácido clorhídrico inhibido (HCl) y por último un baño en alcohol etílico. Se realizaron mediciones de profundidad en las picaduras con calibrador de vernier, clasificando los datos por la parte superior, inferior, suelo y tipo de acero en el que se presentaron. Se realizaron cinco mediciones en cada una de las caras del cupón (inferior y superior) Una vez obtenidos y clasificados los datos de las picaduras se hizo una discriminación de datos enfocándonos solamente en las picaduras más profundas, ya que el ducto tiende a fallar por donde sufre este tipo de corrosión. Por medio de los datos de tiempo y profundidad se determinó la velocidad de corrosión en cada periodo de tiempo, al realizar gráficas de velocidad de corrosión para cada tipo de acero en cada tipo de suelo se pudieron determinar puntos importantes en como la corrosión va en aumento o decremento. Por medio de un ajuste de datos se obtuvo una ecuación para pronosticar velocidades de corrosión en función del tiempo, por  medio de estas poder determinar un periodo de vida útil del ducto cuando se encuentra expuesto a estos suelos altamente corrosivos.


CONCLUSIONES

Durante la estancia de verano de investigación se obtuvieron conocimientos de la industria petrolera, como son: tipos de aceros usados en ductos, hidrocarburos transportados, estadísticas de fallas, etc. Del análisis de resultados experimentales se observó que los cupones presentan una mayor corrosión en la parte inferior, lo cual está relacionado con las propiedades fisicoquímicas del suelo (pH, resistividad, potencial redox y humedad). Se encontró que a mayor resistencia del acero, este sufre un mayor ataque por corrosión. Por lo que el acero recomendado es el X52 en los tres suelos analizados. El comportamiento de la velocidad de corrosión en los aceros expuestos a los suelos  presenta dos comportamientos diferentes dependiendo del tiempo. Es decir, a corto tiempo presenta velocidades de corrosión altas, y a largo tiempo la velocidad de corrosión es más lenta. A partir de los 2 meses la velocidad de corrosión en los cupones decrece y se comporta más estable, esto debido al fenómeno de pasivación (capa de óxidos que se forma en la picadura). A largos periodos de tiempo la velocidad de corrosión decrece, sin embargo se observó que el área corroída crece. La velocidad máxima de corrosión fue de 37mm/año y la mínima de 0.16mm/año. Por medio de un ajuste de datos experimentales de la velocidad de corrosión se obtuvo una ecuación para pronosticar velocidades de corrosión en función del tiempo, por  medio de estas poder determinar un periodo de vida útil del ducto.
Gutierrez Longoria Rafael, Instituto Tecnológico de Matamoros
Asesor: Dr. Leonardo Garrido Luna, Instituto Tecnológico y de Estudios Superiores de Monterrey

DESARROLLO DE UN CHATBOT CON EL USO DE HERRAMIENTAS DE GOOGLE PARA EL APOYO EN ASESORíAS DE ALUMNOS DEL TECNOLóGICO DE MONTERREY


DESARROLLO DE UN CHATBOT CON EL USO DE HERRAMIENTAS DE GOOGLE PARA EL APOYO EN ASESORíAS DE ALUMNOS DEL TECNOLóGICO DE MONTERREY

Gutierrez Longoria Rafael, Instituto Tecnológico de Matamoros. Luna Barrón Sergio Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Leonardo Garrido Luna, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los bots conversacionales poseen una amplia gama de posibilidades a través de la industria y, en los últimos años, se han desarrollado en un ambiente educacional. La habilidad de otorgar respuestas a preguntas específicas para miles de alumnos al mismo tiempo es una manera perfecta de contrarrestar la escasez de profesores o ponentes en escuelas y universidades alrededor del mundo. Estos chatbots son una gran herramienta con un potencial enorme para cursos en línea. El contenido de cada curso varía dependiendo del contenido que se plantea enseñar y el punto de vista del profesor. Nuestra meta fue elaborar un chatbot capaz de responder a preguntas utilizando una base de datos actualizable por el profesor. Utilizamos el Procesamiento de Lenguaje Natural (PLN) de Dialogflow y la base de datos NoSQL Firebase. Para actualizar ambas plataformas, se desarrolló una app web para que cualquier profesor sea capaz de modificar su propio chatbot. Hoy en día, el estudiante moderno tiene la habilidad de tomar notas en una tableta, donde puede insertar fotografías de las presentaciones del profesor, tiene la habilidad de mandarle un correo electrónico o revisar en una plataforma si existe tarea para la semana. A pesar de que estas tecnologías proporcionen al estudiante con respuestas rápidas a lo que busca, la comunicación estudiante-profesor por este medio se vuelve ineficiente al crecer el número de alumnos.



METODOLOGÍA

Se utilizó una plataforma de desarrollo de Chatbot llamada Dialogflow creada por Google en el Laboratorio de Inteligencia Artificial del Tecnológico de Monterrey. Esta plataforma provee una interfaz gráfica que maneja el flujo de un Chatbot en una conversación, utilizando el NLP (Natural Language Processing) por sus siglas en inglés. Se creó un agente en Dialogflow llamado SistemasInteligentes para que analice las señales de entrada y la respuesta del usuario. Los intents utilizados por default sirven para dar inicio a la conversación, mientras que el intent que se realizó con el nombre de preguntas utilizando declaraciones para preguntar acerca de las definiciones de algoritmos, teoremas o leyes dependiendo de la petición del usuario; dentro de estos intents existen parámetros que sirven para emparejar los intents particulares así como el parámetro any que representa un nombre especifico y topic que es el tema de lo que se esta hablando. El Dialogflow es un sistema muy inteligente que gracias a las entities se puede extraer la información útil y necesaria del NLP. Se crearon dos entities una llamada Materias y la otra Topic para que el chatbot pueda entender el contexto en el que se le esta hablando, es decir si un alumno pide hablar de Matemáticas, el chatbot entenderá que se tratará solamente de matemáticas y no otra materia. Una vez configurado el Dialogflow, se instalaron las funciones de firebaseCLI, actions-on- google, y el Nodejs para poder trabajar con el código y pueda el Dialogflow leerlo sin ningún problema. Al haber completado todos estos pasos fue posible hacer el deploy desde nuestro ordenador utilizando el Command Prompt para que pueda sincronizarse a la base de datos. Se utilizó Firebase para el almacenamiento de datos en la nube de Cloudstore, en donde creamos nuestra base de datos agregando una colección con el nombre de Materias, dentro de esta misma se crearon documentos y cada uno se le agregó un nombre de materia diferente. Con estos documentos pudimos crear subcolecciones para que se pueda redirigir el chatbot a un tipo de mensaje especifico dentro de una de las subcolecciones. Por ejemplo, si se quiere saber la definición de un teorema, debe entender que se trata de un contexto matemático, por lo que se encuentra dentro de la colección Materias, en el documento Matematicas y buscara en la subcoleccion la definición del teorema solicitado. Para compilar los códigos se utilizó Visual Code, donde se guardaron los archivos dentro de una carpeta para que el chatbot pueda responder al cliente desde el servidos y no desde Dialogflow. Utilizamos los modulos de nodejs y firebase para realizar las operaciones con el código, además utilizamos métodos específicos para el modelo de datos de Cloudstore. Con estos modelos se puede leer un mensaje dentro de una colección dentro de otra colección en una carpeta.


CONCLUSIONES

Durante la estancia de verano se entendieron los conocimientos teóricos de la Inteligencia Artificial, agentes racionales, entities, intents para poner en práctica las técnicas para el desarrollo de un Chatbot utilizando Dialogflow y una base de datos en Firebase para almacenar la información y que el propio chatbot fuera capaz de comprender y guardar la información con La finalidad de aportar un apoyo a los alumnos del Tecnológico de Monterrey para las tutorías.
Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Gutierrez Salvador Anahi, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

DESARROLLO DE PERFILóMETRO BASADO EN TECNOLOGíAS DE VISIóN ARTIFICIAL.


DESARROLLO DE PERFILóMETRO BASADO EN TECNOLOGíAS DE VISIóN ARTIFICIAL.

Gutierrez Salvador Anahi, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La soldadura laser es el proceso de soldadura más preciso que existe en la actualidad y el que menos calor aporta. Mediante este procedimiento se permite la reparación de todo tipo de útiles, y todo tipo de unión o reparación de soldadura en el que se desee evitar deformaciones. El conocimiento y estudio de los factores geométricos del cordón de soldadura tienen una gran importancia para el diseño y fabricación de piezas a soldar. El establecer parámetros de soldadura como la altura de los cordones puede ayudar en gran medida a la buena calidad de las piezas y a tener el control en su geometría.   La soldadura por medio de láser es la segunda aplicación más extendida del láser en la industria después del corte, registrándose un aumento progresivo de sistemas instalados. El sistema de soldadura láser es similar al de corte necesitando así mismo aporte de gas, pero en este caso, el gas actúa como una atmósfera protectora del material fundido.



METODOLOGÍA

En este documento se presenta la propuesta de proyecto para el desarrollo de un perfilómetro basado en tecnolololgías de visión artificial. Para el desarrollo de dicho perfilómetro, se utilizará el procesamiento de píxeles en imágenes que permitirán determinar la geometría tridimensional de cordones de soldadura. Para la obtención de las secciones transversales de los cordones de soldadura, se tomará información de la proyección de un láser con una inclinación conocida la cual será utilizada para predecir la altura de dichas secciones. Los resultados de este proyecto podrán ser usados para el control de parámetros de proceso y el control de la geometría de estructuras producidas tras la deposición de materiales por distintas técnicas de soldadura. La realización de este proyecto conllevó La realización del diseño del cordón como una guía del cordón real, una vez teniendo este diseño le aplique una máscara en OpenCV con ayuda de python . Lo siguiente que realice fue extraer las medas de la máscara del cordón para así imprimir las medidas exactas medias de la máscara. Una vez obtenido este se realizó el código para lograr obtenerlos para cada punto y así aplicarle distintas fórmulas sencillas para obtener la altura de los cordones de soldadura.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre soldadura con láser, programación en lenguaje python y open cv, así como  ponerlos en práctica con el proyecto que se realizó en estas 7 semanas, sin embargo, al ser un proyecto que requieren conocimientos que aún no adquiero por completo me tomó más tiempo de lo esperado su desarrollo.
Gutierrez Soto Marcos Yehosua, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

IMPLANTACIóN DE UN MAPA DE REALIDAD AUMENTADA ACTIVADA POR MóDULOS QR


IMPLANTACIóN DE UN MAPA DE REALIDAD AUMENTADA ACTIVADA POR MóDULOS QR

Collazo Flores María Teresa, Instituto Politécnico Nacional. Gutierrez Soto Marcos Yehosua, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La Realidad Aumentada es la disciplina que estudia la interacción de elementos virtuales en ambientes reales, uno de los factores importantes es la sinergia entre la información física con la información virtual, mediante un dispositivo o una serie de dispositivos; lo que permite la combinación de elementos físicos con elementos virtuales, adecuados en tiempo real, considerando las necesidades de la aplicación específica, a las condiciones de estos. En la actualidad, la incorporación de interfaces capaces de integrar la Realidad Aumentada es muy robusta y complicada para su implementación. Diversos medios y programas han desarrollado librerías y medios para simplificar su aplicación, dando como resultado una experiencia de desarrollo más eficiente y accesible para este tipo de interfaces, en las cuales se incluye el Framework A- frame, que es una de las herramientas utilizadas en este trabajo de investigación.



METODOLOGÍA

Para la realización de este proyecto, se comenzó aprendiendo e implementando la herramienta de A-frame, que es un Framework de código abierto auxiliar para la realización e implementación de entornos capaces de soportar interfaces de realidad aumentada, así como el lenguaje de marcado HTML el cual implementa el Framework para crear interfaces de realidad aumentada accesibles desde cualquier dispositivo, que cuente con cámara, mediante entornos webs. Posteriormente se escogió una actividad para aplicar lo aprendido y desarrollar un entorno web con Realidad Aumentada, siendo éste un “Mapa de un zoológico interactivo”, el cual consiste en el diseño de un croquis donde se incluyen códigos QR, que son analizados posteriormente por una interfaz web capaz de proyectar el animal o actividad referente a su ubicación real dentro del zoológico.


CONCLUSIONES

De la presente investigación, se ha logrado la obtención de nuevos conocimientos y habilidades sobre interfaces web, realidad aumentada, desarrollo web, entre otros temas que serán provechosos para seguir con nuestra formación como estudiantes e investigadores, así como la obtención de un mapa interactivo funcional que puede ser adecuado e implementado en cualquier zoológico o parque de la república mexicana.
Gutiérrez Trejo Andree Michel, Instituto Politécnico Nacional
Asesor: M.C. Chadwick Carreto Arellano, Instituto Politécnico Nacional

SISTEMA DE CONTROL DE ACCESO BASADO EN TECNOLOGíA NFC Y REDES ZIGBEE


SISTEMA DE CONTROL DE ACCESO BASADO EN TECNOLOGíA NFC Y REDES ZIGBEE

Antonio Lorenzana Fabio Enrique, Instituto Tecnológico de Tláhuac. Gutiérrez Trejo Andree Michel, Instituto Politécnico Nacional. Asesor: M.C. Chadwick Carreto Arellano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente los sistemas de control de acceso que utilizan lectoras de identificadores por radiofrecuencia presentan deficiencias en la relación de datos de usuarios e identificadores en las tarjetas, así como la tecnología utilizada en la interconectividad de nodos que conforman el sistema y la comunicación con el servidor. El almacenamiento de datos de usuario en estos sistemas dependen de componentes adicionales al hardware, como memorias flash y eeprom, las cuales están limitadas por un tiempo de vida útil y generan un mayor costo en el hardware del sistema. La principal problemática en la interconectividad de nodos y servidores, radica en que muchas veces se utilizan medios alámbricos con protocolos de comunicación serial como rs232 y rs485, así como protocolos de ethernet por medio de cable utp y rj45; la desventaja de su uso es, entre otras cosas, el elevado costo de instalación en lugares que no sean tan adaptables y un limitado alcance en la señal de transmisión, además de un alto consumo energético agotando rápidamente el tiempo de operación de las baterías.



METODOLOGÍA

Para el desarrollo de este sistema de control de acceso se adoptó una metodología basada en prototipos, la cual se dividió en varias etapas que van desde el análisis de los diferentes componentes de hardware hasta la implementación de los mismos. Como primera etapa se realizó un análisis de los diferentes microcontroladores ya existentes en el mercado, se determinó la utilización de una tarjeta de prototipado, en este caso arduino uno, la cual nos permite trabajar con diferentes puertos que trabajan con diferentes protocolos de comunicación como UART , SPI, I2C, ONE WIRE, entre otros, los cuales se pueden implementar a nivel de hardware y software y se adaptan a los diferentes módulos o transceptores implementados en el sistema. En la siguiente etapa se realizó un análisis para la selección del módulo lector de nfc, en este caso el lector pn532 el cual permite trabajar con tarjetas que cumplen los requerimientos de la norma ISO14443A, por lo que se determinó trabajar tarjetas de tipo NTAG en su versión 215, ya que el mapa de memoria permite un fácil manejo de la información en funciones de entrada y salida, así como el resguardo de esta. Este lector trabaja con una alimentación standard de 3.3v pero en su versión extendida puede trabar con hasta 5v, por otro lado permite trabajar con dos protocolos para su comunicación con el microcontrolador los cuales son SPI e I2C. En la siguiente etapa se trabajó la codificación para las funciones de escritura y lectura de las tarjetas ntag 215 en el microcontrolador, definiendo así los registros de memoria correspondientes a los datos de usuario requeridos para la autenticación del control de acceso evitando la implementación de memorias externas aumentando la eficiencia en el flujo y manejo de datos. En la siguiente etapa se realizó el análisis para la implementación de tecnologías inalámbricas de bajo consumo energético enfocadas a la interconectividad de nodos y la comunicación con el servidor. Para esta implementación se utilizó un protocolo de comunicación basada en el estándar de la IEEE 802.15.4, ideal para tasas de transmisión bajas para sistemas de monitoreo y control de sensores industriales. Este protocolo es conocido como zigbee, el cual permite implementar redes con diferentes topologías como son la topología estrella, malla y árbol. Se realizó la codificación y estructuración de las tramas correspondientes para el control de este sistema complementando las funciones previamente establecidas en el microcontrolador . En la última etapa se realiza el análisis para la implementación del servidor en el cual se almacenó la base de datos del sistema. Este servidor está establecido en un framework basado en phyton llamado django, el cual trabaja a través de urls con funciones http para inversiones y consulta de datos y con servicios web de tipo rest. En este framework se hizo una migración de una base de datos creada con el motor de María db. Culminando así con la conjunción de todas las etapas del prototipo generando un prototipo final controlando actuadores mediante elevadores conectados al microcontrolador de acuerdo a la funciones correspondientes al control de acceso.


CONCLUSIONES

En la culminación del proyecto se pudo obtener un sistema de control de acceso funcional y eficiente el cual está próximo a ser implementado en la Unidad Politécnica de Educación Virtual, lo cual permitirá obtener un control total en el flujo de personal y garantizar la seguridad en las instalaciones utilizando tecnologías innovadoras y eficientes en consumo energético y manejo de datos.
Gutiérrez Vargas Maira Aideé, Instituto Politécnico Nacional
Asesor: Mtro. Ana Bertha Pimentel Aguilar, Instituto Nacional de Enfermedades Respiratorias Ismael Cosío Villegas

GENERACIóN DE INDICADORES PARA EL ANáLISIS DE LA DISPONIBILIDAD DE RECURSOS Y PRODUCTIVIDAD DEL EQUIPO MéDICO DEL INER.


GENERACIóN DE INDICADORES PARA EL ANáLISIS DE LA DISPONIBILIDAD DE RECURSOS Y PRODUCTIVIDAD DEL EQUIPO MéDICO DEL INER.

Gutiérrez Vargas Maira Aideé, Instituto Politécnico Nacional. Asesor: Mtro. Ana Bertha Pimentel Aguilar, Instituto Nacional de Enfermedades Respiratorias Ismael Cosío Villegas



PLANTEAMIENTO DEL PROBLEMA

Al paso de los años, la tecnología toma cada vez un papel más importante dentro del área médica, hoy en día, la utilización de equipos médicos es imprescindible en un establecimiento de salud para poder brindar casi cualquier servicio, en especial, cuando se trata de una institución de alta especialidad como lo es el "Instituto Nacional de Enfermedades Respiratorias Ismael Cosío Villegas", la demanda de los mencionados servicios genera la necesidad por parte del Sector Salud de obtener información respecto a la disponibilidad, incluyendo la tecnología requerida para brindarlos; es por ello que el Departamento de Ingeniería Biomédica como responsable de los equipos médicos se ve obligado a contar con datos que permitan cuantificar de manera oportuna la disponibilidad de la tecnología biomédica a través de la consideración de variables que puedan interrumpir a la misma, motivo por el cual, se buscó la creación de indicadores representativos basados en los servicios que se proporcionan cotidianamente y la propia experiencia del personal dentro del Instituto, permitiéndonos realizar el análisis de la disponibilidad de los equipos médicos, a través de una propuesta metodológica que englobara las variables más influyentes en la mencionada característica de los equipos y por tanto en la repercusión que éstas pudieran tener en la manera en la que el servicio es otorgado, encontrando así oportunidades puntuales de mejora.



METODOLOGÍA

Se realizó una búsqueda bibliográfica de evaluación de la productividad y la disponibilidad del equipo médico, además de los conceptos necesarios para el desarrollo de la investigación, posteriormente se definió el equipo médico a analizar y se clasificó de acuerdo a la dinámica bajo la que son utilizados dentro del hospital para otorgar el servicio correspondiente. Se establecieron variables necesarias para la realización de los indicadores por equipo, que nos permitirían desarrollar el análisis correspondiente, seguido a ello llevamos a cabo una investigación de campo dentro del Instituto con el fin de recolectar los datos necesarios a través de registros y experiencia del propio personal, para éste punto fueron seleccionadas cuatro áreas del Instituto como prueba: Urgencias, Imagenología, Terapia Intensiva, Medicina Nuclear y el servicio de Inhaloterapia. Procedimos a efectuar el uso de los indicadores, verificando la funcionalidad de los mismos con datos reales y se corrigiendo los que fueron discrepantes. A la par, se desarrolló una interfaz en Excel para la obtención automática de los indicadores. Finalmente se realizó el tratamiento de datos obtenidos que serían ingresados a la interfaz para continuar con el análisis de los indicadores obtenidos y finalmente realizar las conclusiones correspondientes por equipo.


CONCLUSIONES

De acuerdo a los resultados obtenidos y de manera general: Se encontró diferencia entre la Disponibilidad calculada en la bibliografía y la Disponibilidad Máxima Propuesta para la tecnología biomédica analizada con la que cuenta el Instituto Nacional de Enfermedades Respiratorias.  La variación entre la Disponibilidad Máxima Propuesta presenta una diferencia significativa respecto a la disponibilidad real que se presenta en el instituto, influenciada mayormente por la cantidad de personal con la que se cuenta para operar el equipo médico. Se considera importante trabajar de la mano con los usuarios directos de la tecnología biomédica para el análisis e interpretación de los indicadores, específicamente para los resultados de productividad, puesto que por la dinámica bajo la que trabajan algunos equipos médicos es requisito comprender la función que éstos tienen dentro de los departamentos, es decir, existen equipos en los cuales por la naturaleza del servicio que brindan y su propia demanda no se espera un alto valor de productividad. Es necesario para futuros trabajos el análisis de demanda de pacientes y ver hasta qué punto es pertinente aumentar la productividad sin afectar la disponibilidad de los equipos con los que se cuenta. 
Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

DESARROLLO DE UN AMBIENTE DE REALIDAD VIRTUAL PARA UNA MICRO RED


DESARROLLO DE UN AMBIENTE DE REALIDAD VIRTUAL PARA UNA MICRO RED

Gutiérrez Zazueta Héctor Manuel, Instituto Tecnológico de Culiacán. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Desde su creación el Grupo de Realidad Virtual del INEEL ha venido desarrollando diferentes proyectos. Pero ninguno recrea el ambiente virtual de una REI, la cual puede tener diferentes usos.  La representación virtual de una micro red es el paso inicial hacia una REI y el INEEL requiere de este tipo de infraestructura.



METODOLOGÍA

Una micro red es un sistema de generación eléctrica bidireccional que permite la distribución de electricidad desde los proveedores hasta los consumidores, utilizando tecnología digital y favoreciendo la integración de las fuentes de generación de origen renovable, con el objetivo de ahorrar energía, reducir costes e incrementar la fiabilidad. Iniciamos el proyecto realizando algunas reuniones con expertos sobre los temas que se requerían para la realización de la simulación de la micro red, como, por ejemplo, con un experto en turbinas eólicas, trabajadores especializados en desarrollo de proyectos en Unity y modelado 3D. Una vez que tuvimos la información y conocimientos fundamentales, se inició el trabajo de modelado en 3D para los componentes que necesitaríamos para el proyecto. En paralelo, se continuó investigando sobre el funcionamiento de los módulos fotovoltaicos, y así, poder crear una buena simulación de estos dentro del proyecto. Al finalizar la creación los modelos en 3D, se hizo una optimización de los mismos para reducir el almacenamiento y reducir las afectaciones del rendimiento de la simulación. Ya que tuvimos los modelos 3D terminados y optimizados, procedimos a empezar la creación del ambiente en el que se encuentra la micro red (tomando como referencia una micro red que ya se encuentra instalada en Puertecitos, Baja California, México). Para esto, primero se recabó información sobre cómo obtener el terreno real a través de curvas de nivel dada una ubicación geográfica utilizando mapas satelitales online. Esto permitió recrear dentro de Unity una aproximación muy cercana al terreno real del caso de estudio. Proseguimos recreando la comunidad que se encuentra en dicho lugar, incluyendo la costa, el mar, los hogares y las calles que se encuentran ahí por medio de fotografías y mapas satelitales. De igual manera, incluimos la simulación del ciclo diurno y una generación aleatoria de nubes para incrementar el realismo de la simulación de energía solar. Adicionalmente, se implementó un controlador con el que se puede manipular la velocidad del viento, la cual a su vez afecta a la generación de energía eólica y la velocidad con que pasa el día. Cabe señalar, que la generación de energía eólica corresponde a la línea de potencia del aerogenerador. Una vez concluida el ambiente de la comunidad, iniciamos con la creación de la micro red, comenzando por delimitar la zona en la que se encuentra esta misma. Se colocó el arreglo de módulos fotovoltaicos y el aerogenerador que componen la fuente de energía principal, también la caseta en donde se encuentra el banco de baterías del arreglo fotovoltaico, y una pantalla en donde se puede acceder a una gráfica que muestra la generación de energía renovable producida por la micro red en tiempo real. Además, el simulador cuenta con un tutorial que ayuda a los usuarios a aprender los conceptos básicos acerca de la micro red, así como las acciones que se pueden realizar dentro del ambiente virtual. En un futuro, se quiere crear un ambiente de sandbox (ambiente donde el jugador tiene la capacidad de crear, modificar o destruir su entorno) para poder crear y modificar micro redes en cualquier parte de una zona territorial, implementando una opción para seleccionar un lugar por medio de un mapa satelital y exportar dicho terreno dentro del ambiente de desarrollo de manera. De esta manera, se podrá crear micro redes con los modelos que se necesiten, en los lugares que se requieran. Así mismo, se podrá tomar en cuenta el presupuesto que la instalación de la micro red necesitará.


CONCLUSIONES

Durante la estancia de verano que llevé a cabo en el Instituto Nacional de Electricidad y Energías Limpias, adquirí conocimientos sobre el ambiente de desarrollo Unity, ya que, hasta el momento que comencé a trabajar en este proyecto, no tenía conocimiento alguno sobre dicho motor de desarrollo. También, pude aprender acerca del funcionamiento que tiene una micro red, partes que la conforman y como interactúan entre sí estas mismas. Tuve de igual manera, la oportunidad de aprender conocimientos básicos sobre la tecnología Leap Motion, la cual sirve para rastrear los movimientos de la(s) mano(s) para simularlos dentro de Unity.
Guzman Arias Terecita de Jesus, Universidad Autónoma de Guerrero
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

CARACTERIZACIóN DE MEMBRANAS DE FILTRADO A PARTIR DE SARGAZO.


CARACTERIZACIóN DE MEMBRANAS DE FILTRADO A PARTIR DE SARGAZO.

Guzman Arias Terecita de Jesus, Universidad Autónoma de Guerrero. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El sargazo pelágico sustenta un ecosistema diverso en el océano abierto, en el que habitan especies como tortugas marinas, peces, invertebrados y aves, y funciona como sitios de reproducción y crianza para muchos organismos, algunos de importancia comercialización. Históricamente, la distribución del sargazo pelágico, compuesto de las especies Sargassum natans y Sargassum fluitans, se ha centrado en el Mar de los Sargazos.  Ocasionalmente, las masas de sargazo flotan a través de los pasos que hay al norte del Caribe y migran hacia el oeste, y algunas algas, en cantidad menor, llegan a las islas localizadas al este y oeste del Caribe y a la parte este de la península de Yucatán. La gran cantidad de sargazo pelágico en el Caribe se ha atribuido al alto contenido de nutrientes de esta agua, y posiblemente la eutrofización de aguas costeras caribeñas también aporto al incremento de biomasa algal. Con la ausencia de tratamiento, las aguas negras son por lo general vertidas en aguas superficiales, creando un riesgo obvio para la salud humana, la ecología y los animales. En Latinoamérica, muchas corrientes son receptoras de descargas directas de residuos domésticos e industriales. Para mejorar las condiciones de salud y saneamiento en las regiones en vías de desarrollo, se necesitan plantas de tratamiento eficientes para el manejo de agua potable y aguas residuales.  Sin embargo, dichos esfuerzos requieren inversiones sustanciales de capital.  El manejo efectivo de aguas residuales debe dar como resultado un efluente ya sea reciclado o reusable, o uno que pueda ser descargado de manera segura en el medio ambiente. El reusó de aguas residuales es una opción válida para el desecho, donde el medio ambiente puede filtrar efectivamente las corrientes de residuos moderadamente tratados. La minimización del ingreso de residuos peligrosos generados por procesos industriales (como, metales pesados) a las plantas municipales de tratamiento, es algo clave para reducir los efectos tóxicos de estos efluentes, muchos de los cuales no pueden ser eliminados a través de procesos convencionales de tratamiento, en consecuencia el sector productivo que trabaja con metales pesados sigue generando descargas acuosas de desecho altamente contaminantes. Las alternativas para las operaciones de tratamiento de aguas residuales hechas por el hombre involucran cierto número de tratamientos naturales. Como es el caso de un bioflitro a partir de este producto órgano que es el sargazo e influir en de aguas residuales parcialmente tratadas también puede utilizarse para recargar los acuíferos subterráneos, donde el suelo actúa como filtro natural, eliminando los contaminantes. Por lo anterior la presente demanda específica tiene como objetivo contribuir con parte de las acciones emprendidas por el gobierno federal, por lo que mediante investigación y desarrollo tecnológico realizado en México, se generen soluciones y alternativas considerando que será un evento recurrente, de los problemas ecológicos y ambientales ocasionados por el arribazón masivo de sargazo pelágico a las playas del Caribe Mexicano y las acciones para reducir el efecto de este fenómeno. Además, proponemos acciones para mitigar el impacto de la afluencia masiva de sargazo en caso de que esto se convirtiera en un evento recurrente, por ello como alternativa de solución es implementar una membrana de filtración para dichas aguas residuales con ayuda del sargazo.



METODOLOGÍA

La investigación se realizó en el laboratorio de Bio-materiales Aplicados del Centro de Física y Aplicada y Tecnología Avanzada (CEFATA)  de la Universidad Autónoma de México, (UNAM., Campus Juriquilla) La muestra utilizada del sargazo pelágico del género  Sargassum como materia prima, ya se encontraba bajo condiciones naturales de humedad y recolecta en dicho laboratorio; fue enviada por parte de colaboradores de la península de Yucatán. Posteriormente, se utilizó 900 gramos de sargazo que  se sometió a un proceso de lavado con agua de grifo donde se le extrajeron, materia biológica extrañan  ala macro-alga como: restos de plásticos, arena de playa, corales y moluscos. Se continuo con un secado en instalaciones ventiladas  a temperatura ambiente (14°C) y tardo en aproximadamente de 2 a 3 días para estar completamente seco.  Después de haberse sometido a estos procesos,  se volvió a medir, obteniendo una masa de 735 gramos de sargazo. Posterior a esto, para ser la simulación de un componente de aguas residuales, se realizó unas diluciones a diferentes concentraciones de arsénico, que fueron de 200 ppm a 5ppm, todas se aforaron a 5 mililitros para ser analizadas en un espectro de  MAPADA UV-1600 PC en un intervalo de uno a uno y de 200 a 900 nanómetros para ser representados en la pc y obtener una curva de calibración. Para ser el modelo del filtrado, se utilizó un balde de plástico de aproximadamente 3 litros de capacidad, bombas sumergible de pecera BPS-4061, mangueras transparente, tubos refrigerantes de vidrio. Donde se vertió la solución de mayor concentración del arsénico de 200ppm en este caso. Y los tubos refrigerantes se añadieron 180 gramos de  sargazo para que cumpliera la función de un biofiltro. El proceso de la simulación del filtrado duro 8 horas en donde la primera hora, se tomaron alícuotas cada 15 minutos de 3 mililitros cada una, en la segunda hora, cada 30 minutos y consecutivamente cada hora. Y cada muestra se analizó en el espectro entre los rangos de 350 a 500 nanómetros teniendo como resultado una curva de calibración donde fueron analizados los datos de varianza y comparación  mediante la prueba tukey utilizando el programa INFOSTAT (2018).


CONCLUSIONES

La realización de la simulación del aguas residuales con el arsénico a diferentes concentraciones, contribuirá a la caracterización del biofiltro a través de sargazo  a ser un sistema de filtrado de aguas residuales ya que se destacó por su alta afinidad de absorción para así ayudar al medio ambiente a través de sus porosidades biológicas. Además, se pretende dar a conocer el sargazo como materia biológica al ayudar a ser un biofiltro para agua residuales y también su comparación con otros filtros comerciales.  
Guzmán Castro Ericka Nayeli, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

TRATAMIENTO DE AGUA GRIS SINTÉTICA EN COLUMNAS VERTICALES A BASE DE DIFERENTES GRANULOMETRÍAS DE TEZONTLE Y ARENILLA EN LA UNIVERSIDAD AUTÓNOMA DE QUERÉTARO


TRATAMIENTO DE AGUA GRIS SINTÉTICA EN COLUMNAS VERTICALES A BASE DE DIFERENTES GRANULOMETRÍAS DE TEZONTLE Y ARENILLA EN LA UNIVERSIDAD AUTÓNOMA DE QUERÉTARO

Guzmán Castro Ericka Nayeli, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente en el estado de Querétaro se vive una problemática con el tema del agua debido a que la mayor parte de ella se obtiene por medio de la perforación de pozos, siendo insuficiente para poder abastecer a la mayor parte de la población. En la Universidad Autónoma de Querétaro se busca dar soluciones a este tipo de problemáticas implementado proyectos que favorezcan a la misma. En este caso se propuso este proyecto que consiste en tratar aguas residuales en biofiltros compuestos por columnas verticales a base de diferentes granulometrías de tezontle y arenilla y así poder analizar la eficiencia de cada uno.



METODOLOGÍA

De acuerdo al autor (Gross, 2007) en su artículo Removal of chemical and microbiological contaminants from domestic greywater using a recycled vertical flow biorreactor propone una manera obtener agua sintética de modo que la planta logre obtener los nutrientes necesarios para sobrevivir, adaptarse y desarrollarse, para 10 litros de agua se le agrega: 10 ml de agua residual, 0.32g de jabón en polvo, 2 ml de shampoo, 2 gotas de aceite y 10 L de agua de la llave. Las columnas están conformadas por un tubo de PVC con aproximadamente 22 cm de profundidad más 4 cm de una pastilla hecha con material de arenilla más una base de PVC de 4 cm aproximadamente perforada para que el agua logre tener salida y que además sirve como soporte para la columna. Las columnas están conformadas por un tubo de PVC con aproximadamente 22 cm de profundidad más 4 cm de una pastilla hecha con material de arenilla más una base de PVC de 4 cm aproximadamente perforada para que el agua logre tener salida y que además sirve como soporte para la columna. El Tezontle es una roca volcánica, constituida principalmente por Bióxido de hierro; tiene una textura porosa y una densidad de entre 1. 2 y 1.6 g/cms. Su color es usualmente rojo anaranjado y negro, pudiendo encontrarse también en algunas variedades de amarillo rojizo. Recientemente es utilizado para jardinería ya que ayuda a conservar la humedad de las plantas al momento de regarlas. El filtro más ampliamente usado para remover sólidos suspendidos es el filtro de grava y arena y se le llama así precisamente porque es un lecho de grava y arena el que retiene las partículas suspendidas en el agua. El mecanismo de remoción de estos sólidos es de diferente naturaleza. En el proceso intervienen fuerzas de cohesión entre el material formado y las partículas en suspensión, aunque también se manifiestan fuerzas de atracción electrostática del tipo de fuerzas de London y de Van Der Waals. Al tener esta información sobre los suelos el objetivo de utilizarlos en el biofiltro es analizar la eficiencia que tiene para tratar el agua sintética a la entrada tomando en cuenta parámetros que establece la NOM-127-SSA1-1994 y la NOM-003-SEMARNAT-1997 entre ellos pH, color, turbidez y sólidos totales. Llevándolo a cabo estos biofiltros en columnas verticales fabricadas con PVC.


CONCLUSIONES

Durante la estancia de verano se logró tener conocimiento teórico y práctico  acerca del comportamiento de aguas grises tratadas mediante columnas verticales, así como también aprender la importancia de colocar el suelo por medidas, cabe mencionar que, aunque los resultados que se obtuvieron no fueron los esperados y que el tiempo te experimentación no fue el suficiente, se propone experimentar con diferentes granulometrías de tezontle y arenilla hasta encontrar aquella que logre sanear el agua de entrada y devolverla al medio ambiente con una mejor calidad.
Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Guzmán López Jennifer Vanessa, Instituto Tecnológico Superior de Apatzingán
Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan

ANÁLISIS DEL PROCESO DE MOLDEO MEDIANTE LA METODOLOGÍA DMAIC CON ENFOQUE EN MANUFACTURA ESBELTA.


ANÁLISIS DEL PROCESO DE MOLDEO MEDIANTE LA METODOLOGÍA DMAIC CON ENFOQUE EN MANUFACTURA ESBELTA.

Coria Diaz Marco Antonio, Instituto Tecnológico Superior de Apatzingán. Guzmán López Jennifer Vanessa, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtro. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

En el proceso de moldeo de la empresa Artifibras S. A. de C. V., se tiene la necesidad de conocer los elementos que disminuyen el grado de operatividad en las líneas de producción, por otra parte, se han presentado errores de calidad, reprocesos, flujo de información ineficiente, tiempos muertos y entregas tardías de producto terminado y en proceso.



METODOLOGÍA

Este proyecto se realiza con la finalidad de atacar los principales problemas que tiene el proceso de moldeo de la empresa ARTIFIBRAS S.A. DE C.V. mediante la implementación de la metodología DMAIC con la aplicación de una serie de herramientas pertenecientes a Lean Manufacturing. DMAIC: Es una metodología de calidad basada en herramientas estadísticas. Cada paso en la metodología se enfoca en obtener los mejores resultados posibles para minimizar la posibilidad de error. Está conformada por las siguientes fases o etapas: Definir, Medir, Analizar, Improve (Mejorar) y Controlar. Para la implementación de la metodología DMAIC se utilizó una herramienta específica de Lean Manufacturing en cada etapa o fase: Definir - Mapa de procesos (Análisis SIPOC) Medir - Diagrama de Pareto Analizar - AMEF Improve (Mejorar) - Kaizen Controlar - Estandarización de procesos


CONCLUSIONES

En esta estancia de verano logramos obtener conocimientos teóricos de índole industrial, como lo son las distintas herramientas pertenecientes a la filosofía Lean Manufacturing (Mapas de procesos, Benchmarking, diagrama de Pareto, filosofía Kaizen, 5 S´s, AMEF, pruebas de hipótesis, estandarización de procesos, entre otras…) Como ya se mencionó anteriormente 5 de estas herramientas fueron aplicadas de manera práctica dentro de la metodología DMAIC. A continuación se presenta a grandes rasgos lo que se encontró con cada una de las herramientas utilizadas en cada fase: En la primera fase con la ayuda del Análisis SIPOC, se logró definir el alcance y las metas del proyecto de mejora, además de permitirnos conocer a fondo el proceso de moldeo. En la segunda fase se realizó la caracterización de cada uno de los procesos productivos y se registró información importante a través de 2 formatos utilizados en la recolección de datos (Análisis del proceso de molde y Entrevista al personal), también se utilizó el diagrama de Pareto con la finalidad de medir y separar gráficamente los aspectos significativos de un problema. En la tercera fase se determinaron las potenciales causas raíz de los problemas detectados con la elaboración del AMEF de proceso. En la cuarta fase se utilizó la filosofía Kaizen, con ella se logró proyectar sugerencias o propuestas de mejora para solucionar las causas raíz de los distintos problemas que tiene la empresa. Para la quinta y última fase se identificó la documentación del sistema de calidad a ser modificado con las mejoras propuestas y que así pueda quedar estandarizado el método de trabajo. También se sugirieron ideas de rediseño, corrección o actualización de los instructivos que se usan para realizar las distintas operaciones del proceso de moldeo. Esperamos que las propuestas de mejora para la empresa tengan resultados satisfactorios en el futuro, ya que es un trabajo extenso que requiere de la aprobación de los directivos de la empresa para poder llevar a cabo las propuestas y con ello obtener resultados.
Guzman Maldonado Brenda, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO.


MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO.

Guzman Maldonado Brenda, Instituto Tecnológico de Estudios Superiores de Zamora. Ruiz Nava Fabiola Maricela, Instituto Tecnológico de Colima. Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Logística Humanitaria es aquella encargada del proceso de planificación, implementación y distribución efectiva y eficiente de los flujos de productos después de la ocurrencia de un desastre, el cual es un evento repentino y calamitorio que altera gravemente el funcionamiento de una comunidad y que causa pérdidas humanas, en otras palabras, un desastre es la incapacidad de la sociedad para adaptarse a un evento. En México nos hemos enfrentado a diferentes desastres, quizá el más impactante en tiempos recientes sea el sismo del 19 de septiembre de 2017, con una magnitud de 7.1 Mw, que impacto a diferentes zonas del país dejando un saldo de 369 personas fallecidas en el centro del país y cientos de damnificados. Uno de los organismos involucrados en la ayuda humanitaria al momento de que una catástrofe azota el país es el Banco de Alimentos de México (BAMX), que es una organización civil mexicana sin fines de lucro, cofundadora y miembro de Global FoodBanking Network (GFN). Mismo que cuenta con más de 50 bancos de alimentos distribuidos en todo el país, BAMX es la única red de bancos de alimentos en México y la segunda más grande del mundo. BAMX se enfoca en rescatar alimentos que están en riesgo de ser desperdiciados por industrias, campos, centros de abastecimiento, supermercados, restaurantes y hoteles, mismos que son distribuidos a zonas donde la adquisición de alimentos es complicada debido a la falta de recurso. Cuando surge un desastre BAMX se une a los esfuerzos de la sociedad mexicana para apoyar las actividades de distribución de socorro en las comunidades afectadas. Esto a menudo requiere cambios urgentes en la planificación operativa ya establecida por cada banco individual, problemática a que se espera dar solución en este proyecto a través de un modelo matemático que represente la asignación óptima de los recursos en cualquier escenario de catástrofe.



METODOLOGÍA

Se comenzó realizando una revisión bibliográfica de la literatura relacionada con la logística humanitaria, utilizando bibliotecas de artículos como Scopus y ScienceDirect, a las cuales se accedió gracias a la licencia proporcionada por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tras la lectura y análisis de varios documentos, se realizó un cuadro comparativo, éste con la finalidad de tener una relación más práctica y así poder identificar lo que se ha hecho en investigación sobre transporte y asignación de recursos en situaciones de desastre desde el 2014 a la actualidad. Culminada la revisión bibliográfica se siguió con los modelos matemáticos, en donde para comenzar se vio una breve introducción sobre la estructura de los mismos, cómo introducir sus variables, parámetros, conjuntos, función objetivo y restricciones, así como el nombre de los softwares que se tomarán en cuenta para la resolución de dichos modelos matemáticos. Se instaló la licencia y ejecutador para utilizar el lenguaje AMPL e iniciamos el análisis de la sintaxis de ese lenguaje de programación, teniendo una idea clara de cómo se utiliza ese lenguaje se procedió a realizar la codificación de dos modelos matemáticos, así como la programación de instancias útiles para los diferentes escenarios, en donde el primero fue un modelo básico de asignación y transporte, pero el segundo era una versión del modelo desarrollado para solucionar el problema de la investigación, es decir, un modelo de transporte en situación de emergencia para los Bancos de Alimentos de México. Una vez entendida la estructura de la programación en AMPL instalamos un software llamado Anaconda Distribution para la administración del lenguaje Python, además de instalar la licencia y software de Gurobi, el cual funciona como solucionador y tiene funciones especiales para el tipo de modelación matemática con el que se trabajó en el verano. Dentro de las últimas actividades se programaron los modelos mencionados anteriormente, pero ahora utilizando el lenguaje de Python y Gurobi, para ambos se generaron instancias diferentes donde el objetivo del software era la solución de las mismas.


CONCLUSIONES

Durante la estancia se adquirieron conocimientos teórico prácticos sobre logística humanitaria y modelos matemáticos para dar solución a problemas de dicha área, a través de revisión bibliográfica y de aprendizaje sobre diferentes lenguajes de programación, como AMPL, Python y Gurobi, logramos cumplir los objetivos del verano de investigación. Debido a lo extenso del proyecto, este aún está en la fase de desarrollo y no sería posible mostrar resultados, sin embargo, se espera obtener un modelo óptimo que cubra los diferentes escenarios de desastre para minimizar el tiempo de intervención y el sufrimiento humano mediante la pronta asignación de recursos en los Bancos de alimentos de México.
Guzman Miranda Isabel, Universidad Autónoma de Baja California
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG


DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG

Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Guzman Miranda Isabel, Universidad Autónoma de Baja California. Thuiran Vergara Elvis Jose, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La movilidad es la actividad que la mayoría de las personas realizamos para trasladarnos de un lugar a otro, ya sea de la casa al trabajo o a la escuela y viceversa. Además, la movilidad es uno de los aspectos fundamentales para el desarrollo de las ciudades. La Zona Metropolitana de Guadalajara (ZMG) atraviesa un grave problema de movilidad que es traducido como un congestionamiento vial crónico, según refiere el Reporte Nacional de Movilidad Urbana en México 2014- 2015. Estadísticas indican que las personas invierten 33 horas aproximadamente durante el año demorados por el tráfico. Según el INEGI hasta 2017 existían 4,173 unidades registradas. Los ciudadanos que usan el transporte público se encuentran en constante preocupación debido a la pérdida de tiempo que lleva esperar entre ruta y ruta. En muchos de los casos durante el tiempo de espera, se presentan asaltos. El mayor problema que se presenta en la actividad de movilidad es que la mayoría de las personas esperan alrededor de 15 a 20 minutos en esperar su ruta, lo cual les genera un retraso en sus actividades diarias, generando estrés, preocupación a las personas.



METODOLOGÍA

Se utilizó Android Studio para desarrollar una aplicación móvil llamada IoBus para poder resolver la anterior problemática. IoBus, es una APP (actualmente para Android) que, entrega en tiempo real la ubicación de la ruta deseada. Las actividades seguidas para el desarrollo de la app IoBUS, fueron las siguientes: Como primera actividad, se realizó la lectura y desarrollo de actividades para la comprensión y el manejo del entorno de Android Studio. En esta actividad se desarrolló la primera app, la cual fue un juego didáctico. Al finalizar esta actividad se tenía el conocimiento de las herramientas básicas de desarrollo de Android Studio. Siguiendo con la asignación de los módulos que componen IoBUS, se desarrolló la interfaz para el registro e inicio de sesión de usuarios, y se realizó la lectura de JSON y headers en http. Continuando con el desarrollo del módulo Dashbard para el chofer y creación de dispositivos IoT, y con la consulta sobre bases de datos SQLiTe. Posteriormente se implementó las funciones de registro de usuarios, de eliminar y de mostrar dispositivos conectados. Por último, se hizo la conexión a una API, con ello se ejecutó a prueba de errores y se hizo la corrección de los errores producidos.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir diversos conocimientos enfocados a la programación orientada a objetos, uno de ellos fue a utilizar el IDE de Android Studio, el cual es el entorno de desarrollo integrado oficial para la plataforma Android. Fue un software nuevo para todos los integrantes del equipo ya que nunca habíamos utilizado esta plataforma de desarrollo, pero gracias al apoyo de nuestros asesores pudimos interactuar y desarrollar una aplicación funcional la cual permitió obtener rutas, así como registrar usuarios. Aprendimos a consumir servicios de una API de google Maps la cual nos permitió visualizar los datos que los usuarios van a utilizar para poder observar la ruta del transporte. Además, nos permite crear mapas de manera muy sencilla y rápida. Se utilizó esta API para crear una aplicación móvil llamada IOBus, que también fue creada con código nativo para Apple.   Interactuamos con la parte del desarrollo de la aplicación de IOBus en Xcode, con el fin de que pudiera ser ejecutable en un sistema operativo iOS, se vio la parte del desarrollo de interfaces con esta herramienta, y se nos hizo muy práctica ya que el lenguaje es de alto nivel, y ofrece a los desarrolladores todo lo necesario para crear aplicaciones para Mac, iPad y iPhone, de una forma muy sencilla.   Además, tuvimos la oportunidad de conocer Flutter que es un framework mobile de Google que se utiliza para crear interfaces, pero esta utiliza una versión Cross-Platform, la cual permite el desarrollo de aplicaciones nativas de alta calidad en iOs y Android en un tiempo record. Nos facilitó el trabajo a comparación con las otras dos plataformas, es una un framework que se ha utilizado por desarrolladores, es gratuito y con código abierto.   Esta estancia nos sirvió mucho, pues nosotros desconocíamos por completo el mundo de desarrollo de aplicaciones móviles. Ahora nos han abierto más el interés por implementar nuevos métodos y estrategias en el área de la tecnología y un mayor interés por el área del desarrollo de nuevas tecnologías. Asimismo, agradecemos al programa Delfín y a nuestros asesores, puesto que gracias a ellos hemos tenido la oportunidad de crecer como personas adquiriendo experiencias y nuevos conocimientos.
Guzmán Rodríguez Macarena, Universidad Autónoma de Tamaulipas
Asesor: Dr. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas

INNOVACIÓN EN EL MANEJO Y GESTIÓN DE ALMACENES Y CENTROS DE DISTRIBUCIÓN.


INNOVACIÓN EN EL MANEJO Y GESTIÓN DE ALMACENES Y CENTROS DE DISTRIBUCIÓN.

Guzmán Rodríguez Macarena, Universidad Autónoma de Tamaulipas. Asesor: Dr. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Uno de los principales problemas en los almacenes o centros de distribución es el uso inadecuado de las áreas destinadas para el manejo de las ordenes que han sido ya terminadas y materias primas en el Centro de Distribución. Es necesario hacer una descripción de nuestro centro de distribución y de los procesos que se realizan, identificando objetivos que tienen que ser claros, las entradas y las salidas y las actividades que se hacen dentro del centro de distribución para identificar en que área o proceso es donde está surgiendo el problema y poder encontrar una solución. Es necesario realizar una planeación para entender la problemática, al igual que encontrar los factores necesarios. Se hará también un análisis y se utilizara el software Arena para analizar el proceso de las operaciones y poder verlo de una forma más real y poder tener variedad de decisiones estratégicas y poder encontrar una solución a la problemática que se ha encontrado en el CEDI.



METODOLOGÍA

Para esta investigación se utilizara una metodología de simulación en eventos discretos ya que se emplea para el análisis de sistemas en lo que su estado cambia en puntos separados de tiempo debido a la ocurrencia de un evento. Se utiliza como herramienta para proponer mejoras en un centro de distribución, en lo que respecta a las actividades de recepción, almacenamiento y despacho, obteniendo la configuración para prestar el servicio de una forma adecuada al menor costo posible. La simulación, haciendo uso de esta capacidad, es el diseño de un modelo a partir de un sistema real que permite experimentar sobre dicho modelo para describir, explicar y predecir el comportamiento del sistema real. Con el objetivo de:   Proponer y evaluar mejoras en un centro de distribución. Experimentación sobre el modelo, menos costosa que sobre el sistema. Compresión del tiempo, es decir, operaciones que ocurren en horas o días pueden simularse en segundos. Ambiente controlado y posibilidad de modificación. Mayor y mejor comprensión de la realidad. Alternativa para el diseño de nuevos sistemas y su evaluación.
 Estimación de rendimientos de sistemas reales en diversas condiciones y situaciones, permiten comprobar la eficacia de los sistemas reales.   Junto con esta metodología utilizaremos Arena Simulation Software ya que el modelado de eventos discretos es el proceso de representar el comportamiento de un sistema complejo como una serie de eventos bien definidos y ordenados en el tiempo. Esto permite analizar rápidamente el comportamiento de un proceso o sistema a lo largo del tiempo.    


CONCLUSIONES

Es necesario que los Almacenes o Centros de Distribución sean actualizados a los nuevos requerimientos de los clientes para poder brindar un mejor servicio y que la empresa sea mayormente eficiente y productiva. Y que tengan una ubicación adecuada ya que esto definirá el éxito o fracaso de la empresa, se evalúa mediante cuatro factores que son: Producción, Costes, Demanda y Competencia. Es primordial que cada materia prima tenga su lugar, que los procesos tengan áreas destinadas para cada producto y que las áreas sean distribuidas correctamente, así se facilitarán los trabajos . Es necesario que el personal con el que cuenta la empresa sea idóneo para realizar las operaciones dentro del almacén y que se incluyan los Sistemas de Información y Tecnologías para un mejor servicio y con esto la satisfacción de los clientes. Ya que los almacenes y centros de distribución son una real plataforma logística de las ventas. Ahora se debe analizar como un factor de éxito para el control y reducción de los niveles de inventarios, que son un verdadero costo fijo y financiero que afecta la poca rentabilidad de sus organizaciones. Es necesario que la empresa este en constantes cambios, implementando nuevas metodologías, reduciendo costos y aumentando la eficiencia dentro de la organización.
Henández López William, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE


DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE

Henández López William, Benemérita Universidad Autónoma de Puebla. Pérez Lima Ponce Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Velazco Castillo Dania Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseñar una suspensión automotriz para un vehículo todo terreno tipo Baja SAE. Esta suspensión será sometida a distintas pruebas de funcionamiento, tales como absorción de impacto, tiempo de respuesta y resistencia de fuerzas de curvatura, tracción, par motor y de frenada. Así mismo, esta suspensión debe conservar el paralelismo en los ejes y la perpendicularidad de la llanta.



METODOLOGÍA

La absorción de las reacciones generadas por la irregularidad del terreno se consigue gracias al funcionamiento conjunto de los neumáticos, el resorte o muelle y el amortiguador, así como la geometría de los brazos superior e inferior. Para este caso, el efecto del neumático será despreciado. Para diseñar un sistema de suspensión, se modela mediante un sistema Masa-Resorte-Amortiguador. Así mismo, mediante software CAD se miden las reacciones y fuerzas resultantes del modelo. De igual manera, para comprobar la importancia del sistema de suspensión en un automóvil, se fabricó una maqueta con dos autos, uno con suspensión y otro sin ella. De esta manera se puede apreciar la respuesta en ambos escenarios simultáneamente.


CONCLUSIONES

La competencia del baja SAE exige un alto desempeño en la suspención del automóvil. En el diseño se tomó en cuenta el recorrido, la rigidez y la suavidad, aspectos clave para un buen desempeño en todas las pruebas que se imponen a los vehículos antes de la carrera final. Intrínsecamente la geometría y el material de elaboración son aspectos relevantes, puesto que debemos de conseguir una buena rigidez en los brazos, así como también el no permitir que la rueda se despegue del piso, aspecto principal en el diseño. La evaluación de nuestro modelo a través del análisis de elemento finito y ensamblaje en CAD nos permitió la aprobación, contrucción del prototipo y armado de una suspención real Finalmente, se espera que (al igual que en los resultados de las simulaciones en CAD) la suspención ya manufacturada, ensamblada y montada en el vehículo, cumpla con los requerimientos y las exigencias necesarias para el óptimo desempeño del vehículo Baja SAE durante el desarrollo de la carrera.
Heraclio Lagunas Fatima Andrea, Instituto Tecnológico de Morelia
Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla

IMPLEMENTACIóN DE RUTINA PARA RECORRER EL ESPACIO DE TRABAJO CON UN ROBOT MóVIL TIPO DIFERENCIAL.


IMPLEMENTACIóN DE RUTINA PARA RECORRER EL ESPACIO DE TRABAJO CON UN ROBOT MóVIL TIPO DIFERENCIAL.

Heraclio Lagunas Fatima Andrea, Instituto Tecnológico de Morelia. Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla



PLANTEAMIENTO DEL PROBLEMA

El proyecto fue realizado en la Universidad Politécnica de Puebla y estuvo a cargo del Dr. Antonio Benitez Ruiz. Se implementó con las herramientas de programación AVR Studio y en cuestión de hardware se tomó como plataforma de implementación un robot móvil tipo diferencial llamado Pololu 3π. El Pololu 3π es un pequeño robot de competencia, utilizado comúnmente en competencias de resuelve laberintos y seguidor de líneas debido a su tamaño, velocidad de sus motores y sensores de luz localizados en la parte inferior del robot. Sin embargo, se puede adaptar para diferentes aplicaciones debido a su versatilidad y a sus espacios dedicados para soldar expansiones de conectores. AVR Studio es un IDE basado en C el cual cuenta con diversas librerías y entre todas ellas, se encuentran las del Pololu 3π. El problema a resolver consiste en que el robot debe recorrer un espacio de 2 dimensiones perfectamente delimitado por el usuario y determinar si existen obstáculos, pero antes de ello, se debe verificar si este puede recorrer el espacio de trabajo correctamente con ayuda de los sensores de luz.



METODOLOGÍA

En primera instancia se revisó que los equipos de trabajo estaban listos para comenzar con el proyecto, se comprobó que los programas necesarios estuvieran instalados y se revisó código existente y documentación generada en proyectos antecedentes con el propósito de familiarizarse con la plataforma del robot Pololu 3π. Se hicieron pruebas con los códigos previamente revisados y se aprendió como programar el robot Pololu 3π. Posteriormente, se decidió utilizar uno de los prototipos previamente construido para llevar a cabo el mapeo o adaptar otro de los robots que se encontraban en el laboratorio. Se optó por la segunda opción y se procedió a realizar las modificaciones necesarias para adaptar el robot a su nueva función. Además, se elaboró el modelo mecánico del robot, se modelaron cada una de las piezas en el software SketchUp 2019 y se comenzó a modificar el código para lograr que el robot pudiese determinar si existían obstáculos dentro del entorno que iba ser construido. Se determinó que los cuadros debían tener un tamaño de reducido, casi del mismo tamaño que el Pololu 3π, sin embargo, al realizar las primeras pruebas se pudo observar que este no podía recorrerlo tan fácilmente como se esperaba. Una vez que se presentó esta problemática, se consideraron las ideas de rehacer el entorno o realizar un código exclusivamente para que este recorriera el ambiente o entorno de trabajo y poder encontrar el error. Se decidió implementar el código para comprobar el funcionamiento del robot y verificar si el problema era el desplazamiento del robot o el entorno. Al momento de realizar las pruebas, se tuvieron que hacer varios ajustes al código porque se pudo observar que el espacio para que el robot pudiera dar vueltas era muy reducido y esto ocasionada problemas y errores en el desplazamiento. Así que se decidió que cada uno de los espacios de la rejilla del ambiente fuera más grande cambiando ambas dimensiones. Al mismo tiempo se le implementó una rutina de calibración antes de que el robot iniciara su tarea ya que era necesaria pero no se había considerado anteriormente como parte del código. De esta forma se logro integrar una rutina que permite al robot recorrer correctamente todo el espacio de trabajo definido.


CONCLUSIONES

El proyecto permitió familiarizarse con un robot móvil con arquitectura diferencial llamado Pololu3π, el cual permite la programación de comportamientos reactivos en lenguaje C. El trabajo realizado cumplió con las expectativas de construir un ambiente para poder desarrollar una rutina que pudiera recorrer dicho ambiente manteniendo en cada momento la posición y orientación que del robot. Se obtuvieron varios resultados como: Modelo 3D completo del robot Pololu 3π, en el software SketchUp, que puede ser utilizado en un futuro para distintos análisis a detalle. Además de 6 rutinas, las cuales son Una rutina de inicialización que incluye la comprobación de los sensores de luz del robot. Dos rutinas para los giros, una de vuelta a la derecha y la otra de vuelta a la izquierda, las cuales debieron ser calibradas de acuerdo a la potencia de los motores, porque el robot giraba un poco más lento hacia una dirección que a la otra. Una rutina que mantenía el conteo de la fila en la que estaba el robot, la cual siempre estaba activa. Otra rutina que mantenía el conteo de la columna en la que se encontraba, la cual se ponía en marcha al momento de encontrar el limite de filas y hacia que girará dependiendo de su posición. Una rutina que corregía la trayectoria del robot dependiendo de sus sensores de luz. Se obtuvieron dos ambientes de prueba ambos compuestos por una superficie lisa y blanca, porque cualquier irregularidad en ellos podía causar que el robot no trabajara de manera correcta, y cinta negra para delimitar los cuadrantes; el primer ambiente de 10 x 11 cm, el cual era muy justo para el robot y ocasionaba que no pudiera reaccionar de manera correcta con respecto a la rutina de corrección de trayectoria. Y se construyó un segundo ambiente, esta vez de 14 x 14 cm para permitirle mayor libertad a robot y se tuvieron que reajustar los tiempos de los movimientos para que recorriera la distancia correcta, el cual demostró ser el adecuado para las pruebas.
Hernández Aburto Marisol, Instituto Politécnico Nacional
Asesor: Dr. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla

SíNTESIS Y CARACTERIZACIóN DE POLíMEROS HIDROSOLUBLES


SíNTESIS Y CARACTERIZACIóN DE POLíMEROS HIDROSOLUBLES

Hernández Aburto Marisol, Instituto Politécnico Nacional. Asesor: Dr. Valeria Jordana Gonzalez Coronel, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los polímeros asociativos hidrosolubles tienen la capacidad de controlar la viscosidad de soluciones acuosas siendo el área biomédica una de las beneficiadas con este tipo de polímeros ya que son aplicados en la liberación controlada de medicamentos.  Estos polímeros tienen una parte hidrosoluble y una hidrófoba siendo la primera de mayor porción, dentro de la clasificación del grupo hidrófobo se encuentra el grupo termosensible los cuales se comportan como espesantes al aumentar la temperatura, esto ocurre debido a una transición de fase en solución acuosa, conocida como LCST. La LCST  (Lower Critical Solution Temperature) es la temperatura en la que se presenta una separación de fases de un polímero, al llegar a esta temperatura la solución que contiene dicho polímero suele verse turbia , la  LCST de la  N-isopropilacrilamida (NIPAM)  es de   32° C, por debajo de su LCST es hidrosoluble y por encima es insoluble en agua y precipita. Al ser muy cercana la LCST de la NIPAM a la temperatura del cuerpo humano se ha enfocado como agente de liberación contralada de medicamentos, para que esta aplicación sea posible es necesario desplazar esta temperatura a 38°C siendo el objetivo principal de este trabajo, usando Acrilamida (AM) como la parte hidrosoluble y NIPAM como hidrófobo termosensible del polímero asociativo hidrosoluble. Objetivo Observar el comportamiento de las propiedades principalmente la LSCT en cada relación de monómeros en el copolimero obtenido



METODOLOGÍA

Reactivos Acetonitrilo (CH3CN), acrilamida (C3H5NO, AM), N-Isopropilacrilamida (H2C=CHCONHCH(CH3)2,NIPAM) , Ácido 4,4-azo(4-biscianovalérico (ACVA), Acetona. Instrumentación y Equipo  Espectrofotometría de Infrarrojo Reómetro oscilatorio Turbidimetro Relaciones Se realizaron tres distintas composiciones 90% AM y 10% NIPAM (90-10) 70% AM y 30% NIPAM (70-30) 30% AM y 70% NIPAM (30-70) Síntesis de polímeros con las distintas relaciones La síntesis se llevó a cabo en una polimerización en solución usando como disolvente acetotrinilo al 97% en masa, el iniciador usado fue ACVA12 con una concentración de 2mM , el sistema que se utilizó fue un matraz de bola donde se colocaron las cantidades de los monómeros y se sometió a un flujo de nitrógeno por 10 minutos para asegurar una atmosfera inerte durante el proceso de polimerización. Posterior a esto se calentó con baño maría de aceite a temperatura de 70°C por 10 minutos es importante que se agite a 200rpm el sistema para una mejor transferencia de calor; después se agrega el iniciador disuelto en lo más mínimo de acetonitrilo, una vez puesto se toma el tiempo de 2 a 3 horas de reacción La recuperación del polímero fue por medio de filtración con dos lavados (para asegurarse que no haya residuos del disolvente) con metanol a excepción de la relación 30-70 la cual fue lavada con acetona, finalmente se secó en la estufa de vacío por 24 horas a una temperatura de 27°C


CONCLUSIONES

Resultados Prueba de IR El espectro de IR  obtenido muestra la presencia de las amidas que contiene la acrilamida (amida secundaria) y la NIPAM (amida terciaria) por las bandas en 3333cm-1 y 3184cm-1 las cuales son particulares de la tensión del enlace nitrógeno-hidrogeno, y en 1645 cm-1 y 1608 cm-1 hay dos bandas intensas los cuales corresponden a los dos grupos carbonilos que tienen las amidas antes mencionadas. Los sobre tonos en 2934 cm-1-2304 cm-1 corresponden la tensión de los grupos metilos corroborándose con los picos en 1366 cm-1-1378 cm-1 indicando su flexión. Pruebas de Reologia En el análisis de los polímeros se hicieron graficas de velocidad de corte vs viscosidad a distintas temperaturas para cada una de las relaciones, se tomó la viscosidad plateu (η0), se graficó en función de la temperatura y se obtuvieron diferentes resultados para cada una de las relaciones. Relación 90-10:se observó que el polímero tiende a comportarse como un fluido pseudoplastico Relación 70-30: se observó que el polímero no se comportó como un fluido pseudoplastico debido a que la viscosidad crece en un rango de temperatura sindo un polímero termo sensible Relación 30-70: se observó que el polímero de esta relación se comporta muy similar al de la relación anteriorpero diferente rango de temperaura Prueba de Turbidez En las graficas se observaron las curvas de la turbidez en función de la temperatura, donde hubo un aumento de turbidez en la relación 70-30 que indica que a mayor temperatura hay mayor cantidad de partículas dispersas en la solución, en este caso hay polímero suspendido en el agua, por lo que hay un cambio de fase ya dicho polímero estaba disuleto en agua y ahora esta suspendido. Para la relación 30-70 se vió un comportamiento similar, solo que en este caso hay un incremento gradual en la turbidez.La temperatura encontrada es la LSCT de cada una de las relaciones. Conclusiones De las tres relaciones que se hicieron al largo de este trabajo, se observó que la relación 90-10 no tuvo cambio en su viscosidad, es decir esta decreció como cualquier polímero no asociativo hidrosoluble, también se analizó que en esta relación no tuvo polímero residual, es decir, todos los reactivos reaccionaron. Las relaciones 70-30 y 30-70 tuvieron un cambio tanto en su viscosidad como en su turbidez a una temperatura de 35°C y 43°C respectivamente, lo cual indica que si formo un polímero asociativo hidrosoluble en cada relación y que en ambos casos se desplazó la LSCT de la NIPAM, observando que a menor contenido de AM la LSCT se desplaza más que con una cantidad mayor, basándose en lo mencionado a mayor contenido de polímero termosensible la LSCT será mayor.  
Hernandez Amezcua Andrea Viridiana, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

PELíCULAS SEMICONDUCTORAS


PELíCULAS SEMICONDUCTORAS

Hernandez Amezcua Andrea Viridiana, Universidad de Guadalajara. López Lozano Martin Alejandro, Universidad de Guadalajara. Orozco González Ileana Monserrat, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas de oro se caracterizan por tener un tamaño de partícula muy pequeño, actualmente considerado, en el orden de 1 a 300 nm. Existen diversos tipos de materiales nanoestructurados como nanopartículas, nanocristales, nanotubos, nanoalambres, etc. de composiciones diversas, obteniendo nanomateriales orgánicos e inorgánicos en distintas dimensiones con aplicabilidad multifuncional, que van desde la medicina hasta la electrónica moderna. Se puede utilizar este proceso para la realizacion, por ejemplo, de baterias, para optimizar tanto en la duracion como la contaminacion de cuando se desechan, puesto que el oro mejoraria las propiedades de ese tipo de baterias.



METODOLOGÍA

Para la realización de películas de nanopartículas de oro y alcohol polivinilico se prepararon soluciones de HAuCl4 a distintas concentraciones (0.4 mM, 0.7 mM , 1.0 mM , 1.3 mM). Para la síntesis se preparó en viales una disolución de 0.02 g de quitosan en 5 ml de CH3COOH al 1%. Enseguida con el fin de homogeneizar la disolución se somete a una sonicación durante 30 min entre rango de temperatura de 30-35°C dejándolo reposar durante un día. Posteriormente se agregan 4g de la solución de HAuCl4, después se sonicó por un lapso de 2 horas a la temperatura antes mencionada. Éstas soluciones se dejan reposar unos días. Enseguida se preparó una solución de ZnO a 0.245 mM y se le agrega una determinada cantidad calculada (ésta depende de la concentración de HAuCl4) a cada uno de los viales y se vuelve a sonicar por 30 minutos a temperatura ambiente. Se preparó una solución de alcohol polivinilico (PVA) al 5%, se adiciona el 4% en peso de las muestras y se sonica 10 minutos. Y para concluir se le agrega el 2% de la masa total de la solución de líquido iónico, lo cual se vuelve a meter al sonicador por 10 minutos, el resultado de esto se vierte en una caja Petri de vidrio de 1.2cm de grosor y se introducen en el horno de secado a 45 °C hasta que se logre la consistencia deseada.


CONCLUSIONES

El líquido iónico es de suma importancia en la elaboración de películas, ya que ayuda a la interacción del flujo de electrones en el material, lo que permite que exista una resistencia en cada una de las películas, lo cual sirvió para calcular la conductividad presentada en las mismas; gracias a esto es posible emplearse en aplicaciones electroconductoras, como serían en sensores, celdas fotovoltaicas, diodos, entre otras. Las soluciones con 0.7 mM de concentracion mostraron una mayor conductividad que las demas, y las de 1 mM presentaron una mayor uniformidad en el tamaño de sus partículas.
Hernández Baena Adán, Universidad de Guanajuato
Asesor: Dr. Sergio Ivvan Valdez Peña, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)

ANáLISIS ESTADíSTICO EXPLORATORIO DE MEDIOS DE COMUNICACIóN DIGITALES DE LAS ZONAS METROPOLITANAS PARA LA IDENTIFICACIóN DE DELITOS DE ALTO IMPACTO


ANáLISIS ESTADíSTICO EXPLORATORIO DE MEDIOS DE COMUNICACIóN DIGITALES DE LAS ZONAS METROPOLITANAS PARA LA IDENTIFICACIóN DE DELITOS DE ALTO IMPACTO

Hernández Baena Adán, Universidad de Guanajuato. Asesor: Dr. Sergio Ivvan Valdez Peña, INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Los periódicos son, en su mayoría, fuentes de información verídicas y confiables. Son una un medio confiable para poder tener una alternativa a las fuentes oficiales si se monitorean las cifras que en ellos se publican. En el presente trabajo se pretende recabar publicaciones de periódicos digitales para poder identificar si una nota pertenece a la categoría delitos con violencia o no.



METODOLOGÍA

Para poder organizar textos dentro de categorías definidas se utilizan Clasificadores de documentos y una base de entrenamiento que en nuestro caso se obtuvo con web scrapping. Estos clasificadores son técnicas estadísticas y de Inteligencia Artifical. La base de entrenamiento requiere que cada uno de las noticias sea clasificada manualmente previamente. Los métodos más utilizados para la clasificación de textos son Linear Discriminant Analysis, Principal Component Analysis, Naive Bayes, Nearest Neighbors, Support Vector Machine y Redes Neuronales. Éstos algoritmos trabajan con información numérica, así que se debe hacer un pre-procesamiento del texto para obtener datos numéricos a partir del texto sin procesar. A este proceso se le conoce como Vectorización de texto. Una vez con todo el texto vectorizado es posible implementar y probar cada uno de los algoritmos sin problemas. Por cuestiones de facilidad se utilizaron toolkits con los métodos ya implementados.


CONCLUSIONES

Una vez probados los métodos, variando algunos de los parámetros singulares para cada uno de ellos, se obtuvo que los algoritmos con mejor rendimiento fueron las redes neuronales de perceptrones multicapa que utiliza el algoritmo del descenso de gradiente para optimizar los pesos de los perceptrones y Support vector machine con standar accuracy de 95% y 94% y balanced accuracy de 91% y 94%. Se espera que para la clasificación multiclase estos algoritmos obtengan buen desempeño.
Hernandez Bazan Nallely, Universidad Politécnica de Texcoco
Asesor: Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas

APLICACIóN DE LA METODOLOGíA DE SUPERFICIE DE RESPUESTA EN LA LOGíSTICA HUMANITARIA


APLICACIóN DE LA METODOLOGíA DE SUPERFICIE DE RESPUESTA EN LA LOGíSTICA HUMANITARIA

Hernandez Bazan Nallely, Universidad Politécnica de Texcoco. Asesor: Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Actualmente se han visto lamentables casos de desastres en diferentes partes del mundo producidos por fenómenos naturales que generan un alto índice de pérdidas humanas que deriva en un pánico social irreparable. Por ello es aún más difícil poder responder de manera casi inmediata a cualquier tipo de catástrofe natural porque nunca se está totalmente preparado, ya que en muchas ocasiones se presenta la falta de personal (autoridades competentes según sea el caso) en campo para el desarrollo eficiente en los procesos  de la logística, generando cuellos de botella en cuanto a la distribución y transporte de los víveres y artículos de primera necesidad; además de las grandes pérdidas económicas que se realizan en la reconstrucción y recuperación de la vida de las personas.



METODOLOGÍA

En esta investigación se llevó acabo la aplicación del método de superficie de respuesta para  la optimización de la satisfacción de los afectados (demanda) dependiendo del rendimiento del personal (personal competente)  y el tiempo de ayuda en el área de emergencia para la distribución de insumos de manera equitativa, para lo cual se realizó una simulación de este modelo  con la ayuda del programa de Minitab. Se propone un modelo en la cual se logre conocer cuál es el número de personas ayudadas por el equipo de emergencia en desastres naturales  dependiendo de las variables como el tiempo, la Magnitud del impacto del fenómeno y lugar. Variables de análisis: Demanda Son el número de personas a las cuales se les otorgó la ayuda después de las primeras horas del desastre.   Magnitud del impacto del fenómeno   Dependiendo el impacto que se tiene del fenómeno natural entonces se puede destinar la ayudar y actuar conforme a la situación, esta puede darse de manera local, estatal, federal o incluso internacional. Existen organismos gubernamentales y no gubernamentales, tales como la ONU (Organización de las naciones unidas) que particularmente lo supervisa la oficina de coordinación de asuntos humanitarios quien se encargada de regular la participación activa de que todos los países lleven a cabo políticas y proyectos destinados a prevenir y mitigar los efectos causados por las catástrofes.   Personal   La agrupación del personal de socorro que se envíe para el cumplimiento de las tareas en el lugar de los hechos deberá tomar las siguientes consideraciones:   Procedencia de los grupos de socorro así como el personal disponible y los equipos especializados que necesiten. Función específica en la que cada uno participa de manera activa en el desarrollo de las actividades, esto tiene que ver con su grado de especialidad, funcionalidad y experiencia del personal. Nacionalidad e Idioma Necesidades de transporte  y traslado de equipos y personal desde los centro de ayuda hasta el lugar afectado.   Tiempo   Son el número en horas en el que se tarda el personal en ejecutar las tareas de su servicio y además se deberán cuidar los siguientes aspectos:    Alimentación Alojamiento Transporte Ropa de trabajo


CONCLUSIONES

En conclusión es recomendable que operen de 5 a 15 personas de grupos de ayuda en albergues para atender de 20 hasta 50 víctimas dependiendo de la gravedad de la operación de atención a la emergencia. Se recomienda que se realice el relevo del personal cada 8 o 12 horas para que la ejecución de las tareas se realice de manera efectiva, agilizando operaciones y manteniendo la comunicación e información actualizada. La  ayuda humanitaria se necesita con urgencia para salvaguardar y aliviar el sufrimiento de las personas después de una catástrofe y generar un entorno de esperanza de vida.
Hernández Beltrán Javier Enrique, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.


PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.

Hernández Beltrán Javier Enrique, Instituto Politécnico Nacional. Olvera Flores Bryan Alberto, Instituto Politécnico Nacional. Rosas Gómez Catherine, Instituto Politécnico Nacional. Vargas Orozco Christian Salvador, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro de la ciudad de México se suele contar con un problema referente a la vialidad, esto es de gran notoriedad al visitarla ya que, a pesar de no contar con un espacio geográfico tan grande, la cantidad de vehículos que circulan por las calles es muy alta. Por esto mismo, suele ser algo común que se lleguen a presentar diversos accidentes viales. Gran parte de estos accidentes pueden a llegar a generar cambios o concentraciones de ciertos agentes contaminantes en el medio ambiente de la zona en la que se encuentren, por lo que, resulta interesante la revisión de los datos que se muestren de la recolección de dicha información ambiental. Con esta información, podríamos llegar a ser capaces de encontrar un patrón en cuanto a las zonas y fechas que nos podrían ayudar a predecir en qué fechas, días y zonas aproximadas se pueden llegar a presentar más accidentes viales. Asimismo, con la ayuda del patrón encontrado, se podría encontrar una relación entre la cantidad de accidentes viales que se registran los días en los que hay un mayor índice de precipitación pluvial y, de este modo, predecir con mayor exactitud los accidentes viales que podrían generarse y tomar medidas para prevenirlo como tomar rutas alternas y así evitar el tráfico. 



METODOLOGÍA

Tras dar por terminada la introducción teórica a los conceptos básicos de ciencia de datos y machine learning, hemos realizado diferentes ejercicios prácticos en los que hemos analizado el funcionamiento de diferentes algoritmos de clasificación o predicción. Al finalizar estos ejercicios prácticos se nos dio a elegir el tema de enfoque de nuestro proyecto final dentro del programa delfín.  En colaboración con tres compañeros más del programa, hemos seleccionado como nuestro proyecto final el siguiente tema; Predictor de precipitación pluvial e incidentes viales el cual tiene como objetivo, demostrar que es posible realizar predicciones con un alto rango de exactitud acerca de los días y zonas donde lloverá dentro de la Ciudad de México, así como determinar si existe una correlación entre el fenómeno natural de la lluvia y la incidencia de accidentes viales dentro de la Ciudad de México y de ser así, modelar dicha correlación.  El proyecto da inicio en nuestras manos desde un punto en el que ya contamos con dos conjuntos de datos no procesados, una de registros oficiales de accidentes viales y la otra acerca de registros, también oficiales, de las precipitaciones pluviales, ambas bases delimitadas a registros en la Ciudad de México.  El primer paso del proyecto, consistirá en la manipulación de los conjuntos de datos a modo de poder modificar estos hasta tenerlos en un formato en el que sea posible leerlos con cualquier software para su manipulación. Este paso resulta necesario ya que, al no estar procesados, estos no se encuentran generadas correctamente y esta construcción, que cuenta con algunos errores, afectan su accesibilidad.  Posterior al proceso de limpieza de los conjuntos de datos, se procederá a seleccionar para cada uno de estos, las columnas de datos que se utilizarán para la predicción de eventos.  Después de esto, estos datos serán separados en dos grupos, siendo uno el utilizado para entrenar los algoritmos de predicción y el segundo, para hacer pruebas sobre la efectividad de dichos algoritmos.  Tras analizar los resultados de ambas predicciones, buscaremos las columnas de datos (enfocándonos especialmente en la zona y fecha) que nos permitan unir ambos conjuntos de datos en uno solo a fin de localizar de esta manera la posible existencia de una correlación entre ambos fenómenos de estudio, los accidentes viales y las lluvias.  Una vez concluido este proceso, se procede a, finalmente, trabajar con el producto que se recibe del análisis y procesos de Machine learning, se puede empezar a utilizar herramientas que nos permitan ilustrar dichos datos logrando de esta forma, que sea mucho más fácil la interpretación de los resultados que hemos encontrado. 


CONCLUSIONES

A lo largo de la estancia de verano, se adquirieron conocimientos de las 3 etapas con las que cuenta un proyecto de Data Science, que son la minería y limpieza de datos (etapa relevante y sumamente laboriosa), aplicación de los diferentes algoritmos de Machine Learning (siendo esta con mayor peso, con el fin de saber su funcionamiento para identificar en qué circunstancias aplicarlos), y finalmente se obtiene la interfaz, con la que el usuario podrá interactuar. En las 3, se obtuvieron conocimientos teóricos que se aplicaron en el proyecto final.  Por parte del proyecto, fue algo interesante de trabajar debido a las diversas formas en que podíamos dar pie al procedimiento, sin embargo, teníamos que ir poco a poco para saber hasta qué punto podríamos llegar en este corto tiempo. Finalmente, tuvimos que detenernos en un punto medio, debido a que, por los datos que se proporcionaban en una de nuestras muestras, no podríamos realizar las correspondientes predicciones ya que no contábamos con la información suficiente, además de que hacer transformaciones de otros tipos de datos a numérico (el cual necesitábamos) llegaría a ser mucho más tardado y complicado de realizar. 
Hernández Briano Elizabeth, Instituto Tecnológico de Toluca
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

INTELIGENCIA ARTIFICIAL


INTELIGENCIA ARTIFICIAL

Hernández Briano Elizabeth, Instituto Tecnológico de Toluca. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se buscó dar solución a un problema que se encuentra en el repositorio Kaggle (https://www.kaggle.com/) con el fin de contrastar la eficiencia entre dos sistemas conexionistas: las redes neuronales artificiales (RNA)  y las redes neurogliales artifiales  (RNGA). Los dos seran comparados en el programa de ENERGLIA. El problema que se contrastó es el de MRI and Alzheimers que consiste en una base de datos hecha por The Open Access Series of Imaging Studies (OASIS) en donde atendieron a diversos pacientes y a través de la realización de diferentes pruebas poder predecir si tiene demencia y si es propenso a desarrollar Alzheimer.



METODOLOGÍA

Antes de comenzar el procedimiento para resolver el problema fue necesario aprender un poco sobre entrenamiento de análisis de datos moleculares, técnicas y procedimientos de inteligencia artificial (Machine Learning, Deep Learning), y para eso se realizaron las siguientes actividades:   a. Formación general en inteligencia artificial y diferentes campos de aplicación: International Workshop: From Chemoinformatics to Creativity. b. Experiencias de investigación biomédica: VII Workshop Internacional en IMAGEN MÉDICA CAPTURA E INTEGRACIÓN DE DATOS CLÍNICOS y International Workshop: Machine Learning in Bioinformatics and Signal Processing.  c. Prácticas en trabajos de investigación de las diferentes líneas del grupo: chemioinformatics, bioinformatics, robotics, creativity, etc. Para resolver el problema se fue siguiendo la siguiente serie de pasos: Descarga de los ficheros de clasificación o de regresión, en este caso fueron de Cross-sectional MRI Data in Young, Middle Aged, Nondemented and Demented Older Adults y Longitudinal MRI Data in Nondemented and Demented Older Adults . Después se comentó el problema elegido con los profesores antes de utilizar los datos.  Una vez aprobada la base de datos se procedió a realizar una limpieza de la base de datos, que prácticamente fue eliminar todas las columnas que no fueran necesarias o que no tuvieran una gran relevancia para poder obtener el resultado fina;, y luego se pasa a normalizarlos todos, esto se hace para que todos los valores numéricos de la base de datos queden en las mismas unidades, o unidades parecidas, para hacer esto, se utilizó la siguiente formula:                                Xnormalizada=(X-Xmin)/(Xmax-Xmin) Después, ya limpios y normalizados los datos se procedió a hacer la división adecuada  en conjuntos de cross-validation, que consiste en entrenamiento validación y test de toda la base de datos.  Carga de los datos del problema a ENERGLIA  y se hiso la configuración de los parámetros de la red. Planificación de las pruebas a realizar y procesos a ejecutar. Análisis y presentación de los resultados.


CONCLUSIONES

Durante la estancia de verano  logre adquirir conocimientos teóricos sobre redes neuronales artificiales,  astrocitos, redes neurogliales artificiales, machine learning,deep learning, cross-validation, etc. y pude ponerlos en práctica con  ENERGLIA entrenando la red y corriendo el programa, sin embargo al ser un extenso trabajo aún se encuentra en la fase de pruebas y no se pueden mostrar los datos obtenidos.
Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)


SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)

Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango. Hernández Lara Raúl, Instituto Tecnológico Superior de Huauchinango. Méndez González Aldo Sebastián, Instituto Tecnológico de Chilpancingo. Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la tecnología ha avanzado a pasos agigantados, sin embargo, en las aulas de clases a nivel superior apenas se hace uso de ella, no más allá de emplearse en forma de una plataforma facilitadora para la comunicación y una herramienta de proyección de archivos de texto y audiovisuales. Siendo escasas o nulas las opciones de software enfocadas en un diseño o programa educativo especifico, en pos de mejorar la retención y reafirmación del conocimiento que adquiere el alumno. Se han realizado diversas investigaciones para la construcción de software educativo, especialmente para el área científica, siendo creados diferentes modelos de evaluación que permiten tener una guía para el desarrollo de este tipo de software. A pesar de ello, en el mercado existen muy pocas opciones donde el docente pueda discernir entre las aplicaciones que se adapten a sus necesidades y la de sus alumnos en el aula. Es por ello necesario el desarrollo de un software que funcione como una herramienta complementaria adaptada a los menesteres del aula, creando una relación tripartita entre el docente, el alumno y el equipo de desarrollo y diseño del software, implementando lo más reciente en la tecnología que el equipo pueda utilizar, para asegurar una experiencia de usuario y funcionalidad exitosa.



METODOLOGÍA

Para el diseño de las propuestas de las interfaces de usuario se utilizó la herramienta Balsamiq Mockup y el drag and drop de NetBeans, Al mismo tiempo que se hacia la selección de colores según las emociones, sensaciones y virtudes que cada uno de estos transmite, según lo que la autora Eva Heller describe en su libro Psicología del color. Después de haber seleccionado el diseño de interfaces y la paleta de colores para el programa, se siguio con la investigación en distintas fuentes para el contenido de las primeras cuatro unidades, con base a el temario del Tecnológico Nacional de México. También se creo ilustraciones propias para hacer más amena la lectura del alumno. Para la sección de evaluación del programa, se acudio a la escuela normal Profesor Fidel Meza y Sánchez, ubicada en la ciudad de Huauchinango, Puebla, donde maestros y estudiantes de la institución dieron su asesoria, dando sus opiniones acerca de nuestro proyecto. Aclarándonos que la mejor forma de evaluación que se podía utilizar era la evaluación formativa. Un asesor externo, docente del Instituto Tecnológico Superior de Huauchinango, nos guio para incluir la herramienta de evaluación con preguntas de opción múltiple y ejercicios teóricos acerca de cada unidad. Se continu con el desarrollo de applets para la parte interactiva del programa, inspirados por los temas que trata la materia, como: la resultante de fuerzas coplanares, la segunda ley de Newton, la óptica, la termodinámica, entre otros. Haciendo uso de las tecnologías disponibles para la graficación en 2D y 3D para el lenguaje de programación Java. Después se siguio con la migración del código, que ya se había avanzado anteriormente, al Modelo Vista Controlador, para lograr que el programa fuera escalable, modular y robusto. Para la creación de las vistas y para que estas se adaptasen a cualquier resolución de pantalla, se utilizó la librería MigLayout, siguiendo el prototipado del diseño elegido. Para cuando todo el código estaba unido, se comenzaron con las pruebas en busca de errores para luego corregirlos. Posteriormente se diseñó e implemento la página web oficial del proyecto, donde se describe de qué trata, sus objetivos y como funciona, además de mostrar una vista previa del programa. Se trabajó con el framework Laravel, para después montarlo en el hosting de Heruko en su versión gratuita. Para el diseño de la página, se optó por uno de tipo scrolling y responsivo utilizando el framefork Bootstrap.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos de las formas de diseño y desarrollo para un software interactivo con un enfoque educativo y ponerlos en práctica con las técnicas de la ingeniería de software, mas al ser un proyecto extenso, aún se encuentra en desarrollo y solo se ha acabado una versión alpha del mismo, lo que quiere decir que ya se puede probar el software, pero no contiene toda la funcionalidad que tiene contemplado el producto final.
Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero

IDENTIFICACIóN DE VULNERABILIDAD DE UN EDIFICIO TíPICO DE LA CIUDAD DE CHILPANCINGO, GRO; MEDIANTE SU ANáLISIS MODAL ESPECTRAL Y DE INTERACCIóN SUELO-ESTRUCTURA


IDENTIFICACIóN DE VULNERABILIDAD DE UN EDIFICIO TíPICO DE LA CIUDAD DE CHILPANCINGO, GRO; MEDIANTE SU ANáLISIS MODAL ESPECTRAL Y DE INTERACCIóN SUELO-ESTRUCTURA

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Sánchez Peña Oscar Alejandro, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La necesidad de saber si una edificación será segura para las personas que la habitarán exige un análisis más realista de su estructura; éste puede llevarse a cabo mediante el análisis modal espectral y la interacción de la estructura con el suelo donde ésta se desplanta. Este tipo de análisis, por su precisión, debería realizarse antes de iniciar la construcción de toda edificación a fin de evitar posibles daños a la estructura y pérdida de vidas en un futuro debido a diversos factores al ocurrir un sismo. Además, debe respetarse el reglamento de construcciones del sitio en el que se está edificando. Con el fin de conocer dicha técnica, durante esta estancia se analizó un edificio de 5 entrepisos, ubicado en el centro de la ciudad de Chilpancingo, con ayuda del programa SAP2000 Ver. 19.  Dicho edificio está catalogado como un edificio de alto riesgo debido a su forma irregular, a su relación de esbeltez y por estar localizado en esquina, lo cual lo hace susceptible de presentar deformaciones excesivas por torsión.



METODOLOGÍA

Para llevar a cabo este trabajo, inicialmente se eligió una edificación de la ciudad que presentara irregularidad en planta. Al no conseguirse sus planos arquitectónicos, se procedió realizar una inspección técnica del edifico que incluyó un levantamiento de sus características geométricas. Dicha información permitió modelar la estructura en el programa SAP2000, para llevar a cabo el análisis dinámico modal usando el espectro de diseño recomendado para el suelo tipo II de la ciudad de Chilpancingo. Posteriormente, se propusieron los casos de carga y sus respectivas combinaciones, empleando los valores de las cargas vivas y muertas recomendadas por el reglamento de construcción vigente. En el primer caso analizado, se realizó el análisis modal espectral de la estructura como suelen efectuarse comúnmente los análisis típicos: Se le consideró empotrada al suelo. Esto significa erróneamente, que la estructura está desplantada en suelo infinitamente rígido, siendo que en realidad el suelo en el sitio es medianamente blando. Al ejecutar el análisis, se obtuvieron los modos de vibrar de la estructura, al igual que los desplazamientos que ésta tendría bajo una condición que no representa fielmente las características del suelo. Tal situación suele considerarse como válida en los análisis que no consideran la interacción suelo-estructura. En el segundo caso analizado, y empleando el modelo de la estructura del primer caso, se adicionó la cimentación, utilizando contratrabes y zapatas. A fin de modelar al suelo se agregaron, bajo la cimentación, un conjunto de resortes verticales a los cuales se les aplicó una rigidez axial calculada a partir del coeficiente de balasto del suelo. Finalmente, el modelo fue analizado y se obtuvieron los modos de vibrar, al igual que los desplazamientos que el edificio tendría en este caso. Una vez realizados los análisis citados, se compararon los resultados obtenidos en ambos modelos, tanto en los modos de vibrar como de los desplazamientos máximos de la estructura bajo solicitación sísmica.


CONCLUSIONES

El estudio realizado permitió identificar que el análisis de una estructura en la que se considera al suelo infinitamente rígido no es representativo de la situación real. El no dar la debida importancia que merece la representación fiel del comportamiento del suelo donde se encuentra desplantada la construcción puede ser fuente de errores importantes: Por ejemplo, la comparación de ambos casos permitió observar que el desplazamiento lateral en algunas zonas del modelo que toma en cuenta la interacción suelo-estructura (con resortes verticales), puede ser de hasta el doble del que se obtiene con el modelo con apoyos empotrados. Se observó también que las formas modales no cambian mucho, pero sí cambian los valores del periodo de vibrar. El valor del período fundamental considerando un empotre perfecto fue de 0.56618, mientras que en el caso del modelo con interacción suelo-estructura resultó de 0.8586. La diferencia resultó de 151.6%. Esto significa que el segundo modelo permite obtener un comportamiento más apropiado de la edificación. Además, el análisis detallado de los elementos mecánicos y el nivel de esfuerzos de cada uno de sus miembros permite determinar en conjunto con mayor precisión, si la edificación pudiera presentar daños futuros en caso de una solicitación sísmica extraordinaria.
Hernández Casas José Pablo, Universidad de Guadalajara
Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)

HERRAMIENTA PARA LA EVALUACIóN DE EMG EN EXOESQUELTO DE MIEMBROS INFERIORES, PROYECTO AGORA, EN LA REHABILITACIóN DE LA RODILLA.


HERRAMIENTA PARA LA EVALUACIóN DE EMG EN EXOESQUELTO DE MIEMBROS INFERIORES, PROYECTO AGORA, EN LA REHABILITACIóN DE LA RODILLA.

Hernández Casas José Pablo, Universidad de Guadalajara. Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En la vida cotidiana, las personas nos vemos expuestas a sufrir diversas lesiones, las cuales pueden ser provocadas por una actividad física, algún accidente, por el paso del tiempo, repeticiones en tareas sin el descanso adecuado, o hasta malformaciones degenerativas y algunas que surgen desde el nacimiento. El avance en los tratamientos de rehabilitación también crece en su catálogo y en acreditación para ayudar a los individuos que padecen alguna discapacidad o dificultad motriz. A la par, cada día se vuelve más común el uso de órtesis que nos ayudan a realizar diferentes actividades físicas, desde las más básicas (como caminar), hasta las más complejas (como escalar una montaña). Utilizando un exoesqueleto, podríamos aprovechar las características brindadas por el mismo para realizar repeticiones y mejorar los procesos de rehabilitación de diferentes articulaciones, con la ventaja de evitar el error humano y contar con un sistema autónomo y preciso. Para el desarrollo de un exoesqueleto confiable, es necesario equipar un sistema de interpretación de factores biológicos y antropométricos de manera que sea lo más preciso posible. Aquí es donde entra nuestra labor con el presente proyecto, buscando dotar a un exoesqueleto con los sensores necesarios para registrar la actividad bioeléctrica de los músculos relacionados con la flexo-extensión y la estimación de ángulos en la articulación de la rodilla.



METODOLOGÍA

 Investigación experimental enfocada en la evaluación de la actividad bioeléctrica de los músculos involucrados al realizar el movimiento de flexo-extensión con la asistencia de un exoesqueleto; donde se pretende hacer una comparativa cuantitativa al realizar dicho movimiento con y sin exoesqueleto (AGoRA).


CONCLUSIONES

Hasta el momento el resultado obtenido del trabajo de investigación es una herramienta (interfaz gráfica) desarrollada en el software Matlab que permite al usuario evaluar la actividad bioeléctrica de hasta cuatro músculos diferentes, dichos músculos pueden cambiar según el estudio con el que se esté trabajando. Esta interfaz permite al usuario, primeramente, llevar a cabo el registro del sujeto al que se le realizará la prueba (medidas antropométricas). Después, se le brinda al usuario la opción de procesamiento en tiempo real (online), donde se obtiene la señal electromiográfica de cada músculo y es almacenada en un archivo de texto; de esta manera después podemos procesar los datos de manera offline para hacer comparativas entre pruebas, dicha opción (offline) forma parte de la misma interfaz gráfica. El desarrollo de esta herramienta de feedback resulta bastante útil para la adquisición de datos de EMG. Esta información es muy importante ya que es un parámetro que considerar al hablar del estudio de un movimiento; aquí se puede ver reflejado cómo es que se genera el movimiento, se pueden hacer comparativas a partir de la cuantificación de esta señal y a partir de esto generar conclusiones para un estudio, como en este caso para ver si el exoesqueleto influye en la rehabilitación de la rodilla.    
Hernández Castillo Paola Montserrat, Instituto Tecnológico de Toluca
Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)

ANáLISIS BIBLIOGRáFICO DE TéCNICAS MATEMáTICAS PARA LA PLANIFICACIóN DEL MANTENIMIENTO PREVENTIVO DE CENTRALES DE GENERACIóN DE ENERGíA ELéCTRICA.


ANáLISIS BIBLIOGRáFICO DE TéCNICAS MATEMáTICAS PARA LA PLANIFICACIóN DEL MANTENIMIENTO PREVENTIVO DE CENTRALES DE GENERACIóN DE ENERGíA ELéCTRICA.

Hernández Castillo Paola Montserrat, Instituto Tecnológico de Toluca. Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, las empresas gastan mucho dinero en tener buenos métodos de mantenimiento en sus equipos industriales, ya que un fallo en la instalación supone la pérdida de dinero por la indisponibilidad y no funcionamiento. Es por esto, que las políticas de mantenimiento y los distintos métodos que existen son de gran importancia y es necesario un análisis correcto de las mismas.  La relevancia del problema de la planificación radica en la necesidad real de paros en determinado tiempo para su revisión, de tal modo que desde una óptica preventiva se eviten fallos en su funcionamiento ya que una parada imprevista conllevaría una indeseable interrupción en el suministro eléctrico, con la consiguiente repercusión económica y satisfacción de los clientes negativa. El objetivo principal de esta investigación fue conocer los métodos de optimización existentes para la minimización de costos y la maximización de la fiabilidad de los sistemas eléctricos implicados.  Existen dos clasificaciones de métodos de optimización, la primera es la clásica, en donde se trata de un enfoque científico para la toma de decisiones ejecutivas, que consiste en el arte de modelar situaciones complejas, mientras que la segunda son los métodos metaheurísticos, los cuales son algoritmos aproximados de propósito general cuya ventaja radica en el gran éxito que han tenido.



METODOLOGÍA

Detección de las fuentes de información: Ubicación del material que servirá como referencia para el problema Obtener y consultar las fuentes: Se procedió a la consulta y revisión de aquellas fuentes que serán de utilidad. Extraer y recopilar: Se anotaron los datos de identificación de la referencia. Organización del material: Se compara la información obtenida de las diferentes fuentes referentes a un mismo tema. Diseño de un esquema del marco teórico: Se establecieron lineamientos en cuanto a contenido, se ordenó y construyó el marco referencial tomando como base las teorías del tema. Construcción del marco teórico: Se presento y escribió en forma ordenada las teorías, la información para analizar el fenómeno investigado. En el documento, se realizó una búsqueda amplia sobre estudios anteriores acerca de la programación del mantenimiento preventivo, particularmente para su aplicación en centrales eléctricas que tuvieran relación con la investigación, incluyendo antecedentes nacionales e internacionales y así conocer como se ha tratado este problema, la información que se recolecto y cuáles fueron los diseños que se emplearon. Se elaboro un análisis exhaustivo de la literatura para evaluar los métodos de optimización utilizados de la siguiente manera: Ubicar los temas de programación de mantenimiento preventivo dentro del conjunto de teorías existentes. Definir los elementos teóricos. Sustentar la investigación Proveer un marco de referencia para interpretar los resultados del estudio. Sintetizar y recopilar diferentes posiciones teóricas de autores y fuentes documentales. Revisar diferentes temas o autores. Posteriormente, identificar las tendencias de la investigación, los aspectos importantes, tales como; dominio de aplicación, formulación de problemas, modelado y los objetivos específicos.  Con los datos recabados, se elaboró una tabla comparativa respecto a los diferentes métodos de optimización. Se colocaron los autores, el método, los objetivos cumplidos y por último el modelo matemático utilizado. 


CONCLUSIONES

Se estudiaron 59 referencias bibliográficas los cuales 40 fueron artículos basados en los métodos de optimización y la planificación del mantenimiento preventivo que existen, tanto nacionales como internacionales, para así conocer el modelado expuesto, los resultados, las conclusiones y rescatar las contribuciones existentes para su próxima mención en el marco referencial de un artículo de investigación. Para sustentar el documento, se analizaron más de 40 autores expertos en los diferentes métodos, proporcionando un amplio panorama del tema.  Se consultaron 19 revistas diferentes como por ejemplo; Reliability engineering & System Safety, European Journal of Operational Research, Production Planning & Control, International Journal of Production Research, etc. Siendo parte del listado Journal Citation Reports, en el área de Operations Research. El periodo de tiempo abarcado en la búsqueda y análisis de la información fue alrededor de 6 semanas. El mantenimiento preventivo se diseñó con la idea de prever y anticiparse a los fallos de las máquinas y equipos, utilizando para ello una serie de datos sobre los distintos sistemas y subsistemas e inclusive partes. Bajo esa premisa se diseña la programación, para realizar cambios de sub-ensambles, cambio de partes, reparaciones, ajustes, cambios de aceite y lubricantes, etc., a maquinaria, equipos e instalaciones que se considera importante realizar para evitar fallos. Ante la necesidad de administrar y distribuir, de manera eficiente, materiales a las distintas operaciones en las que las empresas se ven reflejadas, es necesario aplicar las técnicas de la investigación de operaciones. Se han revisado trabajos sobre la programación del mantenimiento preventivo para centrales eléctricas concluyendo que existe una amplia variedad de métodos de optimización que se pueden adaptar a problemas dependiendo de las características específicas del mismo y encontrar un resultado favorable. Se concluye que existen beneficios potenciales para las empresas de generación de energía que apliquen métodos de optimización en su respectivo mantenimiento. El siguiente paso es diseñar un modelo exhaustivo basado en una perspectiva de mantenimiento centrada en el costo, logrando con ello, una solución óptima para que los investigadores y practicantes puedan hacer uso de este.
Hernandez Cruz Miguel Angel, Instituto Tecnológico de Ciudad Juárez
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

LOGíSTICA INTELIGENTE Y FLUJOS DINáMICOS DE LOS USUARIOS FINALES Y LOS BUSES DE LA ESTACIóN “EL NARANJAL”, LIMA – PERú, 2019


LOGíSTICA INTELIGENTE Y FLUJOS DINáMICOS DE LOS USUARIOS FINALES Y LOS BUSES DE LA ESTACIóN “EL NARANJAL”, LIMA – PERú, 2019

Hernandez Cruz Miguel Angel, Instituto Tecnológico de Ciudad Juárez. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

El Metropolitano de Lima es un sistema de autobuses masivo al servicio público de locales y visitantes de la ciudad (2010), el cual conecta de norte a sur un total de 12 distritos de Lima, con la finalidad de agilizar el transporte de sus usuarios finales en horas de alto tráfico. Hoy en día, el servicio de transporte ha sido sobrepasado, así lo explico Lino de la Barrera, ex asesor del Ministerio de Transportes y Comunicaciones, que el Metropolitano se diseñó para 750 mil usuarios al día y ocho años después ha llegado al tope de su capacidad. El lugar donde se puede apreciar mejor el problema es en la zona norte de la ciudad de Lima (Distritito Los Olivo), en la estación El Naranjal, debido a que la capacidad fue sobrepasada. El aforo de la estación es de 2450 personas de capacidad máxima y actualmente se trabaja con una capacidad mayor, provocando una aglomeración de personas, con tiempos de espera de más de 30 minutos y condiciones inseguras respecto a la seguridad física de los usuarios finales. La estación se ve más afectada en horas punta, ya que la afluencia de gente se incrementa de manera considerable para los destinos de la zona sur (Distrito Chorrillos) en horas punta de la mañana (7:00 a 9:00 am) y para los destinos en zona norte (distritos aledaños) en horas punta de la tarde (5:00 a 10:00 pm), provoca largas filas en las zonas de metropolitanos y alimentadores, generando desorden en la gente por llegar a su lugar de destino. Dando como resultado usuarios finales inconformes,  teniendo como consecuencias protestas de inconformidad de las condiciones del servicio exigiendo mas líneas de buses (al igual que la administración se lo solicita a la municipalidad de Lima). La infraestructura actual de dicha estación, fue divida en partes iguales para los destinos de los alimentadores y metropolitanos, provocando así el congestionamiento en ciertos destinos más que en otros, debido a que la demanda no es la misma para todos los destinos. En la estación en horas punta de la tarde, la zona de alimentadores esta congestionada y la zona de troncales están prácticamente vacía, por lo tanto se analizaran estas zonas indicadas debido a su factibilidad de adaptación. La administración del transporte agiliza el flujo de personas de la estación con trabajadores que piden buses cuando la demanda para un destino incrementa o cuando un bus viene retrasado.



METODOLOGÍA

Para esta investigación se desarrollo un enfoque correlacional, no experimental, descriptivo y cuantitativo, llevando a cabo estudios de capacidad de personas en la estación y  una toma de tiempos para saber la frecuencia de llegadas y salidas de buses, así como la cantidad de usuarios que acuden en horas en punta. Obteniendo como resultado que la capacidad de la estación estaba rebasada en más de 200 %. Asimismo, se confirmo que la zona más congestionada en la estación en el horario de la mañana es la zona de metropolitanos y la más congestionada en la noche es la de los alimentadores. Por ello, se desarrollo la siguiente estrategia: Tomar los 2 alimentadores más concurridos de la hora punta de la tarde (basándonos en el principio de Pareto, que si se resuelve el 20% más importante del problema, se resuelve el 80% restante), distribuirlo en la zona de metropolitanos que es la zona mas descongestionada de la tarde, para así disminuir el trafico de gente de la zona de alimentadores y trasladarlos a la zona mencionada. Se hizo mediante el rebalanceo de cargas de trabajo de cada andén.


CONCLUSIONES

La estación fue diseñada de manera errónea en muchos sentidos, pero sobre todo en capacidad, debido a que no se planeo el crecimiento poblacional de la ciudad de Lima. Se desarrollo una solución óptima y real basada en la adaptabilidad de las estaciones menos concurridas del metropolitano en horario punta de la tarde (Expreso 3 y Ruta A) para poder recibir a los 2 alimentadores más demandados de la hora punta de la tarde (Tahuantinsuyo y Carabayllo), y gracias a los datos recabados y a estudios de ingeniería, dio como resultado una reducción de 7,830 personas a 5,450 personas en la zona de alimentadores, es decir una mejora de más del 30% de la situación actual respecto al congestionamiento de personas en la zona de alimentadores, mejorando el flujo de personas para una distribución optima en la zona de alimentadores y metropolitanos. Por consiguiente las condiciones de seguridad se recuperan en la estación, debido a que la llegada y salida de personas es en menor cantidad. Otro dato a destacar es que la compra de buses sería una inversión fallida debido a que la frecuencia de llegada y salida de buses es la adecuada según la capacidad máxima de la estación, de otra manera, solo generaría acumulación de buses y demoras en frecuencia de llegada. Por lo tanto, esta propuesta servirá para que la administración del metropolitano desarrolle estrategias a futuro para mejorar el servicio y la satisfacción de los usuarios finales empleando datos en tiempo real de una aplicación:  SMART STATION: ADAPTACION DE ESPACIOS Fase 1: Zona de troncales libre en "x" anden. Fase 2: Comunicación entre alimentadores y estación constante mediante APP diseñada exclusivamente para la estación. Fase 3: Algoritmo de decisión (tipo aeropuerto/uber) para elegir y avisar a conductor de alimentador a que anden llegar. Fase 4: Llegada de alimentador a andén designado por el algoritmo. Fase 5: Carga/descarga de pasajeros en la estación "El Naranjal". Resultado: Des congestionamiento eficaz de la estación "El Naranjal". Teniendo como resultado final el desarrollo de un buen servicio y la satisfacción de los usuarios finales en base a nuestro proyecto de investigación.
Hernández Esparza Jacqueline Jethzabel, Instituto Politécnico Nacional
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

MANIPULACIóN DE ROBOT NAO MEDIANTE CONTROL GAMESIR G3S


MANIPULACIóN DE ROBOT NAO MEDIANTE CONTROL GAMESIR G3S

Hernández Esparza Jacqueline Jethzabel, Instituto Politécnico Nacional. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente nuestra sociedad se encuentra en constante interacción con la tecnología, en los últimos años esta rama de la ingeniería ha mostrado grandiosos avances, especialmente tratándose de robótica, las metas que se han propuesto y los proyectos que se desarrollan suelen ser retadores e incluso un tanto ambiciosos. Los robots están inmersos en numerosas áreas de nuestra vida y esto se debe a que su eficiencia para realizar tareas cubre un campo muy extenso, un claro ejemplo de esto es el Robot NAO de Aldebaran Robotics. Este robot humanoide es interactivo y programable, su capacidad para llevar a cabo acciones o movimientos es impresionante y se le puede ver actuar con naturalidad en diferentes ambientes. Uno de los propósitos principales que se le atribuyen a NAO es el de fungir como apoyo para la educación, además de provocar el interés de los más pequeños hacia carreras que aborden la manipulación de esta clase de productos. A la fecha, bastantes escuelas y organizaciones intentan fomentar el estudio con técnicas como esta, por lo que es importante saber cómo controlarlo y así dar el mensaje que se desea. Uno de los retos de este tema es lograr que el control del robot se haga de manera más simple y disponible, por lo que en este verano de investigación se plantea conectar dos dispositivos distintos, un control de videojuegos GameSir G3s y  el Robot NAO.



METODOLOGÍA

Para comenzar se consultó la documentación del NAO para conocer las partes que lo conforman, los métodos por los cuales puede ser programado y los requerimientos para ello, en este caso se utilizó Python como lenguaje de programación. Al leer la documentación el equipo se percató de que sólo es compatible con la versión 2.7 de Python, así que las librerías deben ser compatibles con esta versión, tales como: •          pynaoqi-2.1.4.13.win32 (utilizado en la conexión entre el NAO y Python) •          PIL-1.1.7.win32-py2.7 (utilizado en la toma de capturas con la cámara del NAO a través de Python) Se empleó el software Choregraphe 2.1.4 para comprender el uso de los módulos en el funcionamiento del NAO y de esta forma desarrollar un código con las funciones básicas que puede realizar el NAO a través del IDE (Entorno de Desarrollo Integrado) de Python IDLE. Después de comprender el funcionamiento del NAO, se procedió a la búsqueda de información sobre el control  GameSir G3s para así conocer las opciones de enlace y trabajo del dispositivo con las que se contaban.  Sobre esto,  se encontró que el software Xpadder 2016.05.01 era un buen candidato para configurar las acciones por cada botón del control. Posteriormente se creó un código que obtiene las coordenadas del posicionamiento con IDLE de Python y las acciones que NAO podría realizar con cada botón. Otra prueba desarrollada durante este proyecto fue el funcionamiento con electrodos para la lectura de gestos faciales por medio de la diadema EPOC-EMOTIV, los cuales se enlazaron al código antes realizado en el NAO, de esta forma se logró mover al Robot NAO a través de los gestos faciales. Para ello se manejaron las funciones gratuitas del software Emotiv Xavier ControlPanel v3.3.3 , que permite utilizar el giroscopio de la diadema por medio del mouse de la computadora.


CONCLUSIONES

En el periodo de estancia se adquirieron conocimientos acerca de dispositivos programables que no son de fácil acceso por su valor monetario, en este verano se llevaron a cabo bastantes investigaciones acerca de librerías y sus funcionamientos en el lenguaje de desarrollo Python para poder utilizarlas en el manejo del robot, y otros software que nos permitieran enlazar ambos dispositivos. También se utilizaron ciertos software de prueba para verificar el correcto funcionamiento de los equipos, algunos de ellos no fueron de utilidad para el código realizado con la función de la interconectividad en el que se utilizaron las diferentes librerías. Esta experiencia fue enriquecedora, puesto que se alcanzaron todas las metas propuestas a principio del verano de investigación. Considero que fue un proyecto exitoso, ya que se logró que dos dispositivos se desempeñaran de manera conjunta para cumplir con tareas que van más allá de su propósito individual
Hernández Franco Ariadna, Universidad Veracruzana
Asesor: M.C. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia (Colombia)

RETOS DE LA GESTIÓN DEL TALENTO HUMANO EN LA INDUSTRIA 4.0


RETOS DE LA GESTIÓN DEL TALENTO HUMANO EN LA INDUSTRIA 4.0

Hernández Franco Ariadna, Universidad Veracruzana. Vera Martínez Elías Gerardo, Universidad Veracruzana. Asesor: M.C. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El propósito de este estudio, busca encontrar líneas de análisis para la formación de los trabajadores del futuro, articulados con la Industria 4.0. Pues con la inminente llegada de esta nueva era, queda en duda cómo será la gestión de este significativo recurso, tanto para las empresas como para el mismo trabajador. La investigación se realiza para dar un panorama amplio de lo que implica para un trabajador ser parte de la Industria 4.0 y los retos más significativos de las organizaciones y gobiernos para gestionar de forma efectiva este cambio. 



METODOLOGÍA

La estructura metodológica de la investigación está integrada por dos fases: vigilancia tecnológica descriptiva para la identificación de tendencias sobre el campo de conocimiento y revisión analítica de literatura para profundizar en el entendimiento del tema  A continuación se describen los pasos detallados que se llevaron a cabo en la investigación. Se adoptó un enfoque inductivo, que incluyó una serie de entrevistas en profundidad con una serie de figuras de alto nivel en dos empresas de Colombia. Vigilancia Tecnológica: - Palabras clave de estudio                                           - Búsqueda base de datos y VantagePoint Revisión Sistemática: - Planeación                                        - Desarrollo de Revisión                                        - Revisión de Resultados Revisión Analítica: - Realizar entrevistas empresas estratégicas                                   - Confrontar trabajo de campo y revisión                                                      sistemática                                   - Análisis de información                                   - Identificación de gaps                                   - Conclusiones  En esta investigación se utilizó como criterio de exclusión en el proceso de filtrado de los datos obtenidos en la base de datos: el análisis de artículos de revisión y el estudio de documentos que se orientaran a la identificación del concepto de Industria 4.0 relacionadas con la gestión de personas y talento humano. Considerando como referente a Kitchenham [10], la metodología de revisión sistemática siguió tres fases que se describen a continuación:     Planeación: En esta etapa se estableció un protocolo de búsqueda para realizar la revisión de literatura. Desarrollo de la revisión: En esta etapa se establecieron los criterios de revisión, para sustentar teóricamente el estudio [11], y poder desarrollar un ejercicio de revisión integrando una perspectiva analítica. Publicación de resultados: Los 46 artículos resultantes del proceso de análisis, fueron procesados, se construyeron dos categorías analíticas que permitieron organizar los resultados que se sintetizan en este documento: concepto y tendencias asociadas al campo de conocimiento.  


CONCLUSIONES

La Industria 4.0 es un tema emergente de investigación que está a la vanguardia de nuevos cambios sociales e industriales que influye directamente en la gestión del talento humano, es importante que se determine con una visión más clara las estrategias planteadas para la mitigación de las brechas con un objetivo efectivo de analizar la situación del talento humano con la Industria 4.0. Un hallazgo importante en la vigilancia tecnológica, fue la carencia de análisis en la región de Latinoamérica, los estudios estaban centrados en Europa, China y América del norte.     Básicamente los cambios tecnológicos implican cambios de comportamiento y esto, con planes adecuados, se permitirá un beneficio cooperativo, sin embargo, lo anterior,  implica compromiso de directivos, articulación entre la academia y las necesidades del contexto, preparación de los encargados de gestión humana en procesos de creación de perfiles, selección y permanencia de personal y además estudios alrededor de gestión del cambio en donde se prepare a las personas en las nuevas líneas de gestión y trabajo para la adopción de competencias.   Por otro lado, es importante generar mesas de discusión para identificar puntos estratégicos de disrupción en las empresas de Latinoamérica. Gran porcentaje de la industria en esta región es pequeña y mediana empresa, lo cual trae consigo, la baja inversión en recursos enfocados a la prospectiva estratégica y crecimiento de sus empleados.
Hernández Franco Mariana, Universidad Veracruzana
Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)

FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL


FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL

Hernández Franco Mariana, Universidad Veracruzana. Herrera Fletes Denyce, Instituto Tecnológico de Tepic. Lopez Parra Vanessa, Instituto Tecnológico de Tepic. Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia). Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea. Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este documento se planteará una comparación entre la manufactura tradicional y la manufactura aditiva por impresión en 3D para la fabricación de una prótesis transtibial de modo que se resuelva la cuestión: ¿Por qué el proceso de manufactura aditiva es mejor que el proceso de manufactura tradicional?



METODOLOGÍA

Este documento es un proyecto de investigación de tipo cualitativo en el que se pretende hacer una comparación entre la fabricación de una prótesis de extremidad inferior transtibial a través de manufactura tradicional y manufactura aditiva, con el objetivo de analizar las dos modalidades de la manufactura y determinar el impacto que estas generan desde una perspectiva multi criterio que comprenda el aspecto ambiental, social y económico. Para la identificación del problema se realizará un Value Streaming Map (VSM), con la finalidad de identificar la raíz del problema, las causas y los efectos del problema. Para la recopilación de información se hará una revisión del estado del arte y análisis de la bibliografía encontrada en bases de datos de artículos científicos.


CONCLUSIONES

La manufactura aditiva se ha proyectado para reemplazar a la manufactura tradicional; emplear la impresión en 3D para transformar un modelo digital en un objeto físico presenta ciertas ventajas y se considera como un proceso de manufactura sustentable. Sin embargo, actualmente carece de cierta rigidez necesaria para su introducción total en la industria manufacturera. Esto representa un desafío para la ingeniería y un gran avance para la industria en su objetivo por llegar a la industria de la tecnología y la digitalización.
Hernández Garay Frida Jaqueline, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Oscar Augusto Peralta Rosales, Universidad Nacional Autónoma de México

CáLCULO DE CONCENTRACIóN DE CONTAMINANTES ATMOSFéRICOS CON FACTORES DE ALTITUD Y PRESIóN DE LA CDMX


CáLCULO DE CONCENTRACIóN DE CONTAMINANTES ATMOSFéRICOS CON FACTORES DE ALTITUD Y PRESIóN DE LA CDMX

Hernández Garay Frida Jaqueline, Universidad Autónoma de Ciudad Juárez. Payán Enríquez Valeria, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Oscar Augusto Peralta Rosales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la Ciudad de México se realizan diariamente actividades tanto a nivel doméstico como a nivel industrial. En estas actividades puede llevarse a cabo la quema de combustibles fósiles, biomasa o distintos procesos industriales como la molienda, los cuales son capaces de generar miles de toneladas de contaminantes, de los cuales una gran cantidad es transportada hacia la atmosfera a partir de sus interacciones con los parámetros meteorológicos presentes, lo que puede provocar un deterioro a la calidad del aire y tener efectos negativos en la población y el medio ambiente. Para llevar a cabo el monitoreo de los contaminantes que se encuentra en la Ciudad de México se utiliza el Sistema de Monitoreo Atmosférico, donde se encuentran varios subsistemas, entre ellos La Red Automática de Monitoreo Atmosférico (RAMA), la cual mide las concentraciones de distintos contaminantes en la región de la Ciudad de México mediante más de 30 sitios de monitoreo dispersos en puntos estratégicos. La problemática a resolver es el conocer la cantidad total de masa contaminante a la cual se encuentran expuestas las personas, tomando en cuenta el factor de altitud al llevar a cabo correcciones de volumen especificos para la Ciudad de México, ya que esta no se encuentra a condiciones estándar de presión o temperatura.



METODOLOGÍA

Por medio de la plataforma en línea del Sistema de Monitoreo Atmosférico se utilizó el subsistema de La Red Automática de Monitoreo Atmosférico (RAMA) para la recopilación de los datos meteorológicos y de las concentraciones de contaminantes atmosférico del periodo enero-mayo del año 2019 en las 36 estaciones que cuenta la red. Una vez obtenido los datos, se procedió a cambiar la unidad de medición de los contaminantes utilizando la ecuación 1, esto con el propósito de que los datos estén a las condiciones que se encuentra la Ciudad de México. Por medio de esta misma ecuación se modificaron las concentraciones de los contaminantes atmosféricos de la Organización Mundial de la Salud (OMS) y de las Normas Oficiales Mexicanas (NOM). pon a mg/m3 = (0.0409*[ppb]*peso molecular) * ([298.15 k/T] * [P/760 Torr]) ecuación 1 Posteriormente se realizó una evaluación de los datos que fueron modificados para eliminar posibles errores. Una vez hecho esto, se procedió a sacar el área bajo la curva a partir de la ecuación 2. A = A2 - A1 Ecuación 2


CONCLUSIONES

Durante la estancia de verano de investigación se logró modificar la unidad de los datos de las 36 estaciones de La Red Automática de Monitoreo Atmosférico (RAMA) y poder calcular el área bajo la curva de cada contaminante por hora, posteriormente se realizó la sumatoria de las áreas por mes del año 2019. Todo el trabajo realizado anteriormente tiene como objetivo de ser multiplicado por la tasa de respiración de la población en la Ciudad de México y así poder calcular la masa total de contaminantes que fue expuesta la persona en cierto tiempo. Sin embargo, debido a la extensa cantidad de datos de cada una de las estaciones de la RAMA aun no se cuenta con los datos obtenidos de la cantidad de masa que la población inhala.
Hernández García Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL


REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL

García Rodríguez Oliver Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández García Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. Sosa Uribe Astrid Belén, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es una habilidad motora compleja derivada de la interacción de varios procesos sensorio-motores (Horak et al, 1997), la inestabilidad por tanto es la reducción de esta habilidad de interacción que afecta el movimiento y la realización de actividades cotidianas, así como la capacidad de independencia de las personas, lo cual genera alteraciones en su ritmo de vida y el de su entorno. Según datos del INEGI del 2010 muestran que tan solo de la población mexicana en ese año, las personas con alguna limitación motora, visual, auditiva, psicosocial o de aprendizaje alcanzaban la cifra de 4,527,784, de esta cifra cerca del 50% sufren de problemas al caminar o moverse, concentrándose principalmente en dos grupos, siendo el primero de 60-84 años en un 40.7% y el segundo de 30-59 años en un 32.8% siendo la principal causa por enfermedad, seguido por la edad avanzada.  



METODOLOGÍA

Se utilizó un protocolo de ejercicios del área de fisioterapia proporcionado por la Universidad de Manizales en Colombia diseñado por Naranjo et al., (2014) del cual se tomaron únicamente las  actividades enfocadas a flexibilizar el sistema nervioso ideando una manera de realizar dichos ejercicios por medio de la implementación de mecánicas propias de los juegos,como un sistema de puntuación donde se suman  puntos si lo hace de manera correcta o se restan puntos si lo hace de manera errónea. Se analizaron los ejercicios del protocolo basándose en la posibilidad de implementación en un ambiente tridimensional de manera que se pudieran aplicar técnicas lúdicas. Una vez seleccionadas las actividades que se pudieran realizar aplicando lo anterior, se inició la fase de diseño y planeación de la escena dentro del motor de videojuegos Unity, utilizando SteamVR, una librería diseñada por Valve la cual nos permite trabajar con el sistema de realidad virtual HTC VIVE. Se diseñó un entorno dentro de Unity el cual consta de una casa amueblada con jardín, dentro de la cual se implementaron las actividades seleccionadas del protocolo, creando en cada escenario un sistema enfocado a controlar el comportamiento de cada elemento necesario para realizar dicha actividad utilizando scripts que son códigos en lenguaje C#. La primer actividad desarrollada fue la Actividad 1 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales superiores de ambos brazos, por lo cual esta actividad dentro del entorno del software se llevó a cabo en el patio de la casa, colocando varios objetos, entre los cuales fueron una mesa con tres tazones y árboles a los lados con frutas colgando de ellos, con el objetivo de que el paciente estuviera sentado y tomara dichas frutas y las colocara dentro de los tazones correspondientes a cada fruta.  El primer script para controlar la actividad es el que corresponde al funcionamiento del árbol, el cual cada vez que el jugador toma una fruta y la coloca en el tazón correcto, el sistema genera otra, ya sea de manera alternada, solo del lado derecho o solo del lado izquierdo según se solicite. El segundo script corresponde al control de las frutas, si la fruta cae en el tazón correcto incrementa un punto, y en caso de caer en el tazón incorrecto o en el suelo, este decrementa. El tercer script se encarga de controlar el límite máximo de flexión de los brazos del paciente, el cual por medio del control, presiona un botón para definirlo en el ambiente virtual, estableciendo la posición adecuada para generar los árboles con las frutas. La segunda actividad desarrollada fue la Actividad 4 de la Fase 1 del Día 2 del protocolo, la cual establece que el paciente de pie debe sostener un bastón tomándolo con ambos brazos subiendo y bajando, esta actividad se implementó en el jardín de la casa, y consiste en controlar un papalote por medio de la altura de un bastón tomándolo con ambos brazos subiendo y bajando, buscando evitar que dicho papalote colisione con aves que se irán generando a los costados del mismo en el cielo, además, cada que el paciente llegue a su altura máxima con el bastón, se incremente un punto en el sistema, y en caso de que el papalote choque con un ave, se decrementa. El primer script de esta actividad corresponde a identificar la altura máxima y mínima que pueda lograr el paciente con ambos brazos. El segundo script controla la altura del papalote según la posición y el movimiento del bastón. El tercer script genera las aves a los costados del papalote cada ‘n’ segundos y una velocidad ‘n’. El cuarto script controla al ave moviendolo hacia el papalote y si choca con el papalote decrementa los puntos del paciente. La tercer actividad desarrollada fue la Actividad 2 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales inferiores de ambos brazos, por lo cual esta actividad comparte cierta similitud con la Actividad 1 del mismo día, debido a esto se tomaron los mismos scripts antes mencionados y el mismo entorno y solo se cambiaron las frutas agregando unas nuevas y en lugar de utilizar árboles, se implementaron arbustos los cuales se generan a baja altura.  


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos y prácticos acerca del desarrollo de entornos de realidad virtual utilizando el software de Unity con el lenguaje de C#, a través de la generación de entornos para atender el problema de la inestabilidad postural en adultos; sin embargo, considerando la extensión del proyecto, este aún se encuentra en la fase de desarrollo, por lo tanto no se pueden mostrar datos con precisión referentes a los resultados de los pacientes, aún así las escenas trabajadas ya pueden ser probadas y puestas para evaluación.
Hernández German Miriam, Instituto Politécnico Nacional
Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

SíNTESIS Y CARACTERIZACIóN DE ENREJADOS MOLECULARES (TETRACIANONIQUELATO DE COBRE) APTOS PARA CAPTURAR DIóXIDO DE CARBONO Y CON ELLO COMBATIR EL CALENTAMIENTO GLOBAL


SíNTESIS Y CARACTERIZACIóN DE ENREJADOS MOLECULARES (TETRACIANONIQUELATO DE COBRE) APTOS PARA CAPTURAR DIóXIDO DE CARBONO Y CON ELLO COMBATIR EL CALENTAMIENTO GLOBAL

Hernández German Miriam, Instituto Politécnico Nacional. Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

De acuerdo al reporte del Grupo Intergubernamental de Expertos sobre el Cambio Climático IPCC, hoy el planeta es en promedio 1 grado centígrado más caliente del nivel preindustrial de la segunda mitad del siglo XIX y en caso de que el planeta llegue a 2 grados centígrados más caliente generaría la desaparición total de los arrecifes de coral, el aumento del nivel del mar en 46 centímetros, acidificación del océano y llevará a que el 37% de la población esté expuesta a calor severo al menos una vez cada 5 años. Por lo cual es importante desarrollar planes y soluciones emergentes que decrezcan el calentamiento global. Ante dicha problemática en el Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (CICATA) se llevo a cabo la síntesis y caracterización de una familia de materiales nanoporosos para su aplicación potencial en almacenamiento y separación de gases en este caso del CO2.



METODOLOGÍA

Para el desarrollo de la investigación se trabajó en la síntesis de enrejados moleculares en este caso de tetracianoniquelato de cobre a partir de nitrato de cobre y el complejo tetracianoniquelato de potasio, con el objetivo de obtener familias de materiales nanoporosos, así mismo en dicha síntesis se añadieron diferentes surfactantes (citrato de sodio y polietilenglicol) para analizar con dicha modificación si se presentaba diversidad de estructura y tamaños de poros ajustables. Posteriormente de la síntesis, el producto de la reacción se sometió a un proceso de reposo de 5 días, lavado, centrifugación y secado para obtenerlos en forma de polvo y continuar con la caracterización espectroscópica y estructural en infrarrojo del material nanoporoso y analizar con los gráficos obtenidos la detección de las moléculas presentes en el material, así como determinar si el material tiene el potencial para la separación de mezclas de gases de interés energético y ambiental.


CONCLUSIONES

A partir del trabajo realizado se espera que dichas familias de materiales nanoporosos junto con el surfactante añadido presenten tamaño de partícula modificado y un área superficial apta para capturar y separar el dióxido de carbono. Así mismo con dicho desarrollo tecnológico se espera combatir y disminuir los efectos atmosféricos del calentamiento global. 
Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Hernández Hernández Jesús Fernando, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

SISTEMAS RECOMENDADORES CON POSIBLES APLICACIONES E INNOVACIONES.


SISTEMAS RECOMENDADORES CON POSIBLES APLICACIONES E INNOVACIONES.

Hernández Hernández Jesús Fernando, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad vivimos en un mundo muy innovador, las nuevas tecnologías son tan sutiles que ni siquiera nos damos cuenta de cómo ayudan a mejorar nuestro entorno, un claro ejemplo son los sistemas recomendadores que son utilizados por las grandes empresas de internet. Con la ayuda de la inteligencia artificial se han podido crear este tipo de sistemas recomendadores que están basados en un algoritmo, la base de este algoritmo es el machine learning. La comunidad científica es muy importante para los grandes desarrollos de la humanidad, sin embargo, actualmente el internet está tomando una fuerza muy grande entre las personas jóvenes. Es muy común encontrar en internet diversas series de noticias falsas o no tienen sustentos, lo peor es que los jóvenes en vez de informarse, se quedan con ideas erróneas. Una de las principales razones por las que se prefiere buscar en internet es porque es más fácil entrar a un buscador y que te dé solo que te interesa investigar, y no recurrir a un libro y realizar esa búsqueda por tu cuenta, para después darse cuenta que no se encuentra la información en ese libro y posteriormente tener que buscar en otro.



METODOLOGÍA

Internet pone ante el usuario tantas opciones que ya no es suficiente con un buscador. La mente humana no está preparada para procesar el gran volumen de información al que tiene acceso y los usuarios buscan consejos en el mundo digital para descubrir nuevas posibilidades. La inteligencia artificial (IA), a través del ‘machine learning’y de la técnica conocida como ‘deep learning’, permite crear algoritmos que replican la lógica que se sigue en la vida antes de tomar una decisión y que lleva a preguntar a un amigo, con el que se comparten aficiones, o a un experto de confianza. La gran diferencia es que en lugar de preguntar a dos o tres personas, la inteligencia artificial nos permite hacer consultas que equivaldrían a hablar con una ciudad al completo.     PRINCIPALES FUNCIONALIDADES DE LOS SISTEMAS DE RECOMENDACION Recomendar productos: El sistema recomendador puede mostrar una lista de productos al usuario que puedan interesarle y mostrarles además ordenados por los intereses del usuario. Predecir las relaciones de un determinado producto: Se deduce cuáles pueden ser las vacaciones para un producto específico. Hacer recomendación a partir de un conjunto de datos determinados: El sistema se tiene que encargar de realizar las recomendaciones teniendo en cuenta las restricciones de los propios usuarios. Basados en la información anterior se prosiguió a buscar ejemplos relacionados con cómo utilizar algunos tipos de recomendadores. El éxito de empresas tan grandes como Netflix, Amazon, Google, etcétera, es por su utilización de los sistemas recomendadores, es por eso que se investigó que tipos de sistemas recomendadores utilizan. Desde el momento en el que nos damos de alta en uno de estos canales, su algoritmo empieza a funcionar hasta averiguar qué tipo de espectadores somos, cuántas personas conviven en nuestra casa, las horas en las que consumimos televisión, o los últimos contenidos que hemos visto.  Y, a partir de ahí, comienza a funcionar el sistema de recomendaciones. «Estas plataformas no sólo observan los elementos demográficos tradicionales de ubicación, edad o sexo. Su sistema es capaz de segmentar poblaciones por los contenidos que más les gustan y que más suelen ver, y ponerlos en relación con los que más les han gustado o podrían gustar a gente como ellos».


CONCLUSIONES

Con toda la información recabada, nos damos cuenta que la IA está resolviendo diversas problemáticas de nuestra sociedad actual, se propone realizar una aplicación especializada en buscar artículos de divulgación científica.  La diferencia con los demás buscadores es que aparte de indagar en los artículos científicos, también tendrá una sección donde se puedan ver los últimos artículos publicados, y se podrá mostrar en una feed de la pantalla de inicio una serie de artículos basados en los gustos del usuario. Se tiene que iniciar sesión y se proporcionarán opciones de temas de investigación para que escoja 3 los cuales sean de su agrado, con esta primera información se empezara con el sistema de recomendación de tipo reactivo, posteriormente cuando empiece a buscar, se aplicara el siguiente tipo que es el proactivo. La aplicación debe tener un diseño que resulte atractivo y una interfaz fácil de usar, esto con el objetivo de atraer al público joven y se adentre en el mundo científico, aparte que podrá hacer sus investigaciones dentro de la app sin mayor problema. Se recabará información sobre los artículos y que tan buscados son, se podrá calificar a cada artículo, esto con el objetivo de tener un apartado donde se muestren los artículos más populares. Si se desea se puede guardar un artículo al marcarlo como favorito, al igual que crear listas para organizarlos de mejor manera. Por último, se facilitará un formato para poder citar a dicho artículo en el cual se presentarán todos los datos tanto del autor como artículo y lugar de publicación.
Hernandez Hernandez Stefhany Pamela, Instituto Tecnológico de Pachuca
Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA


SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA

Bautista Rodríguez Katya, Instituto Tecnológico de Morelia. Hernandez Hernandez Stefhany Pamela, Instituto Tecnológico de Pachuca. Hernández Moreno Vianey, Instituto Tecnológico de Pachuca. Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Guanajuato al ser catalogada patrimonio de la humanidad y una de las ciudades más bellas de México, es una zona en la que según estudios de SECTUR (Secretaría de turismo), cada año incrementa el turismo nacional (92 %) e internacional (8%) en la capital del estado, a excepción del año pasado que tuvo un decremento significativo. El panorama es alentador, sin embargo, a pesar de que la ciudad cuenta con guías turísticas e información tangible acerca de algunos de los lugares emblemáticos todavía no existe alguna plataforma virtual donde se pueda acceder fácilmente a la información turística de cada uno de los sitios, eventos importantes, servicios, entre otros, de Guanajuato desde antes de la llegada del visitante, ya que la información encontrada en sitio muchas veces es insuficiente para satisfacer al cliente o en dado caso, inexistente. Actualmente el incremento del uso de las nuevas tecnologías ha tenido un gran impacto en la sociedad, ayudando en distintos sectores del país, entre ellos el turismo, creando clientes globalizados con grandes demandas. Debido a ello, es que a lo largo del presente proyecto, se utiliza una de las tecnologías en tendencia, la realidad aumentada o por sus siglas en inglés AR, pues con la creciente llegada de turistas, es importante utilizarla como una herramienta de apoyo para el usuario, mezclando elementos físicos y tangibles con elementos virtuales en tiempo real permitiendo que el visitante visualice e interactúe con la ciudad mediante un dispositivo tecnológico mejorando la comprensión y la experiencia turística independiente.



METODOLOGÍA

Por la naturaleza de la investigación,  fue necesario incluir la investigación de campo para poder conocer las necesidades del proyecto, al igual que la recolección de información de cada uno de los lugares que se pretende tener en la aplicación, ya que, al ser una investigación aplicada en la cual se quiere promover, aumentar y atraer el turismo en Guanajuato, se busca obtener la información relevante y necesaria para el turista y así crear una aplicación amigable para el mismo.   Para iniciar el proyecto, se comenzó con la recolección de información específica necesaria para satisfacer los requerimientos de los turistas; esta fue seleccionada gracias a las necesidades detectadas por cada una de las integrantes del equipo al conocer y vivir en la entidad guanajuatense. A partir de esta información, se prosiguió a efectuar un prototipo del diseño de la aplicación sobre el cual se estuvo trabajando a lo largo de todo el verano de investigación; se utilizó el programa de animación y desarrollo Unity para poder desarrollar la aplicación propuesta.  Se inició con la recabación de información de cada uno de los lugares emblemáticos, siendo esta los horarios, costos, dirección, información histórica y cultural del lugar y fotografías de cada uno de estos. Al mismo tiempo, se prosigue con el diseño de la interfaz de la aplicación y el diseño de experiencia para que al usuario le sea intuitivo y de uso fácil.  Transcurrido este proceso, al estar implementando la información de los lugares en el software, se llevó a cabo la implementación de los modelos 3D de cada uno de los lugares elegidos para el prototipo y de sus fotografías en la aplicación para poder obtener una lectura del lugar emblemático con ayuda de la AR; cada avance efectuado en la aplicación es probado en celulares para poder comprobar su óptimo funcionamiento. Una vez que ya se tiene el prototipo se procede a probarla en la ciudad de Guanajuato para poder comprobar cada uno de los elementos de la misma, y de ser necesario, la corrección de algún elemento de la aplicación. 


CONCLUSIONES

Durante la estancia de verano en la ciudad de Guanajuato se lograron concluir las metas iniciales de la fase preliminar del proyecto, aprendiendo del uso de las nuevas tecnologías, los programas digitales para la aplicación de información turística con realidad aumentada y al mismo tiempo, conocer la ciudad, su historia y arquitectura. Se espera que en un futuro tenga un impacto importante en la ciudad y en la comunidad turística haciendo que la experiencia del usuario sea de una manera interactiva y didáctica para conocer los lugares emblemáticos de una de las ciudades más importantes e históricas del país incrementando el turismo exponencialmente. De igual forma, que esta investigación sirva como ejemplo para su implementación en otras ciudades dentro de la República Mexicana.
Hernández Jiménez Héctor Roberto, Instituto Politécnico Nacional
Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima

CONTROL, AUTOMATIZACIóN Y CAPTURA DE DATOS DE UN ROBOT MANIPULADOR MEDIANTE MATLAB, ARDUINO Y APLICACIONES APP.


CONTROL, AUTOMATIZACIóN Y CAPTURA DE DATOS DE UN ROBOT MANIPULADOR MEDIANTE MATLAB, ARDUINO Y APLICACIONES APP.

Hernández Jiménez Héctor Roberto, Instituto Politécnico Nacional. Asesor: Dr. Jorge Gudiño Lau, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La automatización de un robot puede ser hasta cierto punto complejo si se toma todos los parámetros que uno quiere para poder manejarlos con practicidad como lo es la velocidad, resistencia, exactitud, valores reales, grados de movimiento, fuerza etcétera. La visualización real del trabajo hecho por un robot es, la mayoría de las veces, ciega ya que se confía en las ordenes mandadas por el operador lo que disminuye la exactitud y eficiencia del robot. Los errores o los problemas que surgen en la industria son muy frecuentes por la falta de registros de trabajo hecho por el robot de manera real (físicamente), lo que se podría disminuir si hubiera protocolos que registraran el comportamiento del robot. Los factores que provocan que no se dé la suficiente importancia a este factor seria lo complejo que seria estructurar alguna manera, programa o protocolo.



METODOLOGÍA

Se uso un brazo robótico de 4 grados de libertad impreso en 3D hecho de material PLA (polímero constituido por moléculas de ácido láctico, con propiedades semejantes a las del tereftalato de polietileno) acoplando servomotores modelo SG90 con un voltaje de alimentación de 4.8v-6v teniendo una fuerza de torque de 2.5 Kg/cm. Lo que se necesitó como adquisición de datos para poder controlar los servomotores y así el brazo fue la tarjeta Arduino basándose en el software Arduino IDE junto con Matlab El software de Matlab se utilizo principalmente para poder adquirir los datos enviados por el robot y traducirlos por la placa de Arduino y así poder analizar el comportamiento del robot manipulador. Se creo una interfaz en Matlab para lograr cada uno de los servomotores de tal manera que se pueda visualizar los grados de la cual se estaba dando la orden. Al dificultar la practicidad de este programa se utilizó otro método más fácil para controlar al robot mediante un usuario Al crear una aplicación App-Arduino se controló más fácilmente por lo que se procedió a agregar una opción en la cual se pudiera grabar una rutina para que realizara un trabajo. La aplicación fue hecha en la plataforma App Inventor por lo fue fácil hacer la comunicación Arduino-Celular, utilizando la herramienta de conexión por Bluetooth.   Al completar la programación y experimentar el comportamiento del robot se procedió a analizar estos datos que el mismo robot hacia por lo que restructuramos la electrónica de los 4 servomotores que contenía el robot. De la parte del potenciómetro, que retroalimentaba el controlador de cada servomotor, se obtuvo en la pata de salida (terminal variable) un pin extra que leía los datos análogos que verificaban el movimiento de cada servomotor. Una vez realizada la modificación de cada servomotor se procedió a registrar los valores mandados y hacer una relación de una circunferencia (360°) con los bits que mandaba como señal el potenciómetro traducido por el Arduino para poder observar los grados que reales del cual se podía mover el robot. En esta parte se creó un Script en Matlab para que pudiera tomar los datos y hacer la relación. La fórmula basé que se utilizó para lograr hacer esta relación fue " x(180/1023)  el problema fue que en esta formula se utiliza cuando x va de 0 a 1023 bits por lo que no funciona ya que el rango de cada servomotor eran los siguientes: Base: 94-620bits Antebrazo: 220-623bits Brazo: 192-645bits Existiendo este problema se calculo otra formula la cual pudiera crear esta relación la cual fue (x-Vmin)*(180/(Vmax-Vmin))  que funcionaba para poder sacar el valor requerido (0-180°) con cualquier rango de números que se tiene. X=Valor que envía el Arduino Vmin=Valor mínimo del rango Vmax=Valor máximo del rango Al tener estos valores se graficaron en función del tiempo para poder identificar el correcto funcionamiento experimentando con varias rutinas, la principal fue intentar combinar dos señales de dos servomotores una que mande por señal un seno la otra un coseno por lo que se graficaron una en función de la otra e intentar que se lograra una circunferencia.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos de los servomotores, Arduino y robots manipuladores para ponerlos en práctica para el funcionamiento y automatización en el área de la industria intentando controlar todos los parámetros de este (velocidad, grados, movimiento, fuerza, voltaje etcétera). Se espera hacer mas eficiente el control de estos robots para que haya mas exactitud en estos y más duración de vida.
Hernández Lara Raúl, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)


SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)

Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango. Hernández Lara Raúl, Instituto Tecnológico Superior de Huauchinango. Méndez González Aldo Sebastián, Instituto Tecnológico de Chilpancingo. Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la tecnología ha avanzado a pasos agigantados, sin embargo, en las aulas de clases a nivel superior apenas se hace uso de ella, no más allá de emplearse en forma de una plataforma facilitadora para la comunicación y una herramienta de proyección de archivos de texto y audiovisuales. Siendo escasas o nulas las opciones de software enfocadas en un diseño o programa educativo especifico, en pos de mejorar la retención y reafirmación del conocimiento que adquiere el alumno. Se han realizado diversas investigaciones para la construcción de software educativo, especialmente para el área científica, siendo creados diferentes modelos de evaluación que permiten tener una guía para el desarrollo de este tipo de software. A pesar de ello, en el mercado existen muy pocas opciones donde el docente pueda discernir entre las aplicaciones que se adapten a sus necesidades y la de sus alumnos en el aula. Es por ello necesario el desarrollo de un software que funcione como una herramienta complementaria adaptada a los menesteres del aula, creando una relación tripartita entre el docente, el alumno y el equipo de desarrollo y diseño del software, implementando lo más reciente en la tecnología que el equipo pueda utilizar, para asegurar una experiencia de usuario y funcionalidad exitosa.



METODOLOGÍA

Para el diseño de las propuestas de las interfaces de usuario se utilizó la herramienta Balsamiq Mockup y el drag and drop de NetBeans, Al mismo tiempo que se hacia la selección de colores según las emociones, sensaciones y virtudes que cada uno de estos transmite, según lo que la autora Eva Heller describe en su libro Psicología del color. Después de haber seleccionado el diseño de interfaces y la paleta de colores para el programa, se siguio con la investigación en distintas fuentes para el contenido de las primeras cuatro unidades, con base a el temario del Tecnológico Nacional de México. También se creo ilustraciones propias para hacer más amena la lectura del alumno. Para la sección de evaluación del programa, se acudio a la escuela normal Profesor Fidel Meza y Sánchez, ubicada en la ciudad de Huauchinango, Puebla, donde maestros y estudiantes de la institución dieron su asesoria, dando sus opiniones acerca de nuestro proyecto. Aclarándonos que la mejor forma de evaluación que se podía utilizar era la evaluación formativa. Un asesor externo, docente del Instituto Tecnológico Superior de Huauchinango, nos guio para incluir la herramienta de evaluación con preguntas de opción múltiple y ejercicios teóricos acerca de cada unidad. Se continu con el desarrollo de applets para la parte interactiva del programa, inspirados por los temas que trata la materia, como: la resultante de fuerzas coplanares, la segunda ley de Newton, la óptica, la termodinámica, entre otros. Haciendo uso de las tecnologías disponibles para la graficación en 2D y 3D para el lenguaje de programación Java. Después se siguio con la migración del código, que ya se había avanzado anteriormente, al Modelo Vista Controlador, para lograr que el programa fuera escalable, modular y robusto. Para la creación de las vistas y para que estas se adaptasen a cualquier resolución de pantalla, se utilizó la librería MigLayout, siguiendo el prototipado del diseño elegido. Para cuando todo el código estaba unido, se comenzaron con las pruebas en busca de errores para luego corregirlos. Posteriormente se diseñó e implemento la página web oficial del proyecto, donde se describe de qué trata, sus objetivos y como funciona, además de mostrar una vista previa del programa. Se trabajó con el framework Laravel, para después montarlo en el hosting de Heruko en su versión gratuita. Para el diseño de la página, se optó por uno de tipo scrolling y responsivo utilizando el framefork Bootstrap.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos de las formas de diseño y desarrollo para un software interactivo con un enfoque educativo y ponerlos en práctica con las técnicas de la ingeniería de software, mas al ser un proyecto extenso, aún se encuentra en desarrollo y solo se ha acabado una versión alpha del mismo, lo que quiere decir que ya se puede probar el software, pero no contiene toda la funcionalidad que tiene contemplado el producto final.
Hernández López Andrés, Instituto Tecnológico Superior de Uruapan
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

METODOLOGíA SIX SIGMA, MEDIANTE EL APRENDIZAJE LúDICO.


METODOLOGíA SIX SIGMA, MEDIANTE EL APRENDIZAJE LúDICO.

Hernández López Andrés, Instituto Tecnológico Superior de Uruapan. Medina Vázquez Emanuel, Instituto Tecnológico Superior de Uruapan. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La utilización de juegos en el aprendizaje no deja de ser una técnica más para la facilitación del aprendizaje y si, igual que hablamos de aprendizaje basado en proyectos o aprendizaje basado en problemas o retos, hablamos de aprendizaje basado en juegos (ABJ) o Game based learning (GBL). Sin embargo, lo verdaderamente transformador es el juego entendido como actitud lúdica. Actitud que tiene que ver con la capacidad para asombrarnos, con la curiosidad, con las ‘ganas de…’, con la creatividad y el tratamiento no convencional de objetos e ideas. Es una actitud ante la vida capaz de transformar la educación, porque transforma al profesorado y al alumnado de manera recíproca. (Marín, 2018). Por otra parte, la metodología Six Sigma está obteniendo hoy en día unos magníficos resultados en multitud de campos y sectores tanto industriales como de servicios así que es de suma importancia que los estudiantes de Ingeniería Industrial la conozcan manejen y apliquen su metodología, herramientas y conceptos. Entre los problemas que se presentan para realizar prácticas sobre esta metodología, son los costos de los equipos o kit que  existen en el mercado, así como no es sencillo el poder conseguirlos, ya que la mayoría de ellos se consiguen en línea y no son fabricados en nuestro país y algunas de las propuestas alternas que existen a la hora de aplicar o desarrollar el juego las instrucciones no son claras y en algunas ocasiones parecieran que son incompletas por lo que se complica mucho reproducirlas y lograr los objetivos que se pretenden.



METODOLOGÍA

Se inicio con la búsqueda de la bibliografía y trabajos de referencia, para ir construyendo el marco conceptual y conocer que trabajos similares se han realizado en función de la temática a abordar. Se profundizo en el conocimiento de la metodología de Six Sigma, ¿qué es? ¿para que sirve?, conceptos básicos, la metodología DMAIC, herramientas fundamentales, aplicaciones, casos de aplicación. Se determino como trabajar a partir de diversas opciones de juegos que se revisaron en función de trabajos ya realizados, la facilidad para implementar y aplicar los conceptos y herramientas de la metodología, sus costos y la facilidad de conseguir los materiales necesarios. Ya con los materiales y la idea clara del juego a desarrollar, se comenzó a definir las actividades a realizar, es decir determinar los distintos escenarios donde se puedan llevar acabo, los objetivos, los materiales necesarios, las instrucciones e indicaciones, los formatos a utilizar, etc. Dar un nombre al juego, aplicarlo o llevarlo a cabo a nivel de prueba o piloto, para la realización de los ajustes necesarios en función del cumplimiento y logró de los objetivos planteados, y tener siempre la retroalimentación y mejora como parte de la robustez del juego desarrollado. Y por último la reproducción por parte de externos a través de la guía e instructivo desarrollado, para comprobar su reproducibilidad dentro de los parámetros y objetivos sobre los cuales se desarrollo el juego.


CONCLUSIONES

El juego desarrollado lleva por título six sigma bloquelandia es una dinámica en la cual se puede contrastar los distintos procesos que se pueden tener con dos productos similares. El objetivo es implementar conceptos de Six Sigma, aplicándolos en el proceso para la mejora del dicho, para así darlos a conocer de una manera dinámica y obtener un mejor resultado en el aprendizaje de dichos conceptos y aplicaciones. La realización del aprendizaje de Six Sigma mediante el uso del juego consistía en que los participantes de este mismo pudiesen aprender de una manera práctica lo que conlleva aplicar los conceptos de estas metodologías y de esta manera obtener conocimientos más profundos teórico-prácticos. Y que este haya sido desarrollado de una manera didáctica y con la ayuda de bloques similares a los Lego hace que la experiencia del mismo taller sea más versátil y de mayor inmersión. Es importante mencionar que el juego se está desarrollando a tres niveles: El primero la realizar promoción de la carrera de ingeniería Industrial a través del uso de esta metodología como ejemplo, la otra para desarrollar manuales de practicas para el desarrollo de esta metodología como materia dentro del programa de ingeniería industrial y por último como taller en el aprendizaje de dicha metodología, actualmente al momento de esta redacción se terminado la realización de los dos primeros niveles. En el transcurso de esta estancia de verano se logró no solo adquirir diversos conocimientos sobre el aprendizaje y las metodologías usadas y de esta manera aplicarlas a desarrollo de este taller, no obstante, al ser este un proyecto bastante ambicioso se encuentra aún en una fase de desarrollo no es posible mostrar los datos obtenidos. Se espera que el presente taller sea objeto de cambios en el mismo, para de esta manera el taller sea ampliado para conocer una mayor cantidad de conceptos más, y de igual manera el taller sea más completo.
Hernández Lopez Víctor Saul, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Ruben Herrera Galicia, Instituto Tecnológico de Tuxtla Gutiérrez

OPTIMIZACIóN, ANáLISIS Y CONTROL ASISTIDO POR MEDIO DE ARDUINO ETHERNET Y RASPBERRY PI 3


OPTIMIZACIóN, ANáLISIS Y CONTROL ASISTIDO POR MEDIO DE ARDUINO ETHERNET Y RASPBERRY PI 3

Hernández Lopez Víctor Saul, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Ruben Herrera Galicia, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La tendencia en la tecnología es integrar la informática, las comunicaciones y el control  con la finalidad de desarrollar sistemas inteligentes, que conectados a accesorios del hogar, la oficina o la industria tengan la capacidad de efectuar tareas de monitoreo, supervisión, análisis y control. Esto con la finalidad de hacer uso racional de la energía mejorando la eficiencia de los procesos.   Es así como surge una serie de paradigmas y conceptos llamados inteligentes encabezados por el internet de las cosas [5, 9], la computación en la nube [6, 7, 9], la computación en la niebla [7], la tecnología de las bases de datos y el control inteligente [1-10]. Ejemplos de esos paradigmas y conceptos son: smart city, smart energy, smart industry, smart manufacturing [6, 9], smart grid [3, 4, 10], smart building, smart home [7], smart plug [1, 5, 8].   En México los cobros excesivos son comunes y son cada vez más las personas y los directivos que suman esfuerzos e iniciativas para erradicarlos. Se considera que para mejorar la eficiencia en el consumo se deben desarrollar sistemas comercializables para medir los kW consumidos por el usuario, y que integren amigablemente el monitoreo, la supervisión, el análisis y el control inteligente.   Al carecer de un sistema de medición, los usuarios carecen de conocimiento e información suficiente en tiempo real. Esto ocasiona que se confían provocando muchos casos de desperdicio de energía, tanto en el servicio público, como en la industria, en la oficina o en el hogar.   Un problema grave es carecer de equipo, independiente y confiable, que respalde la lectura tomada por la empresa suministradora del servicio. Así mismo afecta desconocer la forma  en que se realiza la facturación. El usuario se imagina que solo se trata de la energía consumida, pero existen variables que se deben tomar en cuenta.   Otro problema grave es que existe el descuido de mantener energizados a accesorios eléctricos y electrónicos, aun cuando su trabajo es de vicio. Es decir: sin provecho. Algunos usuarios imaginan que no afecta, pero una comparación del gasto cuando se mantiene apagado lo más posible de aparatos muestra la gran diferencia.   Para hacer un ahorro considerable en el proceso del consumo de energía eléctrica se puede aplicar el paradigma de contacto inteligente, Smart plug, junto con el paradigma de internet de las cosas IoT. Un contacto inteligente, en colaboración con internet, hace posible las tareas de monitorear, supervisar, analizar y controlar de manera inteligente a cada aparato, por medio de una aplicación, a través de internet.



METODOLOGÍA

Se utilizaron dos placas de desarrollo: Arduino Ethernet y Raspberry Pi 3, las cuales fueron donadas por el Instituto Tecnológico de Tuxtla Gutiérrez y el Tecnológico Nacional de México. Dichas placas de desarrollo se encargaban de diferentes funciones.   Lo primero que se considera son los accesorios físicos, los aparatos eléctricos y electrónicos. Los accesorios están conectados a él toma corriente inteligente integrado por la placa Arduino, la cual es encarga de manipular la energía eléctrica, medir las variables de la energía eléctrica y de trasmitir los datos de las mediciones a la Raspberry.   La placa de desarrollo Arduino Ethernet integra al primer micro controlador en este proceso, y se encarga de medir voltaje e intensidad de la corriente. Estos datos son manipulados en el Arduino por un bloque llamado Data Collection Manager. Posteriormente los datos son enviados, por medio de una conexión de internet, a través de un router, hasta la Raspberry.   En la Raspberry los datos recibidos son manipulados por un bloque llamado Data Base Manager que se encarga de incorporar los datos a la base de datos. En la Raspberry existe un bloque de preprocesamiento que se encarga de preparar los datos para: una vista diaria, un historial de datos, y una estimación del consumo.   La Raspberry también incluye un bloque de pre procesamiento que se encarga de la extracción de características de las señales de corriente y voltaje, con fines de identificación del tipo de carga, Y otro que se encarga de la vigilancia y señalización. El usuario accede a la información a través de una página web principal que incluye accesos a las páginas web de monitoreo, supervisión, análisis y control.   Pagina de monitoreo. Se visualiza el estado de cada toma corriente: on-off, el voltaje, la corriente y la potencia. Así se sabe el tipo de carga en cada uno de ellos, por el comportamiento de la corriente y la energía consumida.   Pagina de análisis. Aquí los datos se procesan por lotes con la finalidad de identificar patrones de comportamiento, tipos de carga, predicción del consumo y toma de decisiones para mejorar la eficiencia. La idea principal de esta parte es hacer un análisis general de todas las tomas de corriente. Aquí es la parte donde se hace una predicción del pago de la energía consumida en el siguiente mes.   Pagina de control. Tiene una interfaz grafica que permite acceso y control remoto a cada uno de los dispositivos electrónicos de la casa a través de enchufes inteligentes. En la interfaz grafica se aprecia el estado de cada toma corriente, que alimenta a un electrodoméstico, o a un aparato electrónico. A través de la página el usuario es capaz de controlar el estado on-off de cualquier toma corriente.   Así mismo la pagina web de control integra un bloque de programación que permite manipular a las cargas configurables. Ejemplo: se puede programar que la lavadora solo sea capaz de funcionar los viernes, en horario de bajo consumo de la casa. Con este tipo de planeación programada se logra un ahorro de energía en el hogar.


CONCLUSIONES

Durante la estancia de investigación de verano se logro adquirir nuevo conocimiento destinado a ser aplicarlo en un proyecto de ahorro de energía. Por medio de un micro controlador y una Raspberry se hace que el ahorro sea más fácil para el usuario. Adquirir los equipos necesarios para el proyecto exige una inversión que puede parecer costosa para las personas interesadas. Pero el proyecto ayuda al ahorro de energía y a reducir la cuota mensual que se paga por el servicio de energía eléctrica. Cada pago que realice el usuario a la empresa estará reducido, y con el ahorro se cubrirá el gasto realizado por concepto de inversión, para adquirir los productos.
Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING


MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING

Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit. García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara. Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit. Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente la ciudad conurbada de Colima - Villa de Álvarez no cuenta con registros exactos relacionados a la demanda de usuarios de transporte público, específicamente de autobuses urbanos, que existe en cada parada de los camiones a distintas horas y  días del año. Esta situación, causa ciertos inconvenientes al proveer el servicio: mayor cantidad de usuarios esperando en cada parada en horario concurrido, pérdida de tiempo de los usuarios, desperdicio de espacio y combustible en los camiones. Esto  afecta a todos los usuarios del transporte, así como a los  proveedores del servicio, lo que resulta en una problemática latente, pues los usuarios no pueden optimizar sus tiempos de traslado y los proveedores no pueden optimizar sus gastos de operación. Así mismo, teniendo una demanda real de usuarios de transporte público, se podrían realizar experimentos sobre un modelo del sistema real de autobuses, que permita probar diferentes opciones de servicio, tales como: diferentes tamaños de autobuses en diferentes horarios, cambios de precios en horas pico, incremento de la flotilla, generación de nuevas rutas, etc.



METODOLOGÍA

Este proyecto está basado en el método científico, a continuación se explica lo que se realizó paso a paso. Indagar acerca de temáticas relacionadas con IoT, Cloud Computing, Seguridad, NodeMCU, sensores de movimiento, etc. Diseñar el modelo de monitoreo y análisis de demanda de transporte público. Elegir herramientas a utilizar: placa de desarrollo y sensores. Diseñar estructura del prototipo. Montar y establecer conexiones del prototipo. Crear interfaces necesarias para comunicarse con el servidor web. Crear base de datos útil para el proyecto. Acceder a base de datos en la nube. Implantar protocolos y herramientas de seguridad al sistema. Hacer pruebas de funcionalidad al sistema. Realizar modificaciones necesarias. Documentar el proyecto.


CONCLUSIONES

En este proyecto se diseñó un modelo que permitirá la monitorización y posterior análisis de datos sobre la demanda de usuarios de transporte público, en la ciudad conurbada de Colima - Villa de Álvarez. Se implementó un prototipo de este modelo que, utiliza una conexión de red, base de datos, NodeMCU, etc. El prototipo implementado es funcional, se logró enviar información desde un push button que simula el material piezoeléctrico que cuenta las personas que suben y bajan del camión. Esta información viaja hacia un servidor local, que contiene una base de datos que almacena los datos recabados. El prototipo deja un parte aguas para que se pueda implementar el modelo en un futuro cercano, tomando como referencia los objetivos logrados hasta el momento. Así mismo, se destaca que el prototipo es de bajo costo y fácil de crear.
Hernandez Morales Luis Alberto, Universidad Politécnica del Valle de México
Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás (Colombia)

PROCESO DE PRODUCCIóN DE COMPONENTES MECáNICOS UTILIZANDO MANUFACTURA MULTIEJES Y TECNOLOGíAS CAD/CAM


PROCESO DE PRODUCCIóN DE COMPONENTES MECáNICOS UTILIZANDO MANUFACTURA MULTIEJES Y TECNOLOGíAS CAD/CAM

Hernandez Morales Luis Alberto, Universidad Politécnica del Valle de México. Asesor: Dr. Jorge Andrés García Barbosa, Universidad Santo Tomás (Colombia)



PLANTEAMIENTO DEL PROBLEMA

¿Cómo llevar un dibujo a la realidad a través de un sistema CAM, por medio de una determinada máquina con un determinado control?, esta pregunta es el comienzo de una serie de investigaciones para poder resolverla, entonces es necesario enfocarse en el software Siemens NX. El software es uno de los más avanzados para el desarrollo de un proceso de manufactura en una pieza. Partiendo de la base de que una máquina CNC se mueve por coordenadas absolutas, es decir, que todo movimiento ha de ser en referencia a la coordenada 0 respecto al eje X, Y o Z. En un principio la manera de generar un código para un centro de maquinado era escribiendo las líneas de código conforme se veían las trayectorias. Con el tiempo, se ha ido avanzando en la programación del CNC y lo primero que apareció, fue un programa que podía reconvertir el dibujo en Autocad a lenguaje G-Code. Y aquí fue donde empezaron a aparecer los Post Procesadores para CNC. A partir de este momento empiezan a aparecer los programas CAD-CAM, esto quiere decir que dentro del mismo programa hay una parte para crear el diseño (CAD) y otra parte para aplicar las opciones del mecanizado (CAM). Hoy en día existen multitud de programas CAD-CAM como Alphacam, Bobcad cam, DDX, Artcam, MasterCam.



METODOLOGÍA

Para la generación de un post-procesador es importante el conocimiento de datos técnicos del centro de mecanizado, en este caso particular se usará el centro de mecanizado vertical de cinco ejes de movimiento (FINETECH GTX-210), el paso siguiente sería el modelado de los componentes mecánicos del centro de mecanizado en el software NX, en este paso es importante destacar que los componentes que tienen movimiento son los que deben de tener mayor precisión. La definición de la cinemática en los componentes diseñados se da una vez ensamblada la máquina, los movimientos pueden ser lineales o rotacionales, teniendo esto lo siguiente es tener un control determinado, en este caso usaremos el control FANUC que contiene el software. Usando un apartado del programa para la generación del Post-procesador es en donde nos enfocamos para la configuración del mismo ya teniendo en cuenta la estructura y cinemática de la máquina. Para poder usar una máquina y sus componentes es necesario conocerla de principio a fin, en primera estancia se tiene que conocer los manuales de control, manuales de operario y manuales de mantenimiento para comprender más sobre la estructura y cinemática de la máquina. Una vez conoces sus componentes es necesario diseñar las piezas mecánicas de dicha máquina que se ocuparan para la simulación en la manufactura de una pieza determinada. La pieza se determina por la complejidad de su diseño y su geometría. Teniendo las piezas del centro de maquinado diseñadas lo siguiente es ensamblarlas, por lo cual es necesario restringir los movimientos en coordenadas (X, Y, Z). La primera pieza que se ensambla es la estructura de la máquina ya que esta se quedará fija debido a que no tiene movimiento cinemático. Teniendo las piezas ensambladas lo siguiente es definir la cinemática de los componentes, esto se hace con ayuda de una herramienta de diseño llamada Machine Tool Builder la cual ayuda a desarrollar el árbol cinemático de la máquina, para colocar el sistema de coordenadas de cada uno de los componentes móviles, tiene movimientos lineales como lo es en los ejes (X, Y, Z) y los movimientos rotacionales como lo es en los ejes (A y B) los cuales son el cuarto y quinto eje. Una vez teniendo el árbol cinemático es necesario probar que todos los ejes se muevan en las direcciones que se le asignaron, para la comprobación de los movimientos es necesario desarrollar una pieza de prueba a la cual se le genera trayectorias con las herramientas para realizar el planeado y barrenado. Para el desarrollo de dichas trayectorias es necesario utilizar el apartado de manufactura que tiene el software NX, en este mismo apartado se desarrolla la simulación de las trayectorias para evitar colisiones. Las trayectorias son vectores los cuales pasan por el post-procesador configurado anteriormente para que matemáticamente las traduzca al lenguaje del controlador FANUC el cual es con el que opera el centro de maquinado. El código G es un lenguaje que todas las maquinas CNC interpretan exactamente igual, o así debería de ser, ya que cada fabricante modifica este lenguaje G-code a las necesidades del cliente, en este caso el post-procesador traduce las trayectorias generadas y las convierte en código G.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimiento sobre la simulación IS&V (Integrated Simulation and Verification) y se concluyó en que el programador debe tener la posibilidad de rotar rápidamente la pieza en la pantalla a fin de visualizar las trayectorias de herramienta desde cualquier ángulo. Esto es especialmente crítico en el mecanizado de materiales muy costosos o endurecidos. En una nueva fijación de una pieza que ya tiene horas de mecanizado, hay mucho más que material en riesgo. Un pequeño vistazo puede reducir o eliminar retrabajados, piezas desechadas, y el costo de tiempo de máquina perdido. Dentro de la simulación y configuración de post-procesador se busca que en un futuro podamos tener eliminación de tiempos muertos, reducción de intervenciones humanas en cambios de fijación en la pieza y además la minimización del riesgo de daños en la herramienta con la que se trabaja, elementos de sujeción y partes, al eliminar las colisiones posibles que sin la simulación serían difíciles de detectar.
Hernández Moreno Vianey, Instituto Tecnológico de Pachuca
Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA


SISTEMA DE GESTIóN DE INFORMACIóN TURíSTICA MEDIANTE REALIDAD AUMENTADA

Bautista Rodríguez Katya, Instituto Tecnológico de Morelia. Hernandez Hernandez Stefhany Pamela, Instituto Tecnológico de Pachuca. Hernández Moreno Vianey, Instituto Tecnológico de Pachuca. Asesor: Ing. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Guanajuato al ser catalogada patrimonio de la humanidad y una de las ciudades más bellas de México, es una zona en la que según estudios de SECTUR (Secretaría de turismo), cada año incrementa el turismo nacional (92 %) e internacional (8%) en la capital del estado, a excepción del año pasado que tuvo un decremento significativo. El panorama es alentador, sin embargo, a pesar de que la ciudad cuenta con guías turísticas e información tangible acerca de algunos de los lugares emblemáticos todavía no existe alguna plataforma virtual donde se pueda acceder fácilmente a la información turística de cada uno de los sitios, eventos importantes, servicios, entre otros, de Guanajuato desde antes de la llegada del visitante, ya que la información encontrada en sitio muchas veces es insuficiente para satisfacer al cliente o en dado caso, inexistente. Actualmente el incremento del uso de las nuevas tecnologías ha tenido un gran impacto en la sociedad, ayudando en distintos sectores del país, entre ellos el turismo, creando clientes globalizados con grandes demandas. Debido a ello, es que a lo largo del presente proyecto, se utiliza una de las tecnologías en tendencia, la realidad aumentada o por sus siglas en inglés AR, pues con la creciente llegada de turistas, es importante utilizarla como una herramienta de apoyo para el usuario, mezclando elementos físicos y tangibles con elementos virtuales en tiempo real permitiendo que el visitante visualice e interactúe con la ciudad mediante un dispositivo tecnológico mejorando la comprensión y la experiencia turística independiente.



METODOLOGÍA

Por la naturaleza de la investigación,  fue necesario incluir la investigación de campo para poder conocer las necesidades del proyecto, al igual que la recolección de información de cada uno de los lugares que se pretende tener en la aplicación, ya que, al ser una investigación aplicada en la cual se quiere promover, aumentar y atraer el turismo en Guanajuato, se busca obtener la información relevante y necesaria para el turista y así crear una aplicación amigable para el mismo.   Para iniciar el proyecto, se comenzó con la recolección de información específica necesaria para satisfacer los requerimientos de los turistas; esta fue seleccionada gracias a las necesidades detectadas por cada una de las integrantes del equipo al conocer y vivir en la entidad guanajuatense. A partir de esta información, se prosiguió a efectuar un prototipo del diseño de la aplicación sobre el cual se estuvo trabajando a lo largo de todo el verano de investigación; se utilizó el programa de animación y desarrollo Unity para poder desarrollar la aplicación propuesta.  Se inició con la recabación de información de cada uno de los lugares emblemáticos, siendo esta los horarios, costos, dirección, información histórica y cultural del lugar y fotografías de cada uno de estos. Al mismo tiempo, se prosigue con el diseño de la interfaz de la aplicación y el diseño de experiencia para que al usuario le sea intuitivo y de uso fácil.  Transcurrido este proceso, al estar implementando la información de los lugares en el software, se llevó a cabo la implementación de los modelos 3D de cada uno de los lugares elegidos para el prototipo y de sus fotografías en la aplicación para poder obtener una lectura del lugar emblemático con ayuda de la AR; cada avance efectuado en la aplicación es probado en celulares para poder comprobar su óptimo funcionamiento. Una vez que ya se tiene el prototipo se procede a probarla en la ciudad de Guanajuato para poder comprobar cada uno de los elementos de la misma, y de ser necesario, la corrección de algún elemento de la aplicación. 


CONCLUSIONES

Durante la estancia de verano en la ciudad de Guanajuato se lograron concluir las metas iniciales de la fase preliminar del proyecto, aprendiendo del uso de las nuevas tecnologías, los programas digitales para la aplicación de información turística con realidad aumentada y al mismo tiempo, conocer la ciudad, su historia y arquitectura. Se espera que en un futuro tenga un impacto importante en la ciudad y en la comunidad turística haciendo que la experiencia del usuario sea de una manera interactiva y didáctica para conocer los lugares emblemáticos de una de las ciudades más importantes e históricas del país incrementando el turismo exponencialmente. De igual forma, que esta investigación sirva como ejemplo para su implementación en otras ciudades dentro de la República Mexicana.
Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Hernández Olvera Nephtali Abisai, Universidad Autónoma de Nayarit
Asesor: M.C. Mauricio Amariles Camacho, Tecnológico de Antioquia Institución Universitaria (Colombia)

APLICACIONES DE LOS CONTRATOS INTELIGENTES EN LATINOAMéRICA USANDO LA TECNOLOGíA BLOCKCHAIN.


APLICACIONES DE LOS CONTRATOS INTELIGENTES EN LATINOAMéRICA USANDO LA TECNOLOGíA BLOCKCHAIN.

Cabrera Perales Melany Alexa, Universidad de La Salle Bajío. Hernández Olvera Nephtali Abisai, Universidad Autónoma de Nayarit. Asesor: M.C. Mauricio Amariles Camacho, Tecnológico de Antioquia Institución Universitaria (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La tecnología del blockchain se vio por primera vez en el año 2009, por Satoshi Nakamoto, quién fue el primero en dar a conocer la cadena (citado en Molina, 2019) , esta comenzó como un medio por el cual se busca realizar un intercambio de información y estructuración de un proceso a través de una mecanismo descentralizado que cuenta con nodos de información interconectados y justificados en un esquema criptográfico.(citado en Corredor Higuera & Díaz Guzmán, 2018). Hay pocos estudios acerca de los usos y aplicaciones de los contratos inteligentes utilizando la tecnología blockchain en Latinoamérica. Uno de los que presenta mayor porcentaje de uso es China con un 18% en el 2018 y una proyección para los 2021 a 2023 del 30%. Latinoamérica es quien presenta porcentajes de interés más bajo en contratos inteligentes a excepción de Colombia, Chile, Argentina, México y Brasil qué son los únicos países que se encuentran dentro del top 50.



METODOLOGÍA

La metodología que se llevará a cabo en el contenido de la investigación tiene como primer paso la revisión del estado de arte referente a los contratos inteligentes utilizando la tecnología blockchain, posteriormente se construye un cuadro comparativo y finalmente un análisis sobre las distintas perspectivas tanto a nivel internacional como a nivel latinoamericano, para conocer las diferentes aplicaciones que existen actualmente sobre la tecnología ya mencionada. 1.Revisión del estado de Arte. En latinoamérica se están dando a conocer distintos tipos de aplicaciones enfocadas a la tecnología blockchain como es el caso de Vargas Arboleda donde menciona que el blockchain promete cambiar y mejorar radicalmente las operaciones de comercio electrónico de medicamento en Colombia (Vargas Arboleda, 2019). Un contrato inteligente es un código de computadora en blockchain que se ejecuta una vez que se cumplen las condiciones establecidas por ambos participantes (Swan, 2015, citado en Kay Behnkea, M. Janssen, 2018). 2.Comparar a nivel internacional y latinoamericano la apropiación de la tecnología blockchain y contratos inteligentes. LATINOAMÉRICA Administrativo: Sistema web que permita resolver distintas actividades administrativas. Financiero: Petro una criptomoneda que complementa el bolívar fuerte de venezuela. Gubernamental: Prototipo para el proceso de restitución de tierras, que permite a la ANT y a las víctimas incluir datos y documentos e incluye registro biométrico de las personas involucradas. Educación: La Universidad Nacional de Colombia utiliza blockchain para generar certificados académicos. Energético: Sello Sol es un certificado que permite trazar la generación de energía solar desde el lugar de origen. Seguridad: Sistema de autenticación y acceso a áreas restringidas, además de aplicaciones descentralizadas para el manejo de reportes. Agropecuario: Modelo de Rastreamiento Bovino. FUERA DE LATINOAMÉRICA Administrativo: MedRed, desarrolla tecnología para el almacenamiento y acceso de datos médicos, además de  la gestión de permisos médicos. Financiero: Sistema de contratos inteligentes que protege la información de la transacción financiera en blockchain. Gubernamental: Sistema de gestión de transporte distribuido. Educación: Educoin, plataforma de servicios educativos para facilitar el intercambio de conocimiento y mejorar las transacciones financieras de los servicios educativos. Energético: Mecanismo de transacción de energía completamente descentralizado con el fin de incluir auditoría, licitación, compensación y liquidación. Seguridad: Prototipo para reducir los problemas relacionados con la privacidad de la aeronave, denegación de servicio entre otros factores que intervengan en el tráfico aéreo. Agropecuario: Tecnológicas enfocadas a la confianza de trazabilidad y el producto que los consumidores compran, basada en la cooperación blockchain. 3.Analizar las aplicaciones de los contratos inteligentes en América latina En el 2018 Estados Unidos fue quien tuvo mejor presencia en Blockchain y Contratos Inteligentes con un 29%,  el país que le sigue en el ranking es China con un 18% pero qué tiene una mayor proyección para 2021 - 2023 con un 30% superando a Estados Unidos que cuenta con un 18%. El resto de los países muestran porcentajes bajos tanto para 2018 como para las proyecciones 2021 - 2023, Reino Unido para 2018 presentó un 5%, pero sus alcances cayeron a un 2%. Japón es otro país que perdió perspectiva, en 2018  estaba en un 6% y cayó a 4%. Los sectores que cuentan con más aplicaciones de Blockchain y Contratos Inteligentes a nivel mundial son: el caso del sector financiero con 46%, quien es el dominante, posteriormente sigue el sector industrial y energético con un 12%, el sector salud con 11%. Gobierno se encuentra presente en los avances tecnológicos aplicando blockchain y contratos inteligentes y el sector muestra un 8%. Los sectores que menos aplicaciones tienen son el de los consumidores 4% y entretenimiento 1%.


CONCLUSIONES

Basado en las gráficas analizadas existe poco desarrollo de aplicaciones de contratos inteligentes utilizando la tecnología blockchain en latinoamérica frente a países desarrollado. Según los reportes oficiales de la Price Waterhouse Coopers una de las barreras de la implementación de Contratos Inteligentes es la incertidumbre regulatoria en los aspectos legales. Las estadísticas de Google Trends sobre el interés de Contratos Inteligentes, Colombia es uno de los mejores posicionados a nivel Latinoamérica Un estudio realizado por The Wall Street Journal afirma que Latinoamérica es potencia emergente en tecnología.
Hernández Ramírez María Goretti, Universidad de Guadalajara
Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara

OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES


OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES

Hernández Ramírez María Goretti, Universidad de Guadalajara. Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan. Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan. Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango. Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las micro, pequeñas y medianas empresas en México se enfrentan a un proceso de cambio a la cuarta revolución industrial tecnológica, también conocida como Industria 4.0, considerándose un gran reto debido a la falta de conocimiento, aplicación y difusión del tema. En consecuencia, las empresas deben adoptar nuevos conceptos que engloban una gran variedad de tecnologías que digitalicen los procesos. La digitalización ocurre cada vez más rápido, por lo tanto las empresas cambian la forma de hacer negocios y modifican procesos, aquel que no reinventa o innova, es dejado atrás por los competidores y el mercado, considerándose éste el problema. Es por la rápida digitalización que la resolución a nuestra problemática se enfoca en elaborar un instrumento para estimar el grado de madurez tecnológica que tiene una empresa y así saber cuáles son las áreas de oportunidad en las que se pueden implementar nuevas técnicas que aumenten la eficiencia, mejoren la calidad e impulsen la innovación hacia la industria 4.0, además de usar diferentes herramientas correspondientes al Estudio de Métodos con el fin de conocer los procesos para establecer formas de hacerlo mejor.



METODOLOGÍA

La investigación fue la parte fundamental para llevar a cabo este proyecto, realizada en las primeras semanas del programa con el propósito de obtener fundamentos sobre diferentes teorías que serían aplicadas más adelante. A fin de comenzar con el tema de la investigación, se incursionó sobre las revoluciones industriales que anteceden a la cuarta, comprendiendo gracias a las causas de cada revolución que para poder avanzar hacia i4.0, las empresas deben contar con procesos eficientes en su producción, de manera que estos lleguen a producir más con menos. Para lograr lo anterior, utilizamos como apoyo diferentes herramientas de gestión comenzando por el análisis de planta a través de la construcción de un layout, diagramas de proceso, de flujo, de recorrido, de hilo, de relación de actividades y la aplicación de 5’s; además de investigar sobre distintos conceptos como función de la producción, la teoría de las restricciones, teoría de los recursos y las capacidades, la frontera de posibilidades de producción, gestión del conocimiento, entre otros más, con el fin de saber cómo sería la empresa modelo. Teniendo el conocimiento de las distintas teorías mencionadas, comenzamos a elaborar el diagnóstico, como se requería saber el nivel de digitalización y sus áreas de oportunidad, analizamos todos los aspectos posibles en los que se podía preguntar para que los resultados a los reactivos nos arrojaran información precisa y concreta donde existían posibilidades de mejora. Las dimensiones seleccionadas para la herramienta diagnóstico son: administrativo, capital humano, operativo, de control, estrategia y de tecnología y digitalización. El diagnóstico y las diversas metodologías utilizadas fueron las herramientas de trabajo ideales para la investigación con el objetivo de visualizar la trayectoria a seguir por cada empresa en la fusión de la tecnología física con el mundo digital, hablando a futuro, debido a que como primer paso se considera la mejora en la distribución de planta y en sus procesos con el propósito de elevar la productividad, conseguir una mayor producción y al mismo tiempo nos reflejó el estado actual de la empresa y sus áreas de oportunidad.  La digitalización es un gran paso para las empresas y con ayuda de este diagnóstico se espera que se obtengan los resultados que nos indiquen cuales son las carencias de la empresa, para que se pueda actuar y resolverlas, con el objetivo de se tenga una trayectoria a seguir hacia la digitalización, para ofrecer producto de mayor calidad, tener clientes satisfechos y que se siga innovando para estar al día con las tecnologías o necesidades de los clientes.


CONCLUSIONES

Durante la estancia de investigación logramos adquirir nuevos conocimientos respecto a Industria 4.0 y todo lo que conlleva cumplir con los estándares necesarios que ésta requiere para poder alcanzar la digitalización en MiPyMes. Dentro del proyecto se consiguió visitar una pequeña empresa local en la ciudad de Guadalajara, Jalisco, con el fin de analizar y poder aplicar los conocimientos que se obtuvieron en la metodología, aunque al momento sólo se pudieron aplicar las herramientas de Estudio de Métodos, se espera también aplicar el cuestionario. Con ayuda de las herramientas de Estudio de Métodos se analizó el proceso de una empresa dedicada a la producción de válvulas para inyectores diesel; dentro del proceso intervienen distintas máquinas para obtener el producto final; el layout nos brindó información sobre si la distribución de la planta es adecuada; los diagramas se hicieron con el objetivo de mostrarnos si el recorrido del producto desde la llegada al sistema como materia prima hasta la salida en producto terminado es el óptimo, en cuanto a distancias recorridas; se aplicaron 5’s de acuerdo a las condiciones en las que se encontraba la empresa y de acuerdo a lo que nos arrojó el estudio de sus procesos, se considera que no se tiene una buena organización y limpieza del área de trabajo. Obteniendo resultados del análisis previo, se utilizará el cuestionario para lograr analizar las oportunidades, debilidades, fortalezas y amenazas a las que están susceptibles la empresa y se espera generar un nuevo modelo industrial en el que la innovación sea colaborativa, los medios productivos estén conectados y sean completamente flexibles así como que las cadenas de suministro estén integradas. Una vez adquiriendo los resultados de las dimensiones y siendo éstas calificadas conforme a la escala Likert, se vaciaron las respuestas en un formato de Excel hecho sólo con el fin de evaluar cada dimensión y arrojando el nivel o porcentaje de avance que se tiene en la empresa respecto a esa área, para finalmente analizar o determinar cuál es la dimensión en la que más existe un área de oportunidad y avance, pero sobre todo enfocado hacia la i4.0.
Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca
Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)

DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.


DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.

Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca. Mejía Pacheco José Roberto, Universidad de La Salle Bajío. Muñiz Pérez Evelyn Angélica, Universidad Tecnológica de Nayarit. Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La problemática planteada va en conjunto a la muestra de resultados que se presenta ante el cliente, al realizarse un aclaramiento en la zona intima femenina, ya que dicho aclaramiento se realiza con el uso de tecnología láser. De tal manera que, se requiere un método que muestre el porcentaje de aclaramiento, con la comparación de la primera imagen antes del tratamiento y con una segunda imagen después de este, para así obtener una tercera imagen que dé como resultado con uso de filtros ya que de no tener el software es muy subjetivo la interpretación de resultados.



METODOLOGÍA

Haciendo uso de las comparativas realizadas por los ginecólogos pudimos observar cuales son las áreas de tratamiento y cuales son las zonas especificas en las cuales el acercamiento al tono original de piel toma efecto, con estos datos desarrollamos un software que haciendo uso de algoritmos matemáticos y operaciones con matrices analice pixel por pixel para así encontrar un color promedio de las zonas tratadas, esto para poder analizar de una mejor manera los resultados obtenidos después de cada sesión de tratamiento y que el paciente tenga un mejor panorama respecto a los resultados obtenidos y pueda el verlo a través de la interfaz gráfica. Así mismo se dan las recomendaciones pertinentes para que al momento de la recolección de datos, los resultados finales sean más acertados, esto debido a que si las imágenes se capturan desde diferentes ángulos o con diferente método de iluminación los datos obtenidos carecerán de factibilidad.


CONCLUSIONES

Al realizar las sesiones de acercamiento a tono natural de la piel se notaron mejoras en el desarrollo del software ya que tanto hubo un avance en el ámbito medico como ante el mejoramiento del software mismo, esto debido a que teniendo una mejor calidad a la hora de detección de las zonas que requieren de un mejor cuidado se le puede dar un tratamiento mas especifico a las personas y con ello ofrecer más datos de calidad para utilizarlos en las comparaciones obtenidas para la mejora del código del software. Al utilizar un software para el manejo de los resultados queda descartado el factor humano que puede ser susceptible a los cambios debidos a la fatiga, la forma en cómo se presentan los datos, etc., a contraparte de un software que sin importar el contexto va a arrojar los mismos datos como resultado de la comparativa y así tener una conclusión más certera de los cambios en la tonalidad de la piel, siempre y cuando se sigan las recomendaciones al momento de recolectar los datos (tomar las fotografías).
Hernandez Reyes Blanca Selina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

CALIDAD DE SERVICIO Y SEGURIDAD EN VOZ SOBRE EL PROTOCOLO DE INTERNET BAJO EL PROTOCOLO DE INICIO DE SESIóN(SIP)


CALIDAD DE SERVICIO Y SEGURIDAD EN VOZ SOBRE EL PROTOCOLO DE INTERNET BAJO EL PROTOCOLO DE INICIO DE SESIóN(SIP)

Hernandez Reyes Blanca Selina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

La expansión de equipos y la reducción en precios ha permitido el acceso a hardware de audio/video económico, además el aumento de personas que tienen acceso a internet va en aumento y la posibilidad de contar con mayor velocidad de conexión es cada vez más alta y no solo eso sino que ha aumentado el interés en el uso de internet para enviar audio y video, en años recientes las audioconferencias y videoconferencias se han popularizado por lo que el interés en mejorar su calidad, velocidad y que la cantidad de participantes sea mayor ha aumentado. Sin embargo, los avances en internet nos indican que esta red aún no está del todo preparada para la transmisión de datos en tiempo real, en consecuencia, la calidad del audio, video y mensajes transmitido por internet generalmente no es muy buena. En este trabajo se busca específicamente analizar las ventajas de utilizar el protocolo SIP (protocolo de inicio de sesión) y como es que ha encontrado su uso en el mundo de la telefonía, así como reunir información sobre la seguridad del mismo. El hecho de que SIP sea un estándar abierto, ha despertado un enorme interés en el mercado de la telefonía, y fabricantes entregando teléfonos basados en SIP y han tenido un crecimiento exponencial en el sector. Por lo cual el rápido avance en telecomunicaciones nos exige que cada vez sea más seguro realizar correcciones en beneficio de nuestra seguridad y privacidad, no olvidando la QoS.



METODOLOGÍA

Se inició con la elaboración de tabla de contenidos para entender las dimensiones del protocolo, en seguida se prosiguió a la investigación de cada tema. Durante el transcurso se analizó que SIP permite mezclar hardware y los teléfonos de software para acceder a un proveedor de servicios VoIP de banda ancha y hacer llamadas gratis o de precio reducido a través de Internet. Se asegura de que todos los teléfonos de la red utilizan los mismos protocolos de llamada y de programación cuando se conecta a otra VoIP o redes telefónicas terrestres. Para conectarse a una red VoIP y empezar a hacer llamadas a través de Internet, primero se debe configurar el software o el hardware de VoIP móviles para su uso en la red SIP del proveedor de servicios. El proceso comienza con un SIP INVITE se usa desde la parte que llama hasta la parte llamada, este mensaje invita a la parte llamada a participar en la llamada. Se pueden hacer un numero de respuestas provisionales al INVITE antes del destinatario que acepta la llamada, por ejemplo, se puede informar al que llama que la llamada está en cola y/o que se está alertando a la parte llamada. Luego del INVITÉ, la parte llamada responde la llamada, esto genera un OK respuesta a la persona que llama y este reconoce que han respondido su llamada por la emisión del mensaje ACK, ya en este punto los medios se intercambian (voz o video), y para finalizar una de las partes cuelga lo que hace que se envié un mensaje BYE, la parte que recibe este mensaje envía OK para confirmar la recepción del mensaje, después de esto la llamada se da por finalizada. Cabe mencionar que una llamada debe enlazarse a través de un proxy ya que de esta manera se asegura que el mensaje se envié correctamente, así como evitar códigos de error.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos del protocolo de inicio de sesión SIP, así como la importancia de seguridad en este.  En general su funcionalidad está basada en encabezados y cuerpos de mensaje de sus métodos y respuestas, sus procedimientos para establecer sesiones son prácticamente sencillas ya que utiliza el mismo modelo de solicitud/respuesta de transacción con encabezados y códigos de respuesta de estructura similar al HTTP, además adopto una forma modificada del sistema de direccionamiento URI utilizada en el correo electrónico basado en SMTP. Sin embargo, aún se encuentra en fase de análisis ya que es un tema extenso por lo que aún no se ha llegado a fase de implementación. Se espera poner en practica la teoría para así poder evaluar la eficiencia de la seguridad en este protocolo.
Hernández Rodríguez Daniel Iván, Universidad Autónoma de Baja California
Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango

DISEñO DE UN SISTEMA DE RIEGO CON COMUNICACIóN INALáMBRICA PARA INVERNADERO AEROPóNICO.


DISEñO DE UN SISTEMA DE RIEGO CON COMUNICACIóN INALáMBRICA PARA INVERNADERO AEROPóNICO.

Hernández Rodríguez Daniel Iván, Universidad Autónoma de Baja California. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La agricultura es una de las actividades principales en la mayor parte de México, a lo largo de la historia se han realizado múltiples cultivos en sus tierras, lamentablemente la agricultura tradicional afecta de manera excesivamente negativa los ecosistemas de los lugares aledaños, así como perjudicar el suelo al punto de llegar a volverlo infértil. En su Encuesta Nacional Agropecuaria (ENA) 2014, el INEGI apuntó que existen en el país 109.3 millones de hectáreas productivas, pero solo el 40% es para alimentos; el maíz, frijol y sorgo son los granos que concentran la mayor área de cultivo. Existen actualmente varias técnicas de agricultura que son mejor opción para los suelos mexicanos pues no ponen en riesgo la fertilidad de los mismos y llegan a ser menos invasivos con el entorno en el que se establecen. Una de las técnicas más utilizadas en los últimos años y que han sido foco de atención para la agricultura de otros países es la aeroponía. Esta técnica es poco conocida en el país, el conseguir aplicarla adecuadamente y conseguir automatizar un sistema de riego para cultivos en invernaderos es el objetivo y problema a solucionar, pues a partir de eso podrían empezar a implementarse cultivos aeropónico en los lugares con suelos infértiles o condiciones climáticas poco favorables pues las plantas están aisladas del exterior y al no necesitar sustratos solidos también se encuentran protegidas de plagas relacionadas al suelo.  Un problema común en la agricultura actual es la distancia que hay entre los campos de siembra y las viviendas de los agricultores, pues no todos viven cerca de sus cultivos o en ocasiones los cultivos se encuentran en terrenos de difícil acceso. Debido a esto, se desarrolló la idea de un monitoreo y control inalámbrico, el cual pueda notificar de la situación actual del cultivo al agricultor, y de ser necesario, enviar una respuesta pronta ante diferentes circunstancias mientras el agricultor llega al sitio del cultivo.



METODOLOGÍA

Se realizó una investigación acerca de la aeroponía, los puntos clave de esta técnica de agricultura, los pros y los contras. El cultivo en el aire o aeroponía no usa un sustento físico a nivel de raíces: solo se requiere mantener las plantas en forma vertical, mediante un soporte que las sostiene a nivel del cuello; de esta manera, las raíces quedan al aire y la solución nutritiva se aplica mediante pulverizaciones finas y frecuentes. Para la elaboración del código del sistema se utilizó el IDE de Arduino debido a la facilidad de programación y al conocimiento previo del equipo sobre ese entorno de programación. Para el sistema de riego y control de humedad se implementó un controlador PID el cual en base a la humedad presente en el ambiente de la planta determina el cambio que se debe efectuar entre los tiempos de riego para aumentar o reducir la humedad según sea necesario. Para regar las plantas se decidió utilizar el método de la aeroponía debido a que se encuentra más eficiente que los métodos tradicionales, es más sencillo de automatizar y ayuda a utilizar menos agua para el riego. Los materiales necesarios para elaborar un sistema de riego aeropónico son simples, el sistema necesita de un tanque (tinaco en este caso) que almacene el agua con nutrientes que estarán recibiendo las plantas, esta mezcla debe tener los ingredientes necesarios para cada planta en particular y el pH balanceado. Una bomba eléctrica para darle al agua la presión necesaria para salir por los aspersores y ser distribuida eficientemente por el sistema. El uso de las electroválvulas ayuda a automatizar el sistema pues al recibir la orden de activarse o cerrarse se puede manipular de forma sencilla los tiempos en los que las plantas reciban el regado, sin embargo, estas no modifican el caudal presente en el sistema. Finalmente, el agua es pulverizada en gotas finas por los microaspersores para que las raíces puedan absorber de manera más eficiente los nutrientes que esta trae consigo. En el control de humedad se optó por utilizar los sensores DHT11 para una lectura periódica de la humedad, ya que esta no varía demasiado en periodos cortos de tiempo, por lo que las lecturas se pueden realizar después de cierta cantidad de minutos. Las lecturas de la humedad son analizadas por el Arduino, comparadas por medio del controlador PID y si el error o diferencia de humedad excede ∓ 1% con respecto al nivel de humedad deseado, para la región de Puebla es el 70%, entonces el intervalo entre riegos será modificado, reduciendo el tiempo entre cada riego si la humedad es menor, y aumentando el tiempo entre ellos si es demasiada la humedad. Una vez que el sistema alcanza el porcentaje de humedad adecuado el intervalo de tiempo entre riegos es reestablecido al definido originalmente.  Para recibir los parámetros de riego se utilizaron los módulos XBee serie 1, los cuales envían datos por medio de señales de radiofrecuencia (RF) estas al permitir un largo alcance nos facilitan la comunicación a distancia, alrededor de 1 kilómetro. La configuración de los módulos requería de su software XCTU, con el cual la asignación de un coordinador (envía los datos) y un receptor (recibe los datos) solo se tuvieron que realizar modificaciones menores al programa para descomponer una cadena de texto y que recibiera los parámetros pertinentes para el sistema de riego.


CONCLUSIONES

A lo largo de mi estancia de verano se desarrolló un programa capaz de modificar los tiempos de riego para conservar una humedad propicia para el desarrollo de las plántulas que se deseen cultivar, dicho programa funciona de manera continua desde que recibe los parámetros deseados de humedad y tiempos de riego. La comunicación inalámbrica se logró mantener estable y rápida, se hicieron pruebas de 100, 250 y 500 metros (con y sin edificios de por medio), por lo que se considera pertinente realizar pruebas futuras a mayores distancias y corroborar los resultados en terrenos variados. El diseño del sistema de riego quedó en una etapa temprana, por lo que los materiales o el canal a seguir pueden ser modificados. En un futuro se planea utilizar el conjunto de estos elementos para la elaboración de un sistema de riego para un invernadero y poder cultivar distintas plántulas en él.
Hernàndez Rodrìguez Miguel Adriàn, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

REALCALINIZACIÓN ELECTROQUÍMICA DEL CONCRETO ASCESOR: DR. TEZOZóMOC PéREZ LóPEZ-UNIVERSIDAD AUTóNOMA DE CAMPECHE ESTUDIANTE: MIGUEL ADRIáN HERNáNDEZ RODRíGUEZ-UNIVERSIDAD AUTóNOMA BENITO JUáREZ DE OAXACA-MIGUEL.AHR117@GMAIL.COM


REALCALINIZACIÓN ELECTROQUÍMICA DEL CONCRETO ASCESOR: DR. TEZOZóMOC PéREZ LóPEZ-UNIVERSIDAD AUTóNOMA DE CAMPECHE ESTUDIANTE: MIGUEL ADRIáN HERNáNDEZ RODRíGUEZ-UNIVERSIDAD AUTóNOMA BENITO JUáREZ DE OAXACA-MIGUEL.AHR117@GMAIL.COM

Hernàndez Rodrìguez Miguel Adriàn, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

    INTRODUCCIÓN  En estructuras de concreto, el ataque por corrosión es generalmente evitado por la alta alcalinidad proporcionada por la solución de poros del concreto (pH >12.5). Así, una capa pasiva en la superficie del acero proporciona una adecuada resistencia a la corrosión, la cual puede ser destruida por la carbonatación del concreto. Este proceso es la reacción de los productos de hidratación disueltos en el agua de los poros con el dióxido de carbono (CO2) proveniente del ambiente reduciendo el pH de la solución de los poros del concreto de 12.5 a menos de 9. En una estructura de concreto reforzado el método de realcalinización electroquímica detiene la corrosión inducida por la carbonatación al incrementar el pH alrededor de la varilla y restablecer las condiciones pasivantes de la solución de poro. Con el objetivo de restablecer esta pérdida de alcalinidad que provoca la carbonatación, la densidad de corriente directa que se aplica entre las barras de acero y un electrodo auxiliar externo e inmerso en una solución de carbonato de sodio esta en el orden de 1 a 2 A/m2, Al nivel del acero esta restauración parece ser proporcionada sobre todo por la generación de OH- [4]. El principio básico de la RAE. La carbonatación provoca la acidificación del concreto, lo que trae como consecuencia la pérdida de la capa pasiva permitiendo se inicie un proceso de corrosión activo. Una de las técnicas para revertir este proceso es la realcalinización electroquímica (RAE), que consiste en aplicar una corriente continua entre las barras de acero y un electrodo auxiliar externo con el objetivo de restablecer la pérdida de alcalinidad que provoca la carbonatación, se propone la utilización de una malla de acero inoxidable como contra electrodo sobre la superficie del concreto. Se evaluaron 9 especímenes de concreto reforzado con una relación a/c de 0.65 previamente carbonatados en una cámara de carbonatación y se aplicó la técnica de RAE utilizando como contra electrodo malla de acero inoxidable. Se determinó el grado de recuperación de la alcalinidad del concreto por medio de una solución indicadora ácido/base (fenolftaleína) aplicado sobre la superficie del concreto. Al aplicar la RAE por un periodo de 28 días utilizando las normas correspondientes (NMX, EURO Y NACE) con una densidad de corriente correspondiente a cada norma de 1, 2 y 4 A/m2 con esto se alcanza a elevar el valor del pH en el concreto carbonatado de un pH 8 hasta 12.



METODOLOGÍA

  METODOLOGÍA 1 ESPECIMENES DE PRUEBA Se elaboraron 9 especímenes de concreto reforzado  proporción de mezcla 1 a 3 (VIGAS DE DURACON), con las siguientes dimensiones 20 x 30 x 20cm. Como refuerzo se utilizó varilla corrugada de acero con diámetro nominal de 3/8 de pulgada y se recubrió parte del refuerzo con pintura epóxica dejando una distancia de 20 cm descubierta en medio de la viga, posterior a su elaboración y previo a realizar los estudios se curaron por 28 días. 2 CARBONATACIÓN ACELERADA La carbonatación es un proceso lento, y por esta razón, para poder obtener resultados a corto plazo se requirió acelerar el proceso. Para esto se pusieron las vigas en una cámara de carbonatación, que permitió acelerar el proceso al incrementar el contenido de CO2, generalmente el contenido de dióxido de carbono en la atmósfera en promedio es de 0.03% y en zonas urbanas puede llegar hasta 0.06%. En el interior de la cámara se expusieron los especímenes de concreto a una concentración de CO2 de 3% en vol. Una humedad relativa de 60 ± 9 % y una temperatura de 27 ± 2 °C, durante un periodo de 3 semanas, rotando as vigas cada determinado tiempo para garantizar que el frente de carbonatación alcance la superficie del acero de refuerzo. 3 REALCALINIZACIÓN ELECTROQUÍMICA Posterior al proceso de carbonatación acelerada se procedió a enrollar las vigas con malla de acero inoxidable y aplicar pintura epóxica en 2 de sus caras, después de ello se sumergieron 9 muestras en un electrolito (cabonato de calcio) (Ca2CO3) y se conectaron a una fuente de corriente directa (Steren PRL-25, 15V/30A) conectando la terminal negativa al acero de refuerzo y la positiva a los electrodos. La densidad de corriente aplicada fue de 1, 2 y 4 A/m2, aplicando 3 corrientes diferentes a 3 vigas, esto apegado a las normas NMX, Euro y NACE.  El periodo tratamiento fue de 28 días y durante el cual se estuvieron monitoreando los valores de voltaje de salida y la intensidad de corriente utilizando como electrodo de referencia sulfato de cobre (CuSO4). Los criterios para determinar si la RAE ha sido efectiva se obtuvieron de las normas NMX, EURO Y NACE 4 MEDICIÓN DE PH   La determinación del avance de carbonatación después del tratamiento en la cámara de carbonatación y, antes y después de la RAE, se hizo atomizando una solución de fenolftaleína al 1% en peso sobre la superficie taladrada de la muestra. Adicionalmente se tomaron muestras de polvo en la zona carbonatada y no carbonatada, se vertieron en agua dejándose en agitación por 24 horas, la obtención del polvo se hizo con un taladro, la determinación del pH se llevó a cabo por medio de una medición potenciométrica.


CONCLUSIONES

CONCLUSIONES De acuerdo a la norma NACE SP0107-2007, los criterios para determinar si el tratamiento de RAE en concreto ha sido efectivo son básicamente dos, el primero establece que la densidad de carga, por unidad de área de acero, mínima durante el tratamiento debe ser de 200A- h/m2. Y el segundo criterio dicta que la efectividad del proceso de RAE queda demostrada por la prueba de pH, utilizando una solución de fenolftaleína, indicando que el grado de realcalinización, por la coloración rosada alrededor del refuerzo, tenga un mínimo de 10mm,dicho esto y ya realizadas las pruebas se puede decir que estos dos criterios quedaron satisfechos ya que la densidad de carga en el presente  estudio alcanzo un valor de 235 A-h/m2 y la extensión mínima de la coloración rosa alcanzo 1.07cm. En base a lo anterior queda demostrado lo expuesto al principio de este documento.    
Hernández Sánchez Jesús, Universidad Politécnica de Tecámac
Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac

SíNTESIS Y CARACTERIZACIóN DEL COMPOSITE SR FE12 O19 - GA Y SU POTENCIAL APLICACIóN EN NUEVOS AMORTIGUADORES.


SíNTESIS Y CARACTERIZACIóN DEL COMPOSITE SR FE12 O19 - GA Y SU POTENCIAL APLICACIóN EN NUEVOS AMORTIGUADORES.

Calderon Gutierrez Yosahandy, Universidad Politécnica de Tecámac. Hernández Sánchez Jesús, Universidad Politécnica de Tecámac. Asesor: Dr. Felipe Nerhi Tenorio Gonzalez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

El área automotriz es una de las más importantes del país, sin embargo, se encuentra en constante desarrollo, por lo cual se requiere continuar innovando para tener automóviles con mejor confort y mejor tecnología, es aquí donde los materiales juegan un papel importante, ya que para seguir mejorando el funcionamiento de las piezas automotrices se requiere el mejoramiento de los materiales utilizados para que proporciones mejores propiedades. En este proyecto se pretende proponer la modificación de la suspensión utilizando el bajo punto de fusión que posee el Galio y las propiedades magnéticas de la hexaferrita de estroncio para lograr formar un material compuesto, en el cual el volumen pueda ser controlado con un campo magnético externo, y de esta manera modificar la altura del automóvil.



METODOLOGÍA

Se utilizó Carbonato de Estroncio (SrCO3, Sigma Aldrich-99.99%) y Óxido de Hierro III (Fe2O3, Sigma Aldrich-99.99%) de forma estequiométrica a fin de obtener la Hexaferrita de Estroncio SrFe12O19 mediante mecanosíntesis. La molienda se realizó en un Molino Mecánico de Alta Energía (spex 800D) en atmosfera de aire, utilizando viales de 50cm3, 6 esferas de 1/2 pulgada de acero endurecido siguiendo una relación bolas:polvo de 10:1 durante 5 horas. Al culminar la molienda se obtuvo el polvo activado que posteriormente fue tratado térmicamente en una mufla mondragon modelo HR-12-2/1200-ER a 950°C durante 2 horas con rampa de calentamiento de 10°C/min y enfriamiento a temperatura ambiente. Posteriormente el polvo de hexaferrita de estroncio fue molido con PVA durante 3 horas para formar el composite y asi lograr la encapsulación de la hexaferrita, permitiendo que las partículas se reduzcan hasta tamaños nanométricos. Finalmente, este composite fue molido con galio en relaciones de Galio 80%, 90%, 95% y 99% durante 2 horas. El polvo obtenido fue caracterizado por Difracción de Rayos X (DRX) utilizando el difractómetro Bruker D8 Advance CuKα1(1.54060 Å), los resultados fueron evaluados utilizando el software Match! Con base de datos COD (Crystallography Open Database), posteriormente los patrones de difracción fueron refinados utilizando el método Rietveld en el software Maud. Finalmente, el polvo fue caracterizado en un Analizador de Tamaño de Partícula por Luz Laser (ATP) nano brook 90 plus, para evaluar el tamaño de las partículas.


CONCLUSIONES

El estudio por DRX mostró que la hexaferrita de estroncio fue obtenida utilizando molienda mecánica de alta energía asistida por tratamiento térmico a 950 grados centígrados durante dos horas con Óxido de hierro III como fase secundaria. El analizador de tamaño de partícula indicó que al utilizar PVA el tamaño de la hexaferrita de estroncio se reduce al orden de los micrómetros, lo cual permitió formar el composite Galio-hexaferrita después de molienda mecánica de alta energía. Este composite fue caracterizado por DRX y se confirmó la presencia de ambos materiales. La relación más adecuada para pruebas en la suspensión es la de galio 99% ya que la relación en volumen parece ser adecuada ya que existe una cantidad adecuada de galio en comparación con las otras muestras.
Hernández Sánchez Zurisadai, Instituto Tecnológico de Pachuca
Asesor: M.C. Yuliana Puerta Cruz, Fundación Universitaria Tecnológico Comfenalco (Colombia)

EVALUANDO LA EXPERIENCIA DE USUARIO DEL SITIO WEB DE FUTCO


EVALUANDO LA EXPERIENCIA DE USUARIO DEL SITIO WEB DE FUTCO

Hernández Sánchez Zurisadai, Instituto Tecnológico de Pachuca. Asesor: M.C. Yuliana Puerta Cruz, Fundación Universitaria Tecnológico Comfenalco (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La Fundación Universitaria Tecnológico Comfenalco es una institución de carácter privado, localizada en la ciudad de Cartagena de Indias, la cual alberga una gran población estudiantil, principalmente localizada en estratos 1 y 2 (niveles más bajos),por lo cual una muestra significativa de su población no posee habilidades avanzadas en el uso de las TIC. El sitio Web Institucional representa el medio en el cual se comparte o socializa mayormente la información institucional, así como el acceso y uso a diferentes funcionalidades, entre las cuales se encuentran:  el Acceso a Bibliotecas, Consulta de Programas de Posgrado y Pregrado, Inscripción a Programas, Revisión de Noticias, entre otras, Acceso a Plataformas de ELearning y Gestión de Repositorios Institucionales. El uso frecuente y las características de las funcionalidades que en él se ofrecen, requieren que en el se garantice una buena experiencia de usuario, que facilite su uso y logre generar sensaciones agradables en el usuario que le permitan regresar a utilizarla.   Un estudio adelantado a una muestra de  usuarios del sitio web y sus funcionalidades, deja ver que actualmente se presentan diferentes problemas tanto a nivel de eficiencia como de eficacia, así como en el manejo de errores y la presentación de la información. Estos resultados motivaron a realizar un estudio riguroso que permitiera medir el nivel de Experiencia de Usuario que se ofrece desde el Sitio Web, para lo cual se  diseñó un experimento que permitiera evaluar de forma heurística el sitio Web, incluyendo diferentes facetas que la conforman y establecer las recomendaciones necesarias.



METODOLOGÍA

Esta investigación se considera de tipo aplicada, en cuanto se ha identificado una problemática de diseño de interacción en las interfaces del sitio Web de la FUTCO, y se propone la evaluación heurística del mismo, con el propósito de identificar un conjunto de  recomendaciones a ser realizadas en el sitio. Con este propósito se han definido las siguientes actividades: 1. Revisión de Antecedentes y Estado del Arte:  Se identificaron algunos trabajos similares y la forma como estos han sido abordados. Igualmente se elaboró un Rastreo de Instrumentos de Evaluación Heurística de Comunicabilidad, Usabilidad y Multiculturalidad y de las principales  Herramientas de Evaluación Remota de Apoyo al Proceso de Evaluación Heurística. 2. Evaluación Heurística Plataforma Institucional Fundación Universitaria Tecnológico Comfenalco: el desarrollo de esta actividad se llevó a cabo a partir de las siguientes tareas: Adaptación o Diseño Instrumento de Evaluación: Tomando como base las heurísticas alojadas en los repositorios web (MPIu+a y Open-HEREDEUX) se creó una heurística que combinó lo mejor de ambas, siendo divididas para ser aplicadas posterior a la realización de diferentes tareas que se le pidió realizar al evaluador. Selección de los Evaluadores: Para poder llegar a la meta con este proyecto, la cual es detectar errores y generar una serie de recomendaciones para mejorar el sitio web y garantizar una mejor experiencia de usuario, se buscó la ayuda de expertos, los cuales debían reunir las siguientes características: Tener un título universitario afín a la carrera de sistemas o computación. Contar con al menos 5 años de experiencia en el área de desarrollo o evaluación de experiencia de usuario. Estar dispuesto a colaborar con evidencia fotográfica o en video al momento de realizar su prueba. Elaboración del Caso de Evaluación Heurística de la Plataforma Institucional Fundación Universitaria Tecnológico Comfenalco apoyada en  la herramienta tecnológica para evaluación remota seleccionada: En este punto se definieron las tareas que los evaluadores realizarán para revisar los aspectos generales y algunos específicos del sitio institucional de la FUTCO para después evaluar dichos aspectos. Para esto fue necesario mezclar algunas heurísticas de usabilidad, comunicabilidad y multiculturalidad para lograr evaluar lo mejor posible las secciones de interés en las diferentes facetas. Configuración de la Evaluación en la Herramienta Tecnológica de Apoyo al proceso de evaluación remota: Para este paso se llevó a materializar el diseño del instrumento en la herramienta elegida, la cual fue Loop 11. El producto final resultó en un total de 10 tareas en las cuales el usuario debería haber navegado a través de la página institucional de la FUTCO y, una vez completadas, una serie de preguntas serían realizadas con relación  a los elementos con los que se planeó el evaluador debía de interactuar. Envío de los Instrumentos de Evaluación: Una vez que se finalizó el diseño y se probó para verificar su funcionamiento, fue distribuida la URL que la herramienta Loop 11 proporciona para su distribución a los evaluadores expertos.  3. Resultados del proceso de Evaluación Heurística de Sitio Web FUTCO     Está etapa se desarrollara a futuro una vez se logre colectar los resultados obtenidos del proceso de evaluación y se tendrán en cuenta las siguientes tareas: Análisis de Resultados y  Elaboración de Recomendaciones


CONCLUSIONES

La experiencia de usuario es un concepto que representa gran importancia en el diseño y evaluación de las interfaces de software. La evaluación heurística es un método de evaluación muy eficiente que permite obtener excelentes resultados en el proceso de evaluación de la usabilidad. Las evaluaciones remotas facilitan la implementación de estas, pudiendo llegar a ser más flexibles y reducir considerablemente los costos y tiempo tanto de evaluadores como de los interesados, aunque no necesariamente significa que se realice en un periodo más corto. Además, al mostrar gráficos y estadísticas de las respuestas se agiliza la interpretación de resultados. Posterior a la consolidación de los resultados, se medirá el nivel de multiculturalidad, usabilidad y accesibilidad presentes en el sitio web de Futco, a modo de medir el nivel de UX. A partir de estos se realizaran las recomendaciones requeridas en aquellos aspectos que deban ser mejorados.
Hernández Santiz Alondra Rosaura, Universidad de Ciencias y Artes de Chiapas
Asesor: Dr. Dalia Vázquez Celestino, Universidad Politécnica de Guanajuato

USO DE SUBPRODUCTOS AGROALIMENTARIOS EN EL DESARROLLO DE NUEVOS PRODUCTOS


USO DE SUBPRODUCTOS AGROALIMENTARIOS EN EL DESARROLLO DE NUEVOS PRODUCTOS

Hernández Santiz Alondra Rosaura, Universidad de Ciencias y Artes de Chiapas. Asesor: Dr. Dalia Vázquez Celestino, Universidad Politécnica de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Guanajuato es el principal productor de brócoli  con 186, 093 toneladas, es el estado que destina mayor cantidad de hectáreas (11,796) para su cultivo,  en cuanto producción seguido por Sonora con 18,375 toneladas, Michoacán con 17, 152 toneladas, y Jalisco con 15,152 toneladas. En estos estados se  tienen una gran cantidad de empacadoras y congeladoras que permiten el envío a otros países de América, Europa y Asia (El economista, 2018). Las pellas, floretes o inflorescencias de brócoli constituyen la parte más apreciada para el consumo y exportación, sin embargo  solo representan el 25%  de la biomasa aérea total de la planta, lo cual da lugar a la producción de una gran cantidad de material vegetal sin utilidad alimentaria, ganadera o industrial con un importante impacto  medioambiental  derivado de esta actividad  agroeconómica. El interés que suscita el desarrollo de una utilidad alternativa de estos subproductos (hojas, tallos, rebrotes, etc.), en conjunto con el conocimiento sobre su composición fitoquímica, sugiere un gran potencial de aprovechamiento de  estos restos del cultivo de brócoli como  fuente de ingredientes  y compuestos bioactivos, promotores de la salud y nutrientes de gran valor para suplementos alimenticios y para la industria farmacéutica y química (Domínguez, 2013).



METODOLOGÍA

Preparación de las muestras de brócoli: Se seleccionaron las muestras de brócoli (inflorescencia y tallo),se pesaron, se escaldaron (1:30 min en agua a ebullición),posteriormente se deshidrataron y se obtuvieron harinas, de las cuales se realizaron las siguientes pruebas: Análisis proximal: para determinar cantidad de humedad, grasa,cenizas, proteínas y carbohidratos. Deteminación de las propiedades fisicoquímicas: absorción de agua y aceite, textura y color. Propiedades nutraceúticas:concentración de flavonoides y fenoles.


CONCLUSIONES

 El tiempo de escaldado de un alimento está determinado por la temperatura y tiempo aplicado. El color del alimento se hace más brillante cuando se lleva a cabo  este proceso. El tiempo de deshidratación del brócoli  dependerá de la parte a deshidratar, así como  su forma y tamaño, el tallo se deshidrata a 6 horas y la flor a 7 horas a 70°C. La harina que se obtuvo tiene gran capacidad de absorción de agua, lo que permite incluirla en alimentos que necesiten mayor cantidad de agua, como por ejemplo; las tortillas o en combinación de otros alimentos. Al ser buen absorbente de agua, su capacidad de absorción de aceite disminuye. El tallo de brócoli  presenta un color “amarillo verdoso claro”. Esto  se identificó  con el espacio  de color CIELAB. La flor de brócoli al pasar por deshidratación presenta una textura rígida, lo que hace que  sea crujiente, y  permite aplicar menor fuerza para deformarlo (1.92 N para deformarlo al 5%). El brócoli  presenta poca cantidad de grasas (0.11%) y carbohidratos (4.08%), es rico en vitaminas y minerales (0.37%), además de contener fenoles (242.87mEq/de ácido gálico) y flavonoides (894.97mEq de quercetina).Tiene propiedades nutraceúticas.  
Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Hernandez Velasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro

DETECCIóN DE PATOLOGíAS OíDIUM Y PERONOSPORA EN EL CULTIVO DE LA ROSA VARIEDAD MOCTEZUMAE


DETECCIóN DE PATOLOGíAS OíDIUM Y PERONOSPORA EN EL CULTIVO DE LA ROSA VARIEDAD MOCTEZUMAE

Hernandez Velasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Mercado Manzano Maria Liviere, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

La zona sur del Estado de México se ha convertido en un referente en el sector florícola. El crisantemo y la rosa son las principales flores que se producen debido a su alta demanda.             En 2018, se estimó una derrama económica de mil 991 millones de pesos en el mes de mayo por las ventas originadas por la celebración del día de las madres. Se estima que la producción en el Estado de México fue de 157 millones de tallos de rosa . El control y prevención de enfermedades es una de las principales tareas que ocupa a los productores, ya que es uno de los principales factores que determinan la calidad y volumen de producción. Una de las principales enfermedades causadas por hongos es, Oidium y Peronospora. En general estas enfermedades afectan la estética del tallo cortado reducción la calidad, ya que aparecen como manchas, cenicillas en el follaje y tallos. Los productores buscan aminorar el problema mediante tratamientos fitosanitarios. Sin embargo, la detección temprana y la acción inmediata aumenta las probabilidades del control de la enfermedad y reduce costos. Los expertos en el cuidado fitosanitario de cultivos del rosal realizan inspecciones regulares basadas en la observación, por lo que muchas ocasiones la presencia de enfermedades son advertidas en fases avanzadas del ciclo de las enfermedades. Actualmente, surge la necesidad de desarrollar herramientas de apoyo en el diagnóstico de patologias de la rosa que permitan la identificar de manera automática las mismas como lo haría el humano experto. En este proyecto se propone un método para la detección automática de las enfermedades de la rosa basadas en la extracción de características presentes en las imágenes de hojas de plantas infectadas mediante el entrenamiento de técnicas de aprendizaje automático.           Dicho esto, durante el verano de investigacion se resolvió la siguiente interrogante: ¿Cómo detectar  las enfermedades de Oidium y Peronospora en el cultivo de la rosa  variedad moctezumae ?



METODOLOGÍA

La metodología propuesta consta de los siguientes pasos: Adquisición de la imagen Preprocesamiento de la imagen Segmentación de la imagen Extracción de características Análisis estadístico Clasificación Se utilizó un conjunto de imágenes obtenidas del cultivo de rosa de la variedad moctezumae, se trata de una especie silvestre naturalizada. Las imágenes se obtuvieron de plantas inoculadas con patógenos de las enfermedades de Oidium y Peronospora.   Para esta entrega se han realizado los 4 primeros pasos  del Método propuesto los cuales son: Adquisición de la imagen, Pre-procesamiento de la imagen, segmentación de la imagen y extracción de las características.


CONCLUSIONES

Durante la estancia en el verano se logro detectar 21.980%  de la zona infectada en una imagen .Al ser un extenso trabajo nos encontramos en la fase de clasificación, se espera que al termino de nuestra estadia se obtengan los resultados esperados.
Hernandez Velazquez Jonathan Ricardo, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2


DISEñO, IMPRESIóN Y AUTOMATIZACIóN DE UN DROIDE TIPO R2-D2

Francisco Cuautenco Ramiro, Instituto Tecnológico Superior de Huauchinango. García Cabrera Pedro Antonio, Instituto Tecnológico Superior de Huauchinango. Hernandez Velazquez Jonathan Ricardo, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en fabricar un prototipo de las herramientas que tiene el droide tipo R2-D2, esto con fin de crear una réplica a tamaño real con todos los movimientos que se pueda realizar, de igual manera el diseño tendra sus debidas modificaciones, pues el droide presenta distintas herramientas en los diseños encontrados que presentan errores, incongruencias de pocision y funcionamiento. Ya teniendo los diseños, pruebas de electronica y mecanica del driode se creara un prototipo para una empresa especialisada en animatronicos.



METODOLOGÍA

Semana 1 Metodología: Se nos dio un curso de técnicas básicas, intermedias y avanzadas del programa SolidWorks en el cual aprendimos a realizar operaciones, planos y ensambles más complicados.     Semana 2 Metodología: Se hicieron medidas e investigaciones de las posiciones donde irían las piezas, se hicieron diseños a partir de los ya existentes, modificándolos para que el funcionamiento pudiera ser acorde a lo necesitado, las piezas que se nos dieron a realizar fueron: Pinzas que funcionaran con servomotor Sierra circular Brazos de interfaz a computadoras ( Solo realizando operación de salida y entrada al Droide) Dispositivo de entrada y salida de los brazos Propulsores    Semana 3 Metodología: Mediante SolidWorks se crearon los diseños, al constantemente presentar errores, se iban cambiando hasta perfeccionar los diseños, al igual se siguieron tomando medidas para establecer un límite de tamaño en fusión del movimiento de salida de la pieza, asi como también se tomaron en cuenta las medidas de motores a usar y herramientas que no fueran a ser impresas.   Semana 4 Metodología: A la hora de hacer impresiones notamos errores en los ensamblajes, dándonos a entender que necesitábamos una diferencia en piezas que fueran ensambladas a presión de al menos .3 milímetros, haciendo entonces que se cambiaran parte de los diseños, así como también rediseñar las partes que tuvieran desperdicio de material debido a extrucciones inservibles.   Semana 5 Metodología: Se comenzó por hacer impresiones de prueba y de esta forma ver los errores de impresión, errores de ensambles, etc. Y de esta forma ir cambiando y reimprimiendo las piezas hasta perfeccionarla.   Semana 6: Metodologia: Continuando con las impresiones de prueba y cambios en los diseños para su perfección, debido a lo tardado de la impresión de las piezas ( De 1, hasta 7 horas) se avanzó lento, pero en lo que algunas piezas se imprimían, otras se revisaban y se programaban los servos a utilizar


CONCLUSIONES

Las piezas que se hicieron para los brazos del droide se realizaron lo mas fieles a los diseños existentes, esto con la ayuda de las habilidades obtenidas en los cursos de SolidWorks y la ayuda de los compañeros de trabajo. Las impresiones en 3D tienen un diseño que ahorra material y que a su vez cuentan con estetica, presentando un modelo presentable y economico en cuanto a gasto de material de impresion se refiere.
Herrera Aguilar Itzel Samara, Instituto Tecnológico de Culiacán
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

REDUCCIóN DE TIEMPOS OCIOSOS EN OPERADORES DE UNA EMPRESA DE MANUFACTURA DE PUERTAS DE ACERO USANDO QUEST®


REDUCCIóN DE TIEMPOS OCIOSOS EN OPERADORES DE UNA EMPRESA DE MANUFACTURA DE PUERTAS DE ACERO USANDO QUEST®

Herrera Aguilar Itzel Samara, Instituto Tecnológico de Culiacán. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Todos los sistemas están conformados por distintas variables, estas variables interactúan entre si para lograr un fin en común, sin importar de que tipo sea el sistema es necesario conocer las interacciones de las variables más importantes que intervienen en el sistema. Una alternativa para ello es la simulación de eventos discretos; esta metodología puede integrar cada una de las etapas de un proceso y así entenderlo. La simulación de eventos discretos puede ser aplicada a la manufactura de productos, ya que puede integrar procesos, materiales, operadores, entre otros aspectos que permitan evaluar y elegir el mejor escenario para mejorar el desempeño de dicho proceso. La simulación es útil para evaluar y mejorar el desempeño de un proceso sin intervenir directamente en él, lo que permite ahorrar tiempo y dinero. Para lograr que un proyecto de simulación sea efectivo debe definirse de manera correcta lo que va a simularse y lo que se quiere lograr con esta simulación, para ello es necesario recabar la información y datos necesarios tales como: velocidad, tasa de producción de máquinas, restricciones de operación en las máquinas, tiempos de arranque, demanda, limitaciones de personal, turnos de trabajo, entre otros. En este caso se desea simular el proceso de fabricación de una compañía metalmecánica que se encarga de hacer puertas de acero. El objetivo de esta simulación es seleccionar el mejor escenario para mejorar alguna variable de respuesta, específicamente la utilización de los operadores, es decir, reducir el tiempo ocioso de los mismos.



METODOLOGÍA

Se utilizó información previamente recabada sobre la compañía en cuestión en donde se describían detalladamente los procesos que se realizaban, muestras de los tiempos de cada uno, número de operadores necesarios para cada tarea, horarios y de más, a partir de esa información primero se calcularon las distribuciones de probabilidad correspondientes a cada uno de los tiempos de los procesos que se realizan en la empresa con ayuda de un software estadístico, posteriormente se desarrolló el layout de la planta en AutoCAD en donde se mostraba a escala la distribución real de la misma, a continuación se dibujaron en el simulador todas las máquinas, materia prima y facilidades necesarias para representar los procesos. Teniendo todo lo anterior se comenzó a modelar todo el proceso de fabricación de puertas de acero de manera que fuera lo más apegado posible al proceso real. Esto se hizo con ayuda del software de simulación Delmia QUEST®, a lo largo de la modelación se estuvo verificando que cada área que se iba realizando funcionara de la forma que debía hacerlo. Al terminar de modelar la planta completa se realizaron pruebas de validación, las cuales consistieron en poner a cada máquina un inventario inicial suficiente para fabricar 500 puertas, posteriormente, se realizaron 30 corridas con distinta semilla con el fin de comprobar la validez del modelo, en cada una de las corridas sin importar la semilla debía ser capaz de fabricarse las 500 puertas solicitadas, al comprobar que esto sucedía finalmente se realizó un gráfico de caja y bigotes del tiempo en que se terminaban las puertas en cada una de las 30 corridas realizadas para así poder comparar los tiempos con los de los demás que habían trabajado con el mismo proceso. Finalmente se analizaron las estadísticas que arrojaba el simulador sobre las corridas, a partir de ellas se detectaron áreas de oportunidad en las cuales pudiera realizarse alguna mejora en la empresa, en este caso se eligió aumentar la utilización de los operarios a partir de la reorganización de los turnos de trabajo. Se realizaron cinco experimentos en el simulador, en cada uno la organización de los horarios era distinta, esto con el objetivo de encontrar el escenario que diera como resultado una mayor utilización de los operarios. Al finalizar los experimentos, las estadísticas de cada uno se compararon con el escenario inicial para identificar cual era el que brindaba mejores resultados.


CONCLUSIONES

Durante esta estancia de verano se logró adquirir conocimientos principalmente prácticos sobre simulación, debido a que se utilizó un software de ultima generación utilizado en la industria de manufactura. El haber realizado el modelado de un proceso de manufactura completo y una propuesta de mejora permitió poner totalmente en práctica todos los conocimientos teóricos previos que se tenían y obtener un panorama más real de lo que es la ingeniería industrial aplicada a casos reales.
Herrera Fletes Denyce, Instituto Tecnológico de Tepic
Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)

FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL


FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL

Hernández Franco Mariana, Universidad Veracruzana. Herrera Fletes Denyce, Instituto Tecnológico de Tepic. Lopez Parra Vanessa, Instituto Tecnológico de Tepic. Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia). Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea. Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este documento se planteará una comparación entre la manufactura tradicional y la manufactura aditiva por impresión en 3D para la fabricación de una prótesis transtibial de modo que se resuelva la cuestión: ¿Por qué el proceso de manufactura aditiva es mejor que el proceso de manufactura tradicional?



METODOLOGÍA

Este documento es un proyecto de investigación de tipo cualitativo en el que se pretende hacer una comparación entre la fabricación de una prótesis de extremidad inferior transtibial a través de manufactura tradicional y manufactura aditiva, con el objetivo de analizar las dos modalidades de la manufactura y determinar el impacto que estas generan desde una perspectiva multi criterio que comprenda el aspecto ambiental, social y económico. Para la identificación del problema se realizará un Value Streaming Map (VSM), con la finalidad de identificar la raíz del problema, las causas y los efectos del problema. Para la recopilación de información se hará una revisión del estado del arte y análisis de la bibliografía encontrada en bases de datos de artículos científicos.


CONCLUSIONES

La manufactura aditiva se ha proyectado para reemplazar a la manufactura tradicional; emplear la impresión en 3D para transformar un modelo digital en un objeto físico presenta ciertas ventajas y se considera como un proceso de manufactura sustentable. Sin embargo, actualmente carece de cierta rigidez necesaria para su introducción total en la industria manufacturera. Esto representa un desafío para la ingeniería y un gran avance para la industria en su objetivo por llegar a la industria de la tecnología y la digitalización.
Herrera Guzman Elena Yajandi, Universidad Autónoma de Guerrero
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

DISEñO DE ESTRUCTURA INTERNA QUE PERMITA AL SISTEMA CONSTRUCTIVO TAPIAL, MEJORAR SUS CARACTERíSTICAS ESTRUCTURALES


DISEñO DE ESTRUCTURA INTERNA QUE PERMITA AL SISTEMA CONSTRUCTIVO TAPIAL, MEJORAR SUS CARACTERíSTICAS ESTRUCTURALES

Herrera Guzman Elena Yajandi, Universidad Autónoma de Guerrero. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

La construcción sostenible se dirige hacia una reducción de los impactos ambientales causados por los procesos de construcción, uso y derribo de los edificios. La utilización de materiales locales poco manufacturados facilita la reducción de emisiones de CO2, reduce la dependencia material y energética del exterior, recupera los sistemas constructivos tradicionales basados en la gestión de recursos existentes en el medio y permite la reducción de costes de obra. Todos los sistemas de tierra aseguran la optimización de los recursos naturales con una baja carga tecnológica al estar perfectamente adaptados a la realidad climática, ya que ayudan a regular el intercambio de vapor de agua y calor entre el interior y el exterior y favorecen el estado de confort interior de la vivienda. El tapial es una técnica constructiva tradicional que destaca su estabilidad y dureza. Esta técnica consiste en construir muros con tierra arcillosa, compactada a golpes y empleando un encofrado deslizante para contenerla. Su aplicación podría marcar la diferencia para los sectores vulnerables por su bajo costo y beneficios.



METODOLOGÍA

El diseño de investigación se clasificará en tres bloques a partir del análisis de la granulometría de las diferentes muestras de las zonas aledañas a la ciudad de Oaxaca de Juárez, seguido de la elaboración de diferentes prototipos a escala con propiedades variantes, para finalizar con su exposición ante una fuerza vertical y horizontal sobre el muro para analizar su máxima resistencia y durabilidad. Entre las ventajas de este tipo de construcción destaca: Excelente Comportamiento Térmico Excelente Aislamiento Acústico Aislamiento a Radiaciones Electromagnéticas Incombustibilidad contra el Fuego Alta Resistencia al Impacto Económico y Ecológico Excelente equilibrio de intercambio de humedad interior - exterior Una solución para estabilizar muros de tierra compactada o tapial contra los impactos horizontales del sismo es utilizar elementos dentro del muro, anclados con el sobre cimiento y fijados al encadenado. Los elementos de refuerzo horizontal son poco efectivos e incluso pueden ser peligrosos, debido a que no se puede apisonar bien la tierra debajo de los mismos y ya que el elemento de refuerzo no tiene un anclaje con la tierra se debilita la sección en estos puntos y pueden aparecer quiebres horizontales durante el sismo. En la investigación se expondrá el comportamiento del muro con una estructura interna de acero estructural ante una fuerza vertical u horizontal y su impacto en las futuras construcciones de tierra siguiendo este nuevo método constructivo.


CONCLUSIONES

Con la elaboración de los prototipos hechos a escala con los diferentes granulados de tierra y estructura se determinará el de mayor factibilidad ante las fuerzas aplicadas sobre el, así como su durabilidad, costo y resistencia sísmica para llevarlo a cabo en las futuras construcciones de tierra en los sectores vulnerables de la Ciudad
Herrera Higareda Raúl Camilo, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. José Núñez González, Universidad Nacional Autónoma de México

DISEÑO DE UN CONCENTRADOR SOLAR CIRCULAR CON AYUDA DEL UN TRAZADO DE RAYOS EN COMSOL Y SIMULACIÓN DE TRANSFERENCIA DE CALOR EN ANSYS


DISEÑO DE UN CONCENTRADOR SOLAR CIRCULAR CON AYUDA DEL UN TRAZADO DE RAYOS EN COMSOL Y SIMULACIÓN DE TRANSFERENCIA DE CALOR EN ANSYS

Herrera Higareda Raúl Camilo, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. José Núñez González, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la Universidad de la Ciénega del Estado de Michoacán de Ocampo se tienen varios proyectos relacionados con energía solar, de los cuales algunos de ellos utilizan heliostatos o canales parabólicos los cuales permiten la concentración de rayos solares en un punto específico para tener un incremento de la temperatura en el punto de intersección de todos los rayos. Sin embargo, para el funcionamiento eficiente de la concentración solar se requiere que los ángulos de incidencia de los rayos en las superficies de los concentradores sea el correcto. Para esto se pueden aplicar diferentes técnicas, una de ellas es con la ayuda de un láser. En esta técnica se apunta con un láser a la superficie del concentrador y se busca que el rayo incida en un solo punto sin embargo esta técnica no es precisa y es muy tardada.  Lo que se propone es a través de la utilización de softwares como Comsol Multiphysics, Soltrace y Opticad llevar a cabo una simulación de trazado de rayos que permita obtener todos los ángulos de inclinación (en caso de concentradores con espejos planos) y los puntos focales (en el caso de parábolas) permitiendo obtener la máxima incidencia de los rayos en el punto que se desea.



METODOLOGÍA

En este verano de investigación se llevó a cabo una introducción de 5 semanas a lo que fue dibujo y simulación en softwares como Solidworks en el cual dibujamos la mayoría de las piezas para familiarizarnos con el entorno de diseño. Otro de los softwares que se utilizo fue Ansys en donde se llevaron a cabo simulaciones para ver la interacción de la transferencia de calor, mecánica de fluidos, análisis de fuerzas y comportamientos de flujos en geometrías que dibujábamos en Solidworks. Además, en mi caso tuve que llevar una introducción a otros softwares como Comsol Multiphysics en donde se analizaría el trazado de rayos en un diseño de un concentrador solar cilíndrico que aún no se desarrolla. Se interactuó por último con otros softwares también para trazado de rayos como Soltrace y OptiCAD para llevar acabo trazado de rayos en el diseño del concentrador y comprobar los resultados utilizando los 3 diferentes softwares.


CONCLUSIONES

Con este trabajo de verano se pretende resolver las problemáticas en la universidad de la Ciénega logrando mejorar los dispositivos para tener mejores beneficios. Cabe mencionar que aún falta desarrollar varias partes de este proyecto, ya que por falta de tiempo no se fue posible desarrollar todo el proyecto. Es por esto que se continuara trabajando para llegar a buenos términos este trabajo de verano.
Herrera Ivares Daniel Francisco, Instituto Tecnológico de Pachuca
Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California

DISEñO Y DESARROLLO DE UN SISTEMA ALTERNATIVO DE GENERACIóN DE ENERGíA SUSTENTABLE PARA TRANSPORTE


DISEñO Y DESARROLLO DE UN SISTEMA ALTERNATIVO DE GENERACIóN DE ENERGíA SUSTENTABLE PARA TRANSPORTE

Herrera Ivares Daniel Francisco, Instituto Tecnológico de Pachuca. Montes Trejo Erasmo, Instituto Tecnológico de Pachuca. Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, la calidad del producto y el tiempo de vida para alimentos perecederos es primordial en el servicio de transportes de mercancía, no obstante, el transporte terrestre es el que se encuentra sujeto a distintas condiciones de temperatura. En México se ubican una gran variedad de empresas de autotransportes distribuidas por toda la república con aproximadamente un millón de distintas unidades, a los cuales el 7.2%, es decir, poco más de 70 mil, pertenece a los transportes con cajas refrigerantes.(Secretaria de Comunicaciones y transportes, 2018). Estos transportes funcionan mediante el uso de sistemas de control de temperatura para mantener las condiciones ambientales para la conservación del producto transportado. Para su funcionamiento estos consumen diésel, en promedio, aproximadamente cuatro litros por hora dependiendo de la temperatura externa y la temperatura interna (Grupo de Thermoking, 2014). Sin embargo, la mayoría de los transportes por este medio tardan de 6 a 14 días dependiendo del punto de partida y el destino, para el cual, sistema de control de temperatura debe estar encendido y controlando la temperatura para evitar la pérdida de su carga, hablamos de aproximadamente 96 litros al día de consumo de diésel. ¿Será posible reducir el consumo de combustible implementando medios alternativos energéticos a través de fuerza eólica para el funcionamiento de cajas refrigerantes?



METODOLOGÍA

Se utilizará la metodología para el desarrollo de productos. (Santiago Sierra López, 2009) Investigación En primera instancia se realizó una investigación concreta que busque la necesidad, innovación, eficiencia, eficacia y beneficios al implementar un sistema alternativo de ventilación eólica. Así mismo, efectuar una búsqueda de empresas productoras de cajas refrigerantes, estado actual ante otros productos similares y carencias en cuanto la eficiencia. Para identificar necesidades se debe ejecutar una investigación de campo visitando empresas productoras y camiones que están en actual servicio para el análisis de eficiencia. Así mismo, el análisis del mercado conlleva una búsqueda de información de los productos similares en el mercado (catálogos, almacenes, revistas, Internet, etc.) y un registro de los productos de la competencia.  Por último, se elabora un cuadro comparativo con los productos que se cree, puedan ser los más competitivos con el nuevo producto y sacar conclusiones. Diseño conceptual En esta fase del diseño del producto se da solución a los problemas que plantean las especificaciones, para luego proponer un modelo de producto final que cumpla con las funciones necesarias para satisfacer la demanda de energía de la caja refrigerante mediante un sistema alternativo de ventilación eólica. Así pues, se está desarrollando la primera fase del diseño del producto. Diseño formal Una vez ya definidos los requerimientos del producto se procede a realizar un estudio o análisis formal para luego generar una serie de conceptos del producto final, donde el mejor, se convierte en la alternativa a desarrollar. Exploración formal, consiste en realizar una exploración muy detallada, con las imágenes recopiladas del contexto, eficiencia y eficacia que describe el proyecto para obtener diseños, formas, materiales y texturas que serán necesarias en la elaboración del sistema alternativo. Generación de alternativas, consiste en una lluvia de ideas en base a los diseños, formas, materiales y texturas de PDS, para realizar bosquejos del producto final. Selección de alternativas, consiste en desarrollar alternativas sintetizando todas las ideas anteriores en al menos cinco alternativas que serán evaluadas posteriormente mediante una matriz de evaluación para posteriormente hacer ambientación de las alternativas seleccionadas mediante el software CAD. Diseño de detalle Posterior al estudio formal y selección de una propuesta final, se ejecuta el diseño más detallado para su desarrollo posterior. Analizar aspectos funcionales, dimensionales, formales y materiales generará la propuesta para ser una alternativa competitiva en el mercado global. El modelado 3D consiste en el modelar partes, crear planos, verificar medidas y diseñar a detalle las partes. Pruebas al producto consiste en verificar la resistencia ante distintas situaciones del producto a través de software para pruebas virtuales. Creación y materialización, consiste en la elaboración del prototipo realizando un análisis de costos para posteriormente pasar a la elaboración del producto mediante distintos métodos.   Pruebas finales Pruebas técnicas, consiste en pruebas de funcionalidad y a distintas situaciones a las que será sometido nuestro producto. Pruebas de usuario, en este punto de ejecutan pruebas de funcionamiento en viajes reales, donde el producto funciona durante un periodo de tiempo establecido, esto con el fin de observar y analizar el comportamiento del prototipo ante la caja refrigerante y la interacción del viento con la batería.


CONCLUSIONES

El protocolo realizado durante la estancia del programa Delfín mostrará como resultado la generación de un nuevo producto que ayuda a la reducción de las emisiones generadas por Diesel, esto a través de un sistema sustentable alternativo de energía. El producto se basa en reducir un 70% el consumo de Diesel destinado para el sistema de refrigeración, con el objetivo de ayudar a las empresas de giro logístico que trabajan constantemente para cubrir la demanda generada por la exportación de productos a los países de Estados Unidos y Canadá, que son los principales consumidores de productos perecederos transportados por vía terrestre. Con estos negocios de producción agroalimentaria, México se posiciona entre los primeros lugares de este tipo de comercio. El producto consistirá en una caja de recepción de energía mediante un sistema adecuado en cuanto al modelo de los camiones, el cual se implementará en un lugar específico alrededor del tráiler.
Hinojosa Cruz Rodrigo, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Luis Murillo Fernandez, Corporación Universitaria Rafael Núñez (Colombia)

CAPTURA DE MOVIMIENTO POR VíDEO Y SENSORES INERCIALES EN MIEMBRO SUPERIOR PARA SISTEMAS DE ROBóTICA COLABORATIVA.


CAPTURA DE MOVIMIENTO POR VíDEO Y SENSORES INERCIALES EN MIEMBRO SUPERIOR PARA SISTEMAS DE ROBóTICA COLABORATIVA.

Hinojosa Cruz Rodrigo, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Luis Murillo Fernandez, Corporación Universitaria Rafael Núñez (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con la evolución de la industria 4.0 también se vuelve necesaria la implementación de un ambiente de trabajo en el que robots y humanos colaboran para realizar las actividades que se requieren y poder aprovechar los recursos de una manera más eficiente. Los sistemas de captura de movimiento son empleados en la robótica para evitar que en su espacio de trabajo, el robot evite colisionar contra los distinto objetos que se encuentren dentro de los límites de dicho espacio. Actualmente existen sistemas que logran realizar un sensado muy exacto, pero su costo es elevado y eso limita la inversión de muchas empresas.



METODOLOGÍA

La elaboración del proyecto parte de la pregunta: ¿Es posible reducir el margen de inexactitud de dos sistemas económicos de captura de movimiento, fusionando los datos de una misma variable obtenidos en cada uno?. Para tener posicionados en el espacio los elementos del cuerpo humano que pueden invadir el área de trabajo de un robot, se determinó para nuestro caso seguir la metodología de posicionamiento por ángulos dirigidos para capturar el movimiento del miembro superior de estudio haciendo uso de dos sistemas de captura de movimiento; el primero es un sistema basado en unidades inerciales y el segundo se trata del uso de visión artificial. Al principio se ajustaron los 4 sensores inerciales usados, generando un  bus de comunicación I2C con sus cuatro canales de comunicación correspondientes para la adquisición de señales de todas las unidades inerciales al mismo tiempo, realizando un buen tratamiento de datos se lograron obtener los ángulos que corresponden a cada sensor y finalmente, se aplicó el filtro de Kalman para armar una esqueletización virtual del miembro superior.  Por otra parte pero con el mismo objetivo, la captura de video usa reconocimiento de cara para dar una referencia de partida como origen y puño  para el final, donde se encuentra la mano como última articulación. Para reconocer las demás articulaciones de interés se posicionan marcadores con un color característico en cada una de estas, siendo en nuestro caso amarillo para el hombro y azul para codo, después de realizar algunas operaciones geométricas se obtienen los ángulos que corresponden a cada elemento detectado.  


CONCLUSIONES

El programa delfín me permitió poner en práctica los conocimientos que he adquirido a lo largo de mi carrera y así mismo adquirir nuevos al avanzar semana tras semana con la investigación, logrando tener como resultado una buena construcción física del sistema inercial y así mismo una comunicación eficaz para la obtención de datos.Este es un proyecto que recién comienza por lo que se requiere de más investigación para poder generar los algoritmos de tratamiento de datos con mayor exactitud y al mismo tiempo continuar buscando más información de comunicación. Respecto a la captura de movimiento con el uso de visión por computadora se comprobó que los márgenes de error de sistema  en cuanto a la exactitud son mínimos, ya que no rebasan +-0.5 grados de variación comparando contra un inclinómetro.  
Honesto Muñoz Arantza, Instituto Politécnico Nacional
Asesor: Dr. Luis Elias Chavez Valencia, Universidad de Guanajuato

UPPE-FRAME


UPPE-FRAME

Honesto Muñoz Arantza, Instituto Politécnico Nacional. Lara González Leobardo, Universidad de Sonora. Asesor: Dr. Luis Elias Chavez Valencia, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente la demanda de diversos polímeros es enorme en diversos ámbitos de la vida cotidiana del ser humano que es contrastante con la vida útil de apenas minutos u horas, siendo un contaminante bastante problemático debido a su largo tiempo de degradación, que puede llegar incluso a tardar siglos. Para evitar los efectos negativos que genera la contaminación por polímeros en el medio ambiente, se tienen varias soluciones, las cuales pueden ser, el reciclaje del mismo polímero para así darle una nueva vida útil sin cambiar su finalidad, la reutilización del polímero en un nuevo producto, o bien, la alteración de este para hacerlo más amigable con el medio ambiente. Basándonos en la reutilización de los desechos agroindustriales para solucionar la problemática de la contaminación y la falta de una vivienda digna de las comunidades más vulnerables. Según CONEVAL, cerca de 14 millones de hogares en México no gozan del derecho a la vivienda digna y decorosa como lo dicta el artículo 4to de nuestra constitución  política de los Estados Unidos Mexicanos. Por lo que este proyecto busca ayudar a resolver ambas problemáticas, la primera es reciclar desechos agroindustriales como la arpilla para la elaboración de bastidores para la construcción modular y la segunda es ayudar a la comunidad para construir viviendas con bajo costo siendo al mismo tiempo seguras y cumpliendo con los estándares actuales de construcción.



METODOLOGÍA

Inicialmente se propusieron varias alternativas de solución, de las cuales destacan, el uso de botellas HDPE (High Density PolyEthylene) para ser moldeadas en los marcos deseados, así como la utilización de resina UP (unsaturaded polyester) y PE(polyethylene) triturado, obtenido de arpillas. Para llevar a cabo dichas propuestas, fue necesario crear los moldes adecuados para cada método, con las dimensiones estándar de construcción modular a una longitud reducida en escala 1:8. De las opciones anteriores, después de pruebas preliminares se eligió el uso de resina UP y PE triturado debido a que presenta mayor facilidad para moldear las piezas deseadas así como una disponibilidad de los materiales necesarios en mayor cantidad y por último, presenta mejores propiedades mecánicas e inerciales que su contraparte en HPDE Al enfocarnos en utilizar solamente la resina UP y PE triturado, fue necesario crear una composición que nos facilitara la reproducción de las muestras, dicha composición es la siguiente: 278 gr de resina PP-250 100 gotas de catalizador 18 gr de PE triturado. Dicha composición es suficiente para obtener un tramo de 35 cm de largo aproximadamente. Así mismo durante la preparación de las muestras y su paso al molde, se tuvo el cuidado pertinente para evitar que se generara una reacción exotérmica, que pudiera alterar las propiedades del material. El proceso de pruebas mecánicas consistió en dos tipos de ensayo: Ensayo de flexión de viga a tres puntos Ensayo de compresión o elasticidad Se elaboraron 3 cubos de 4.5x4.5 cm, necesarios para realizar los ensayos de compresión o elasticidad. Después de someter las muestras a cargas de varias toneladas, pudimos obtener los datos necesarios para calcular el módulo de elasticidad del material, característica indispensable para cualquier material y sus propiedades mecánicas Para el ensayo de flexión de viga se utilizó una prensa Marshall, con un ensayo a tres puntos. Haciéndose tres pruebas consecutivas. En comparativa los marcos elaborados con el material UPPE resistió mayor carga, no se torció en exceso y en general su desempeño fue superior que los perfiles comerciales de acero de la marca plaka de Comex.


CONCLUSIONES

Los resultados de las pruebas mecánicas nos proporcionaron un punto de referencia con las opciones actuales del mercado. Teniendo sus ventajas claramente, al ser más barato y teniendo el factor de ser un producto que pretende reducir la contaminación del medio ambiente. Al plantear el problema, la solución parecía muy simple,  solo después de casi dos meses de trabajo, podemos constatar que aunque el proyecto ha iniciado de forma exitosa, con bases sólidas así como resultados prometedores, aún queda mucho tiempo y esfuerzo para que se pueda perfeccionar, al grado de ser implementado realmente, siendo la solución que nosotros planteamos.
Huerta Angulo Martin Enrique, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

SIMULACIóN Y OPTIMIZACIóN DE PROCESOS EN EMPRESA FABRICADORA DE PUERTAS DE 6 LUCES


SIMULACIóN Y OPTIMIZACIóN DE PROCESOS EN EMPRESA FABRICADORA DE PUERTAS DE 6 LUCES

Huerta Angulo Martin Enrique, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El principal objetivo de las empresas es aumentar su productividad, la cual en la mayoría de los casos es afectada por tres problemas principales: mala gestión, tecnología lenta y poco eficaz y sistemas y procesos ineficientes, este último se ha convertido en el principal factor que afecta la productividad y por ende es en el que las empresas se enfocan más. Una de las tácticas utilizadas para el mejoramiento de la productividad es mediante la optimización de los procesos. El propósito de esta estrategia es reducir o eliminar la pérdida de tiempo y recursos, gastos innecesarios, obstáculos y errores, con el fin de poder garantizar un aumento de la productividad, aumento máximo de la seguridad y la reducción de los costos de operación que se tenga. Es por esto que durante el verano de investigación se aplicaron estas estrategias para detectar las áreas de oportunidad que se tienen en una empresa y así proponer posibles mejoras, en este caso se tomó como ejemplo una empresa manufacturera dedicada a la fabricación de puertas de 6 luces.



METODOLOGÍA

Se utilizó el simulador industrial DELMIA QUEST® para modelar las diferentes áreas con las que cuenta la planta a partir de datos proporcionados por la misma empresa pertenecientes a los diferentes procesos que se llevan a cabo, además del layout correspondiente a la distribución de las áreas. Primeramente se construyó el área de herrería en donde se encuentran 4 tronzadoras, 8 sierras, 1 tina de lavado, 1 cortadora y  1 dobladora de lámina, 10 máquinas de soldado y 10 máquinas de pulido, con los operadores y facilidades correspondientes. El proceso que se lleva a cabo en esta área es cortar perfiles para extraer las partes de la base de la puerta que son enviadas a lavar y después a soldar y pulir para así obtener la hoja de la puerta. En seguida se construyó el área de marcos, la cual consta de 1 cortadora de perfiles, 2 roladoras y 3 tinas de lavado de marcos, con los operadores y facilidades correspondientes. En esta área se extraen dos postes y un cabezal, de los cuales a un poste se le coloca la bisagra para después hacer sets de marcos. Después, se creó el área de pintado, que se integra por un carrusel con 99 ganchos transportados a una velocidad de 70mm/seg, este carrusel tiene un operador que sube puertas y marcos y otro que los baja. También cuenta con 4 máquinas en las que se realiza la limpieza de la hoja soldada a mano y con pistola. El proceso que se tiene en esta área consiste en dos partes: primero la hoja soldada es limpiada con el objetivo de que la pintura se adhiera de la manera correcta, y segundo tanto como las puertas como los marcos son enviados a la máquina de pintado. Otra área que se construyó fue el área de corte de cristal, que cuenta sólo con 1 máquina operada por dos trabajadores. A esta área llegan hojas de cristal que son montadas a la máquina y cortadas en los pedazos que se requieran para la puerta correspondiente. Finalmente, se construyó el área de armado de puerta que consta de 2 máquinas de pegado de cristal, 6 estaciones de reposo, 2 máquinas de armado de puerta con poste, 2 máquinas de armado de L, 2 máquinas de armado de puerta completa y 2 máquinas de empaque, con los operadores y facilidades correspondientes. El proceso en esta área consiste en pegar los cristales a las puertas pintadas aplicando silicón caliente, silicón blanco y silicón transparente. Después son colocadas en las estaciones de reposo durante un tiempo determinado. Cumplido esto, pasan a las máquinas de armado de puerta en donde el operador asignado se encarga de unir la puerta con el poste de bisagra, mientras que en la máquina de armado de L otro operador une un cabezal con un poste. En seguida, se traslada a la máquina de armado de puerta completa en la cual se unen los dos productos anteriores. Por último, se manda a la máquina de empaque donde se obtiene el producto terminado. Una vez terminada la modelación se tomaron 30 muestras de tiempo de la duración en que la empresa tarda en sacar 510 puertas para así validar el modelo y obtener el análisis estadístico del modelo con el que se detectaron las áreas de oportunidad para proponer mejoras.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos relevantes sobre el simulador industrial DELMIA QUEST® y ponerlos en práctica con un caso real. Los resultados estadísticos del modelo original arrojaron tiempos ociosos muy altos tanto de máquinas como de trabajadores en las áreas de herrería y de armado de puerta. Es por esto que la propuesta de mejora fue eliminar 1 tronzadora, 1 máquina de pegado de cristal, 1 máquina de armado de puerta con poste, 1 máquina de armado de L, 1 máquina de armado de puerta completa y 1 máquina de empaque, así como mandar a recursos humanos a 12 operadores. Al aplicar estas mejoras se repitieron las 30 corridas de tiempos para dar validación al nuevo modelo y se obtuvo un nuevo análisis estadístico el cual arroja que los tiempos ociosos de esas áreas habían disminuido lo que genera beneficios a la empresa ya que los gastos de nómina, de maquinaria y de mantenimiento disminuirán, y la productividad aumentará. Cabe destacar que con el nuevo el tiempo de entrega de las 510 puertas aumentó de un promedio de 3.22 a 3.35 días, sin embargo esto no es significativo ya que el pedido se estaría entregando dentro del día acordado con el cliente. Con estos resultados se comprueba que las propuestas de mejora son factibles para la empresa.
Huerta Duran Elia, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.


CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.

Huerta Duran Elia, Benemérita Universidad Autónoma de Puebla. Licona Flores Cassandra, Instituto Tecnológico de Pachuca. Muñoz Granados Luis Daniel, Instituto Politécnico Nacional. Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los factores principales de crisis urbana de nuestros días tiene que ver con la disposición de agua para la vida diaria en las viviendas, comercios, servicios e industrias. Obtener nuevas fuentes de agua se va haciendo cada día más difícil, dado que la población crece y demanda este recurso en las ciudades y en el campo. A nivel urbano, el desperdicio del vital líquido tanto por los consumidores directamente como en las tuberías dañadas y muebles sanitarios ineficientes o en mal estado, representa solamente una parte del problema; la contaminación de las aguas usadas tanto en los domicilios como en procesos industriales es otra, y la falta de opciones para su disposición cierra el círculo. No es suficiente con proveer la cantidad de agua requerida, sino que se debe asegurar su calidad necesaria para los diferentes usos, sin consecuencias adversas para la salud, de manera práctica y económica Es por lo anterior que la Facultad de Ingeniería Química de la BUAP optó por instalar una purificadora y desionizadora cuyo abastecimiento es el agua de la red municipal. El objetivo de ésta es suministrar agua purificada para el consumo de los docentes y personal de la misma facultad y de igual modo, proporcionar agua desionizada como reactivo de las prácticas de docencia. Al mismo tiempo el personal del Laboratorio de Operaciones Unitarias (sede de dicha planta) es quien se encarga de monitorear y asegurar la calidad del agua que se produce



METODOLOGÍA

El trabajo de investigación se ha realizado a través de una estrategia de trabajo consistente en las siguientes acciones: Se analizó la calidad de agua que llega y se trata para distribuirla a las instalaciones de la Facultad de Ingeniería Química (FIQ) de la Benemérita Universidad Autónoma de Puebla, en la colonia Jardínes de San Manuel de la capital poblana, Puebla.  El agua que se recibe se procesa en una planta tratadora de agua, ubicada en el Laboratorio de Operaciones Unitarias (LOU) de la FIQ. El tren de tratamiento  ofrece agua purificada para consumo del personal de la misma Facultad y agua des ionizada apta para emplear como servicio auxiliar en equipos, prácticas de docencia e investigación. El muestreo se realizó en 4 válvulas de la planta de tratamiento, válvula 2 (V2), 10(V10), 21 (V21) Y 31 (V31) . El agua de la válvula 2 proviene de la red municipal de agua potable; la válvula 10 suministra agua que ha pasado por un filtro de arena, un filtro con carbón activado y un sistema suavizador, la válvula 21 surte agua purificada, apta para el consumo humano, ésta se encuentra dentro de una cámara donde se procede al llenado de garrafones por solicitud del personal de la facultad. Por último, la válvula 31 dota de agua des ionizada, adecuada para usar en los equipos de todos los laboratorios de la facultad o como reactivo para prácticas de docencia e investigación en los mismos. El muestreo comenzó el día 1 de enero de 2019 y finalizó el 28 de Junio del mismo año. El tiempo de muestreo corresponde a los períodos Primavera 2019 y Verano 2019 para las actividades en la BUAP,en un horario de 9 a las 12 hrs. Se midieron sólo 4 parámetros físico-químicos: conductividad eléctrica (CE), Total de sólidos disueltos (TDS), potencial de hidrógeno (pH) y dureza. Los dos primeros, CE Y TDS se determinaron mediante un multiparámetro portátil OAKTON. El pH y la dureza fueron determinados con ayuda de kits especiales para ello. Para determinar Conductividad eléctrica y TDS se usó un multiparámetro marca OAKTON. Una vez encendido se introducía el electrodo  en el vaso de precipitado con el agua de interés dentro. Se configuraba el multiparámetro para determinar Conductividad presionando MODE. Para tomar una lectura confiable se esperaba a que la pantalla mostrara el mensaje READY, una vez anotada la lectura se presionaba MODE hasta que en pantalla apareciera como parámetro a medir TDS, nuevamente se esperaba el mensaje  READY para leer la medición de TDS. Entre cada muestreo se enjuagaba el electrodo con agua des ionizada y se dejaba escurrir para asegurar que no quedaran restos de la muestra anterior y que ésta afecte la lectura de la siguiente muestra. Para determinar el pH parte de la muestra se vertía en una columna colorimétrica, a la cual se le añadían 2 gotas de indicador Fenol Rojo, luego se agitaba para homogeneizar y la coloración obtenida se comparaba con la escala de pH que incluía el Kit. Las coloraciones podían indicar que el pH era aproximado a 6.8, 7.2, 7.6, 7.8 y 8.2. El interés de conocer la dureza del agua sólo se centró en la Válvula 10, debido a que era necesario conocer la presencia de sales que se le añaden en el intercambio iónico. Ésta se determinó con un kit en el cuál se aforaba en un recipiente de plástico transparente, se añadían 2 o 3 gotas de solución Buffer y posteriormente se titulaba con EDTA. Si a la primer gota de titulante añadida a la solución muestra se tornaba azul indicaba 0 ppm de dureza y luego, por cada siguiente gota añadida significaba 10 ppm de dureza. En solo una ocasión se tituló agua de la válvula 2, la cual indicó una dureza aproximada de 300 ppm.


CONCLUSIONES

De acuerdo a la NOM-127-SSA1-1994, el agua purificada que sale de la válvula 21 cumple con los límites permisibles de acuerdo a los parametros medidos.  De acuerdo a clasificación de los tipos de agua según ASTM 1193: 2001, se tiene un agua desionizada tipo IV la cual es agua con una conductividad final máxima de 5,0 µS/cm. La cual sirve para la preparación de soluciones y para el lavado o enjuague de cristalería. Con base a la norma anteriormente mencionada el agua desionizada que produce la planta satisface los requerimientos en cuanto a conductividad eléctrica y pH. De acuerdo a lo anterior se considera importante continuar los registros de monitoreo en la bitácora, para detectar posibles irregularidades en el funcionamiento de la planta que puedan afectar la calidad del agua que se produce, además se sugiere una sanitización en periodos de cada tres meses para evitar fluctuaciones en los parámetros de calidad.
Hurtado Gomez Misael de Jesus, Instituto Politécnico Nacional
Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

DESARROLLO DE DISPOSITIVOS AVANZADOS PARA EL ALMACENAMIENTO DE ENERGíA.


DESARROLLO DE DISPOSITIVOS AVANZADOS PARA EL ALMACENAMIENTO DE ENERGíA.

Acosta Valdelamar Ana Laura, Instituto Politécnico Nacional. Hurtado Gomez Misael de Jesus, Instituto Politécnico Nacional. Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

Las investigaciones y experimentos con fines académicos e industriales están relacionadas y en algunos casos dependen de espacios en donde es necesarios que se cuente con equipos y materiales de laboratorio que sirven de durante el proceso de investigación. La implementación de ciertos equipos de laboratorio facilita la determinación de ciertos parámetros que poseen las muestras y que son importantes para que el trabajo se lleve a cabo. La operación de algunos de los equipos de laboratorio debe de hacerse con el conocimiento adquirido durante la capacitación para un uso adecuado de dichos equipos. El problema se encuentra en que existe un limitado número de personas que saben operarlos y como consecuencia el análisis de algunas muestras a veces puede verse limitado. Por esta razón es necesario tener evidencia escrita sobre el funcionamiento correcto de los equipos que serán utilizados durante el proceso de investigación y con ello poder obtener que el número de personas que puedan operar los equipos aumenten con ayuda de manuales prácticos para que cualquier usuario que requiera utilizarlos lo haga de manera adecuada y eficiente el proceso de investigación.



METODOLOGÍA

En el proyecto Desarrollo de dispositivos avanzados para el almacenamiento de energía, se recibió adiestramiento sobre la operación de algunos equipos de laboratorio como un analizador elemental, un analizador termogravimétrico, un espectrómetro de masas y cromatógrafo de gases que serán utilizados durante la estadía. La función de un analizador elemental es poder determinar el contenido total de carbono, hidrógeno, nitrógeno, y azufre presentes en las muestras en donde era necesario conocer las cantidades de estos elementos. Esto sucede gracias a que la muestra se oxida completa e instantáneamente mediante una combustión con oxígeno y a una temperatura alta, donde después los productos de la combustión son transportados a un tubo de reacción con ayuda de un gas y finalmente son separados por un detector de conductividad térmica. Mientras que un analizador termogavimétrico permite conocer la estabilidad térmica de una muestra, se observa la pérdida de peso al aumentar la temperatura. En el proyecto está información aporta conocimiento básico de la muestra sobre la resistencia de los materiales que serán utilizados en las celdas de almacenamiento de energía. Con un espectrómetro de masas es posible obtener información acerca de la masa molecular de los compuestos de la muestra o de ser así también su información estructural, detectar su presencia o cuantificar su concentración. Y finalmente el cromatógrafo de gases cuya función es la de separar y analizar los componentes que tiene una muestra. Después de conocer la función de cada equipo fue necesario revisar y leer manuales de uso básico para la operación adecuada de los equipos  y con esto fuera posible presenciar el uso de cada uno, y así poder manipularlos con algunas muestras y al final poder interpretar algunos resultados.


CONCLUSIONES

Durante la estancia de verano fue posible adquirir conocimiento sobre la función y operación de equipos de laboratorio e interpretación de algunos resultados, como lo son el analizador elemental, analizador termogavimetrico, espectrómetro de masas y cromatografo de gases; esto gracias al uso de manuales. Se caracterizaron algunas muestras del proyecto de investigación, con el fin de poner en práctica la operación de los equipos.
Hurtado Ruiz Brenda, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro

IMPLEMENTACIÓN DE MERCADOTECNIA EN PRODUCTO HECHO A BASE DE HARINA DE ROCAS PARA SU USO EN CULTIVOS


IMPLEMENTACIÓN DE MERCADOTECNIA EN PRODUCTO HECHO A BASE DE HARINA DE ROCAS PARA SU USO EN CULTIVOS

Hurtado Ruiz Brenda, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

El neuromarketing, es la aparición de imágenes del cerebro que anima a los especialistas en marketing utilizar técnicas de imagen de última tecnología para resolver problemas del marketing, de esta manera surge el neuromarketing, ya que las empresas quieren encontrar un modo seguro para mejorar las acciones que determinan la relación de la organización con los clientes, siendo capaz de lograr directamente respuestas neurofisiológicas, por lo cual, es convierte ya prácticamente en una metodología que puede facilitar respuestas fiables, este estudio, permite conocer el comportamiento de compra ante impulsos del marketing, de los cuales los clientes no tienen conocimiento y hace diferenciar lo que piensan, sienten y creen, para obtener la mejor aptitud a la toma de decisiones. El neuromarketing, está presente en la investigación que se está realizando, la cual el cliente se debe de sentir identificado con el producto, tomando en cuenta sus sentimientos, percepciones, procesos, toma de decisiones, etc.



METODOLOGÍA

El neuromarketing se basa en datos y el cruce de ellos y realiza acciones de las que no siempre se da cuenta el consumidor (Durán, 2019). El neuromarketing, aplica técnicas que pertenecen a la neurociencia, y ésta se liga a la mercadotecnia tradicional y digital, con el objetivo de entender mejor cómo se llevan a cabo las decisiones de los consumidores. La metodología aplicada es por medio de artículos de libros y revistas de neuromarketing y mercadotecnia, las cuales se investigaron previamente y por medio de la metodología cualitativa, en la cual los clientes tienen cualidades en común en la que nos explican los sentimientos que el cliente tiene, la decisión que toma el consumidor que esta lleva alrededor de 2.5 segundos en la decisión de la compra, el precio que se le da y que es más probable que el consumidor compre el producto cuando el precio se tiene en números con centavos que a un precio con números cerrados, por supuesto la imagen y ubicación del producto. Esta metodología, se aplicó en productos relacionados de acuerdo a las necesidades que tiene el consumidor, en las investigaciones planteadas, que hoy en día basta con ver campañas recientes que incluyen y ponen de ejemplo al neuromarketing, considerando además la influencia que tiene en la mente del consumidor, aplicándose de esta manera al producto denominado: organic flour.


CONCLUSIONES

Patrick Renvoise, coautor de Neuromarketing: Uncovering The Buy Button, define al neuromarketing como un modelo de previsibilidad de marketing anclado a la neurociencia. Específicamente, el neuromarketing es la ciencia de la decisión humana. El neuromarketing aplicado es utilizar los hallazgos de la neurociencia para mejorar ventas y marketing. (Garibay, Estas son las palabras que tu estrategia debe incluir, según el neuromarketing, 2018) El neuromarketing, parece impactar por demás de los estrategas, basta con observar con campañas resientes que incluyen y apuestan de ejemplo el neuromarketing, solo basta con utilizar palabras que llamen la atención del cliente o consumidor las cuales pueden ser: gratis, poderoso, fácil, oferta, ahorro, garantizado, comprobado, especial, exclusivo, extra, beneficios, original, inteligente o regalo, estas palabras se han aplicado en la mayoría de las estrategias de neuromarketing en la implementación de mercadotecnia en el producto que se está desarrollando. Por otra parte, se observó el precio que esta implementación de mercadotecnia lleva que es de $11, 175.45 , con una inversión necesaria de $2, 217, 045.38, el costo unitario del producto que es de $130.00 que es muy atractivo con las competencias en la región, por otra parte se propuso una presentación mas pequeña, que es de 20 kilogramos, el cual se le obtiene más ganancia y este va dirigido al mismo segmento como una prueba o para amas de casa que tienen cultivos en el hogar, la imagen que tiene el producto, las mejoras que se le hicieron a la imagen corporativa, los colores que el logotipo lleva y la influencia que tiene en el consumidor, en el momento de hacer el encuestó rápido, las decisiones que tomo el consumidor fue aproximadamente en los 2.5 segundos que se mencionan y tomando en cuenta los sentimientos que el consumidor tiene o siente al momento de observar el producto que son: necesidad, felicidad, satisfacción, confianza, emoción, éxito, lealtad, etc. En la misma encuesta se observó que, el consumidor compra el producto cuando el precio es con centavos que a cambio cuando el precio es con números cerrados. Cabe mencionar que el marketing, también se lleva a cabo de manera tradicional mas no solo digital, sin embargo, las dos herramientas son muy útiles y necesarias para llevar una buena implementación de mercadotecnia, por lo cual se entrevistó a las mismas personas para ver los sentimientos y reacciones que tuvieron al ver los trípticos, volantes, stand publicitario, tomamos en cuenta las opiniones que se tuvieron en común y hacer los cambios en los ya mencionados.
Ibarguen Mosquera Yarlin Yesid, Corporación Universitaria Minuto de Dios (Colombia)
Asesor: M.C. Cristhian Andres Beltran Zuñiga, Universidad del Valle (Colombia)

ANÁLISIS DE LOS FACTORES DE RIESGO BIOMECÁNICO Y SINTOMATOLOGÍA ASOCIADAS A TRABAJADORES DE MAQUINARIA PLANA EN UNA INDUSTRIA DE GUANTES DEL VALLE DEL CAUCA PARA EL AÑO 2019.


ANÁLISIS DE LOS FACTORES DE RIESGO BIOMECÁNICO Y SINTOMATOLOGÍA ASOCIADAS A TRABAJADORES DE MAQUINARIA PLANA EN UNA INDUSTRIA DE GUANTES DEL VALLE DEL CAUCA PARA EL AÑO 2019.

Ibarguen Mosquera Yarlin Yesid, Corporación Universitaria Minuto de Dios (Colombia). Rueda Sánchez Luz Karime, Corporación Universitaria Minuto de Dios (Colombia). Asesor: M.C. Cristhian Andres Beltran Zuñiga, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los trastornos musculo esqueléticos se han convertido en una problemática que está afectando a la población trabajadora considerándose una problemática en el ámbito de la Seguridad y salud en el trabajo tanto en países desarrollados y lo que están en vía de desarrollo ya que estos son la causa más común de enfermedades laborales que aquejan la salud de los trabajadores, en donde en la industria manufacturera debido a las diversas actividades y la realización de constantes movimiento repetitivos y posturas mantenidas, dentro de los TME los que más se presentan según el acuerdo con la circular 035 del Ministerio de Trabajo, las enfermedades laborales más comunes por riesgo biomecánico se encuentran el síndrome del túnel carpiano, síndrome de manguito rotatorio, epicondilitis lateral, epicondilitis media, trastorno de disco lumbar y otros, con radiculopatia, otros trastornos especificados de los discos intervertebrales, otras sinovitis y tenosinovitis, lumbago no especificado, tenosinovitis de estiloides radial [de quervain] traumatismo, no especificado. Teniendo en cuenta datos estadísticos de estudios  sobre salud y condiciones en el lugar de trabajo que han sido realizado por el ministerio de trabajo Fuente especificada no válida, en el cual se pretendía demostrar los factores de riesgos presentes en los centros de trabajo encuestados  con el propósito de efectuar un seguimiento de estas condiciones de trabajo y las enfermedades de origen laboral, en la cual se reportaron que en más de la mitad de los centros encuestados, se presentan con mayor frecuencia las condiciones ergonómicas en el trabajo relacionadas con los movimientos que se generan de forma repetitiva en manos, brazos y piernas, posturas inadecuadas o conservada por un periodo prolongado. Los operarios de maquina plana al mantener la misma postura por periodo de tiempo prolongados, los movimientos repetitivos  y el  esfuerzo muscular aplicados pueden llevar al trabajador con el tiempo de exposición puede comenzar a presentar sintomatología de dolor leve en la parte del cuerpo afectada donde la sintomatología más frecuente en este tipo de riesgo es el entumecimiento, hormigueo y dolor asociado a inflamación, pérdida de fuerza y dificultad de movimiento en la zona corporal afectada, según datos de la II encuesta realizada sobre las condiciones de trabajo de España en el 2011, las zonas del cuerpo más afectada por esta patología resultaron ser el cuello con un 34,3 seguido por la zona alta de la espalda con 27,1 y la zona baja de la espalda 44,9.  



METODOLOGÍA

La presente investigación es de índole descriptivo, e inductivo  en lo que se busca con dicha investigación es identificar el riesgo biomecánico que se encuentran expuestos los operarios de máquinas planas, en donde a través del diligenciamiento  del  cuestionario de factores de riesgo ergonómicos y daños, y la aplicación el método RULA, evaluar el nivel de riesgo postural el cual  permite hacer una evaluación rápida de los esfuerzos posturales o musculo-esqueléticos de los trabajadores debido a funciones y fuerzas que ellos ejercen, como evaluación inicial de las constituciones del trabajador, basándose en observación directa de las posturas adoptadas en el momento de realizar las tareas teniendo en cuenta sus extremidades superiores e inferiores como brazo, antebrazo, muñecas, cuello, espalda y piernas, con estos resultados poder determinar una propuesta de intervenciones que facilite mejorar las condiciones laborales de los trabajadores con el propósito de minimizar la exposición.  


CONCLUSIONES

Los resultados obtenidos durante la ejecución de la investigación se aplicó el cuestionario de factores de riesgo ergonómico y daños , se toma como muestra 10 trabajadores  de 16 que se desempeñan como operarios de maquina plana,  en estos resultados se evidencia que los trabajadores manifiestan presentar molestias o dolor en espalda lumbar, con un 30% al igual que cuello hombro y /o espalda dorsal, estas dolencias se presentan debido a las exigencias del puesto de trabajo, las posturas prolongadas, movimientos repetitivos, y la intensidad horario en la realización de las tareas, se consideran factores predominantes que a largo plazo pueden desencadenar en los trabajadores enfermedades laborales como es la cervicalgia, lumbalgia, entre otras, que se encuentran dentro de estas patologías, con la aplicación del método RULA para evaluar el nivel de carga postural este método da como resultado en su nivel de intervención en los trabajadores da valores que se encuentran entre 4 y 7 esta puntuación final del método dará a conocer el nivel de intervención donde según los datos que obtuvieron es que pueden requerirse cambios en la tarea; es conveniente profundizar en el estudio, se requiere el rediseño de la tarea. CONCLUSIONES Con los resultados obtenidos con la aplicación del método RULA, para evaluar el nivel de carga postural, se evidencia  la necesidad de un rediseño de la  tarea o cambios urgente de estas en el área de confección, permitiendo  minimizar el nivel de riesgo  en esta población trabajadora, para con ello lograr mejorar las condiciones de trabajo, minimizar los tiempos de exposición y mejorar la calidad de vida de los individuos, ya que estas actividades son monótonas, rutinarias y no  permiten hacer rotación del personal. De acuerdo a la muestra seleccionada como operarios de máquinas planas del área de confección de la industria de guantes, se puede percibir que estos trabajadores presentan sintomatología que se asocia al peligro biomecánico,  sintomatología en miembros superiores como son el cuello, hombro y / o espalda dorsal, espalda lumbar, codos, estos se logra identificar que esto intervienen varias variables, como son las condiciones de trabajo, la posturas prolongadas, movimientos repetitivos que ejercen durante la jornada laboral
Ibarra Castañeda Paulina Lizbeth, Universidad Politécnica de Sinaloa
Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

ANÁLISIS DE UN CENTRO DE AYUDA HUMANITARIA: GESTIÓN DE ALMACENAJE Y ÁREAS DE OPORTUNIDAD.


ANÁLISIS DE UN CENTRO DE AYUDA HUMANITARIA: GESTIÓN DE ALMACENAJE Y ÁREAS DE OPORTUNIDAD.

Ibarra Castañeda Paulina Lizbeth, Universidad Politécnica de Sinaloa. Lizárraga Lizárraga Diana Lizeth, Universidad Politécnica de Sinaloa. Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El estudio se enfocó en conocer a detalle el concepto de Logística humanitaria y las problemáticas que adolecen los centros de ayuda humanitaria. Uno de ellos es la falta de organización, administración y distribución de insumos o donaciones; que impiden el control óptimo y correcto de la cadena de ayuda humanitaria. La investigación se situó en un centro ubicado en el sur de Sinaloa.



METODOLOGÍA

Se realizó una investigación de campo, ya que se acudió al centro de ayuda humanitaria para conocer las operaciones. Posteriormente, se realizó un piloto de un código de prioridades para la gestión del almacenamiento de insumos, que pueda favorecer el control de la cadena de valor, en situación de desastres naturales como huracanes. Se detectaron las áreas de oportunidades, sobre todo en la administración de insumos, concretamente el almacenamiento y su distribución. Con base en ello, se elaboró una propuesta de mejora, que incluye el desarrollo de prácticas lean como las 5S, administración visual y distribución de insumos.


CONCLUSIONES

La logística humanitaria se conoce como el proceso de planear, coordinar y ejecutar el plan de contingencia a los necesitados de un desastre natural, ofreciendo servicios médicos y de rescate, además de la distribución y entrega de insumos básicos. Al ser este un tema en desarrollo, se identifica la necesidad de contar con indicadores concretos para realizar un seguimiento y establecer metas cuantitativas. Tal es el caso, del centro de ayuda humanitaria revisado; en el cual se encontró falta de organización, señalizaciones y comunicación. Asimismo, se identificó una infraestructura pobre para atender la demanda del sur de Sinaloa, no solo de la operación cotidiana del mismo, sino en la situación de desastre. En cuanto al código de prioridades revisado, se detectan áreas de ajuste, sobre todo por la falta de capacidad de almacenaje y equipos para almacenaje. Como conclusión, se obtiene que la administración visual y lean favorece la operación de una cadena de ayuda humanitaria. Sin embargo, el personal es un eje clave para lograr el objetivo de la cadena de valor, que se traduce como la ayuda oportuna y óptima a las personas que lo necesitan, al menor costo y tiempo posible.
Ibarra Ovando Luis Abraham, Instituto Tecnológico de Tapachula
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Espinosa Zamora Diego Alfredo, Universidad de Colima. Ibarra Ovando Luis Abraham, Instituto Tecnológico de Tapachula. Torreblanca Villavicencio Daniel, Instituto Tecnológico de Tapachula. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El desarrollo sustentable de estos tiempos modernos impone un cambio drástico en la visión y las estrategias para lograr una infraestructura con responsabilidad social, consciente de los impactos ambientales que genera y cuyos objetivos se centren en mejorar la calidad de vida cumpliendo con los estándares ambientales de orden internacional. Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos.



METODOLOGÍA

Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Las proporciones empleadas de cada tipo de residuo fueron las siguientes: Para tiras y escamas de PET, se usaron 2gr por cada kg de cemento. Para ceniza de bagazo de caña, se reemplaza el 5% y el 15% en peso del cemento (para morteros y concretos, respectivamente). Para perlita de unicel, se sustituye la totalidad del volumen de agregado grueso. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados obtenidos no fueron satisfactorios pues identificamos ciertos errores que nos impidieron llegar a las cifras esperadas, tales como un diseño poco fortuito para las mezclas, humedad de los agregados y el tiempo disponible.  Los blocks no lograron su acometido, pues no rebasaron los 30 kg/cm2 y esto se debe a la cohesividad de la mezcla, así como al curado de los blocks. Los concretos ligeros obtuvieron una resistencia a la compresión que va del 12% al 20% de lo esperado. Los concretos con ceniza obtuvieron una resistencia a la compresión que va del 37% al 62% de lo esperado. Los concretos con tiras de PET obtuvieron una resistencia a la compresión que va del 58% al 80% de lo esperado. Los concretos convencionales obtuvieron una resistencia a la compresión que va del 65% al 73% de lo esperado, haciendo más notorias las deficiencias en el diseño, pues ni siquiera en la mezcla de control se logró llegar. Para la cuestión de las vigas, es satisfactorio mencionar que las tiras de PET cumplieron su función y retardaron la fisuración, consiguiendo mayor resistencia a la flexión. Se obtuvo un valor mayor al 20% de la resistencia a la compresión lograda en concreto convencional (145.52 kg/cm2). Las vigas con perlita de unicel lograron entre 11 y 17 kg/cm2, apenas posicionándose cerca del 10% de la resistencia a la compresión del concreto convencional. El sistema modular de muros si es muy efectivo, ya que son excelentes aislantes térmicos y debido a su peso reducido, son muy fáciles de transportar y colocar en el sitio de construcción; en conclusión, es una alternativa atractiva para viviendas de bajo costo para zonas marginadas.
Ibarra Salazar Juan Pablo, Universidad de Sonora
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES


FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES

Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional. Centeno Torres Brandon Ernesto, Universidad de Guadalajara. Ibarra Salazar Juan Pablo, Universidad de Sonora. Martínez Ramírez Brian Yannick, Universidad de Guadalajara. Mejia Rivera Marco Antonio, Universidad de Sonora. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el mundo está pasando por una serie de problemas ambientales bastante graves, en su mayoría ocasionadas por el ser humano, pero también ocasionadas por la naturaleza.  Un problema ambiental que se puede atacar es la contaminación debido a la ceniza volcánica, El gas emitido por un volcán se compone en su mayoría (75% aprox.) por vapor de agua (H2O), la fracción restante es conformada por dióxido de carbono (CO2), dióxido de azufre (SO2), sulfuro de hidrógeno (H2S), ácido clorhídrico (HCl), ácido fluorhídrico (HF); estos elementos son los productos principales y se caracterizan por ser emisiones ácidas.  El SO2 emitido se convierte lentamente en ácido sulfúrico (H2SO4), que se condensa en la atmósfera y se precipita en forma de lluvia con partículas muy finas. La concentración de estas partículas origina el llamado aerosol. Cuando éste se forma a partir del azufre se conoce como aerosol de sulfato. El objetivo de este trabajo es utilizar una manera de poder remediar los efectos por la contaminación en el suelo mediante una técnica que no genere contaminantes secundarios, por lo que se utilizó el método de fitorremediación; el cual consiste en aprovechar la capacidad de ciertas plantas para absorber, acumular, metabolizar, volatilizar o estabilizar contaminantes presentes en el suelo, aire, agua o sedimentos como: metales pesados, metales radioactivos, compuestos orgánicos y compuestos derivados del petróleo. Se reporta que algunas especies pertenecientes a las Asteraceas, toleran altos niveles de metales pesados en comparación con otros grupos taxonómicos y se les ha propuesto como especies fitorremediadoras. Helianthus annuus girasol pertenece a la familia de las Asteraceae , posee una facilidad de manejo en su cultivo, se adapta fácilmente a un amplio intervalo en la variación de temperatura. La época de la siembra es variable y depende de las características climatológicas de cada región. El girasol es reportado por su capacidad de acumular metales y responder con una alta biomasa radicular no obstante una baja tolerancia al cromo comparado con otras plantas acumuladoras.  



METODOLOGÍA

Para poder lograr nuestro objetivo de biorremediar zonas contaminadas tuvimos que hacer consideraciones y seguir una serie de pasos para que el desarrollo del proyecto fuera el óptimo, a continuación, en los siguientes puntos se establece el plan que seguimos a lo largo de nuestra estancia: ·         Muestreo de suelo con la que se trabajó. El material poroso tiene el fin de mantener la humedad apropiada para el crecimiento de la planta y de esta forma suministrar el oxígeno necesario, ya que la falta de oxígeno afecta el metabolismo del sistema radical y produce cierre de estomas . La selección de dicho material estuvo limitado a la disponibilidad de materiales en el laboratorio y a la conveniencia de utilizarlos en el sistema. El material seleccionado resultó ser el aserrín. ·         Preparación de la mezcla de suelo. Una vez obtenido el suelo que se usará para plantar el girasol, se limpió el suelo removiendo piedras, trozos de madera, raíces de plantas del lugar donde muestreamos la tierra, quitarle lombrices y otros animales que interfieran en el crecimiento del girasol, se mezcló teniendo como resultado 9 % de aserrín y el 91 % de tierra, esto con el propósito de retener la humedad. ·         Selección de la planta y germinación. Se seleccionó el girasol como planta a trabajar por su capacidad fitorremediadora que esta contiene además de que el tiempo de germinación de la planta es corto y los cuidados del girasol son relativamente sencillos. ·         Selección de un contaminante. Se eligió el azufre como contaminante debido a que el sitio de muestreo se encuentra en una zona que pertenece a los alrededores de los volcanes Iztaccíhuatl y Popocatépetl, y el azufre es un compuesto que se encuentra en cierta cantidad en la ceniza volcánica. Dicho contaminante fue seleccionado de acuerdo con la disponibilidad de reactivos en el laboratorio, así como la relación que este tiene con el campo de aplicación que se tiene. ·         Contaminación de la mezcla de suelo. se contaminó con azufre en diferentes concentraciones para su posterior análisis. Se decidió contaminar con concentraciones que van desde el 1 % hasta el 5 %, haciendo por triplicado cada concentración obteniendo quince macetas contaminadas con azufre. ·         Trasplante de los girasoles germinados al suelo contaminado. Una vez teniendo el girasol germinado (aproximadamente una semana después crecieron los tallos) se plantó en macetas con suelo ya contaminado y así iniciando el proceso de fitorremediación para su posterior análisis. ·         Cuidado de la planta por las siguientes cuatro semanas. Se mantuvieron las condiciones idóneas de humedad, temperatura y exposición solar para el adecuado crecimiento de la planta, además que se medía el pH y humedad dos veces por semana. El girasol es una planta que no necesita tanta agua para sobrevivir por lo que fue fácil su cuidado, en cuanto al pH necesita entre 7 y 7.5, logramos mantener el potencial de hidrógeno en ese rango. ·         Medición Cuantitativa de la degradación del contaminante en la tierra. Una vez pasadas las cuatro semanas se deberá medir el contenido de azufre en el suelo para conocer la cantidad que el girasol proceso.


CONCLUSIONES

La fitorremediación es una prometedora técnica que se puede usar para resolver diferentes problemas ambientales que incluyan dañinos contaminantes en los suelos. En este proyecto, mediante técnicas espectrofotométricas, se  determinará el nivel de degradación del azufre que tiene el girasol siendo seleccionada esta planta para su estudio gracias a las propiedades biorremediadoras que en la literatura se reporta.
Ibarra Salcedo Alejandro, Universidad de Guadalajara
Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara

PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.


PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.

Ibarra Salcedo Alejandro, Universidad de Guadalajara. Romero Méndez Jesús Eduardo, Universidad Veracruzana. Vidal Mendoza Javier Alonso, Universidad Veracruzana. Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La zona turística del litoral del pacífico; la ciudad de Puerto Vallarta en el estado de Jalisco, se enfrenta al problema de crecimiento urbano desordenado,  zonas periurbanas que se han ido poblando y anexando al centro de Puerto Vallarta, además de ambiciosos proyectos inmobiliarios que han tenido cabida en dicha situación. De manera que se busca que los nuevos proyectos de transformación urbanas, puedan integrarse al centro y a las zonas turísticas de la ciudad. Además, las áreas periurbanas y colonias que quedan en un intersticio urbano,(tomando la colonia 5 de Diciembre como caso de estudio), se encuentran entre espacios de desarrollo, buscando su transformación, e integración a la zona metropolitana. El reto más importante para la región en el mediano plazo es cómo manejar el crecimiento de las ciudades sin poner en riesgo el medio ambiente, la economía, la gobernabilidad y la calidad de vida de quienes la habitan.  Ahora bien, en una zona de alto turismo internacional resulta más complicada la tarea de realizar una planeación urbana estratégica.



METODOLOGÍA

Cómo proceso metodológico, en primera instancia se partió de la base teórica previamente realizada, dónde los objetivos y palabras clave han sido muy bien acotados. Para fines de la investigación, se llevó a cabo la recolección de información mixta, a través de la obtención de datos de manera cualitativa y principalmente cuantitativa, ya que muchas variables exigían la delimitación de datos concretos. Cabe mencionar que al momento de moldear el instrumento para la prueba piloto, nos dimos cuenta de las exigencias de algunas preguntas del instrumento (encuesta), resultando que había información eminentemente cualitativa. La interpretación de estos incisos debía ser por medio de un análisis de toda la situación que representa la mayoría de opiniones, vivencias o resultados de las encuestas, pero sin descartar cuando existan individuos que expresen minorías en su forma de pensar. Por lo que al tener ya el instrumento de aplicación para la obtención de información, se procedió la primera parte que era el levantamiento de un Check list, donde se hacían anotaciones de la situación en la que se encontraba la colonia que representa el caso de estudio. Como parte de la metodología para recabar datos, se procedió a realizar trabajo de campo a través de la implementación de encuestas en la zona de estudio: Una referente a la percepción que tienen los habitantes de dicha zona de su potencial económico; del estado en el cual se encuentra y de las necesidades que presenta. La segunda encuesta en relación a los procesos de movilidad que existen dentro de la zona. Se tomó un orden en la aplicación; la primera de ellas en las vialidades con sentido paralelo al mar, hasta haber terminado con la mitad. La segunda parte de ellas, aplicada en las calles con sentido perpendicular a las primeras. Para la aplicación de la segunda encuesta, se seleccionaron puntos estratégicos, en el caso en el cual representaban aquellos con más flujo peatonal y vehicular, con el fin de recabar datos que representen información concreta principalmente sobre el uso de los medios de transporte y los puntos de traslado a través de la ciudad de Puerto Vallarta, con referente a la zona de estudio. De tal forma que para dicho estudio se recabaron datos, tales como los lugares de residencia de los encuestados; los tiempos de traslados que realizan cada uno de ellos y cuántos viajes al día realizan; así como el medio de transporte que utilizan y algunas consideraciones sobre éste último.


CONCLUSIONES

La primera etapa de investigación, a través del método de observación, nos permitió percibir las condiciones y algunos de los fenómenos que presenta la zona de estudio, dada la recolección de información sobre sus condiciones actuales.  Es así, que dicha zona se define puesto que presenta un alto movimiento tanto vehicular como peatonal, por lo cual se caracteriza como una zona con vitalidad. Si bien, en primera instancia se obtuvo información referente a las condiciones actuales, al realizar la segunda parte de ésta primera etapa, se logró complementar la información y así identificar los rasgos positivos y negativos, dado que al recorrer y analizar la zona es posible identificar los factores y sectores que representan potenciales o carencias, y al analizar los datos obtenidos de las encuestas realizadas a los residentes y habitantes de dicha zona, fue posible corroborar algunos aspectos que se identificaron a primera instancia a través de la observación.  En efecto, la colonia 5 de diciembre representa un punto importante dentro de la ciudad de Puerto Vallarta, dado que es un eje conector de la misma, sin embargo ha presentado cambios en su infraestructura, en su mayoría centrándose en las principales avenidas de ésta; Av. México, Perú y Colombia, las cuales fueron remodeladas en su totalidad (Banquetas nuevas, cableado subterráneo, sin baches y un alcantarillado correcto a simple vista genera un aspecto de colonia limpia). Éstas con el paso del tiempo han sido mejoradas debido a que la afluencia de automóviles ha ido en incremento año con año y el turismo de igual manera, sin embargo, el aumento en la cantidad de turistas y automóviles que pasan por la colonia genera un desabasto en los cajones de estacionamiento público y genera más tráfico.  Cabe resaltar que con relación a las actividades comerciales y turísticas en dicha colonia, la llegada de nuevos restaurantes, tiendas departamentales, hoteles y edificios de oficinas son aquellos que han generado un cambio significativo en la colonia ya que estas empresas privadas aumentan el desarrollo turístico. De tal forma que como resultado de dichas transformaciones urbanas, el microcomercio local resulta ser el más afectado, puesto que la principal demanda se concentra dada la cercanía al mar. Es así que el microcomercio solo se desarrolla en relación a los consumidores  locales, más no a los turistas, debido a que las estrategias de planeación urbana no se establecen equitativamente a lo largo de la colonia.
Infante Soria María Fernanda, Instituto Tecnológico del Valle de Morelia
Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia

MODIFICACIóN HIDROTERMAL DEL HUESO DEL AGUACATE PARA LA BIOSORCIóN DE FERTILIZANTES PRESENTES SOLUCIóN ACUOSA.


MODIFICACIóN HIDROTERMAL DEL HUESO DEL AGUACATE PARA LA BIOSORCIóN DE FERTILIZANTES PRESENTES SOLUCIóN ACUOSA.

Anaya Becerra Diana Priscila, Instituto Tecnológico Superior de Tacámbaro. Infante Soria María Fernanda, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia



PLANTEAMIENTO DEL PROBLEMA

La finalidad de este trabajo de investigación fue modificar el hueso del aguacate introduciendo grupos amino y usarlo en la remoción de fosfatos presentes en solución acuosa. Lo anterior se llevó a cabo funcionalizando el residuo mediante la oxidación básica con NH4OH a temperaturas de 80º C durante 1, 2 y 3 horas. El material modificado y sin modificar fue caracterizado mediante técnicas tales como determinación de grupos funcionales y punto de carga cero (PCC), así como distribución de carga superficial mediante equilibrio de pH. Además, se determinó la máxima capacidad de remoción de fosfatos mediante experimentos en lote obteniendo los datos experimentales de las isotermas de adsorción a diferentes pH´s, temperatura y volumen constantes.   



METODOLOGÍA

El hueso del aguacate se modificó siguiendo el procedimiento descrito a continuación: El hueso de aguacate fue cortado en pequeños cubos, aproximadamente de medio centímetro. Despues, se enjuagó el material con una solución de agua y NaOH a 1 N a pH 10 durante 30 minutos manteniendo la solución en agitación. En tres matraces de bola se colocaron 20 gramos del material y de la misma forma se colocó 100 ml de solución NH4OH (hidróxido de amonio) a 2 N. Los matraces fueron introducidos en un baño llenado con agua potable el cual tiene montado un recirculador de agua, y mantuvo una temperatura de 80°C por 1, 2 y 3 horas. Una vez cumplido el tiempo de cada oxidación, se retiró de la solución de hidróxido de amonio decantando la muestra y se introdujo a un estufa donde permaneció por 24 horas a temperatura de 80° C. Al termino del tiempo, el material fue enjuagado con agua desionizada hasta eliminar los residuos del hidróxido de amonio para después de esto se volverlo a secar a una temperatura de 80°C por 24 horas.    Los materiales fueron caracetrizados mediante las técnicas que a continuación se mencionan:  Determinación de grupos funcionales mediante equilibrio de pH y titulaciones potenciometricas. Determinación de la carga superficial y PCC.  La capacidad de remoción de los materiales se llevó a cabo mediante experimentos en lote a diferentes pH´s, volumen y temperatura constantes. La máxima remoción de foisfatos se determino mediante un balance de masas.


CONCLUSIONES

Los resultados preliminares muestran que hubo un cambio en la química superficial de los materiales después de su modificación, sin embargo, no se observó cambio en las propiedades mecánicas. Los sitios ácidos totales cambiaron de acuerdo a la modificación obteniéndose que material que tuvo una mayor cantidad de grupos funcionales ácidos fue el oxidado por 1h (13.5650 mmol/g). La distribución de carga de los materiales mostró que el PCC se encuentra en pH 7.63 para el material oxidado durante 1 h, lo cual indica que por encima de este valor de pH la carga superficial se vuelve más negativa y por debajo se vuelve más positiva. Por último, los datos experimentales de las isotermas de adsorción a diferentes pH´s mostraron que remoción de fosfatos aumenta al disminuir el pH de la solución y que la máxima remoción se llevó a cabo a pH 3  
Islas Avila Shaden Eunice, Instituto Tecnológico de Pachuca
Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío

APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA


APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA

Bustos Palacios Efren, Universidad de Guadalajara. Islas Avila Shaden Eunice, Instituto Tecnológico de Pachuca. Merino Merino Oswaldo Antonio, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Desafortunadamente, se puede encontrar información de varios casos de abuso policial que vulneran los derechos humanos, violentando la seguridad e integridad física de las víctimas. En este caso, las víctimas no tienen un medio que permita conocer la identidad del ofensor, verificar la identidad del personal policiaco, o conocer su estatus de actividad.



METODOLOGÍA

Para llevar a cabo este proyecto, se buscaron aplicaciones móviles en diferentes plataformas de distribución y en Internet que permitan conocer el estatus de una patrulla o policía a través de un teléfono inteligente. Una vez concluida esa fase, se procedió a definir los requerimientos de la aplicación y usabilidad. Con los requerimientos de la aplicación y usabilidad, se procedió a realizar el modelado de software y Mockups. Después se realizó un story board para comprender la interacción con el usuario. Posteriormente, se definió el lenguaje de programación y se programó. Finalmente, se integró el diseño a la aplicación y se realizaron pruebas de usabilidad con posibles usuarios. Requerimientos y diseño. En base a los requerimientos definidos para la aplicación se diseñaron mockups que permitieron obtener una vista previa de sus interfaces y usabilidad, dichas características quedaron definidas de la siguiente manera: Barra de título con las siglas IDP (Identificación Policiaca). Botón circular desde el cual se accede al scanner de placas. Barra de ingreso de texto para la búsqueda manual de placas. Menú de 3 botones cuya función es permitir el contacto inmediato con otros medios en situaciones de riesgo: Enviar ubicación en tiempo real, incluyendo un pequeño texto descriptivo. Llamada de emergencia al 911. Toma de fotografía y posterior publicación en redes sociales. Desarrollo de la app y conexión a la base de datos en firebase Para la maquetación y desarrollo de la aplicación se decidió utilizar el entorno de desarrollo IDE Android Studio para versiones de Android 5.0 en adelante y para el diseño y creación de la base de datos se utilizó la plataforma en la nube Firebase en realtime. Asimismo, se desarrolló una página web, a cuyo acceso tienen los usuarios administradores, permitiendo realizar consultas sobre las patrullas buscadas por parte de los usuarios y obtener estadísticas con las cuales se puedan identificar posibles anomalías y se tomen acciones pertinentes; dicha página web se desarrolló con las tecnologías HTML5, Javascript y la ya mencionada plataforma Firebase. Pruebas Una vez concluida la fase de desarrollo, se implementó la primera versión de la app en un dispositivo móvil, con el fin de realizar pruebas de funcionamiento y usabilidad; dichas pruebas fueron aplicadas a los integrantes del equipo de desarrollo y posteriormente se aplicaron a otros usuarios, sin distinción de edad o experiencia en uso de aplicaciones móviles, esto, para determinar la efectividad e integridad del producto final desarrollado. Una vez concluidas las pruebas de interacción, se aplicó a cada usuario un formulario con el fin de obtener información relevante sobre su experiencia en torno a la problemática planteada y observaciones a manera de retroalimentación que pudiesen ser aplicadas en las siguientes versiones a desarrollar de la aplicación.


CONCLUSIONES

Después de haber realizado pruebas de usabilidad con posibles usuarios se obtuvo que: La problemática planteada en nuestro proyecto es de suma relevancia dentro de la población en la que se realizaron las pruebas. La aplicación es útil y puede ser implementada para conocer el estatus de un policía; así como, verificar la identidad del mismo. contribuyendo a incrementar la seguridad ciudadana dentro de nuestras fronteras.
Jean Louis Madoche, Instituto Tecnológico de Pachuca
Asesor: Dr. Jesus Lopez de la Cruz, Universidad de Colima

IDENTIFICACIÓN, PROPUESTA DE MANEJO Y EVALUACIÓN DE LA SOSTENIBILIDAD EN EL ABASTECIMIENTO DE AGUA A LAS COMUNIDADES URBANAS Y RURALES DEL ESTADO DE SAN LUIS POTOSÍ EN EL CONTEXTO DE LA AGENDA 2030”


IDENTIFICACIÓN, PROPUESTA DE MANEJO Y EVALUACIÓN DE LA SOSTENIBILIDAD EN EL ABASTECIMIENTO DE AGUA A LAS COMUNIDADES URBANAS Y RURALES DEL ESTADO DE SAN LUIS POTOSÍ EN EL CONTEXTO DE LA AGENDA 2030”

Jean Louis Madoche, Instituto Tecnológico de Pachuca. Asesor: Dr. Jesus Lopez de la Cruz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

El problema que se pretender resolver es el del abastecimiento de agua para uso y consumo humano en comunidades urbanas y rurales del Estado de San Luis Potosí. la problemática fue identificada desde el 2012 en la convocatoria FOMIX que buscaba empezar a resolverla en la región del Altiplano Potosino, por las condiciones particulares de dicha región, sin embargo, en el actual PED 2015-2021, la gestión integral de los recursos hídricos fue una necesidad detectada en las 4 regiones del estado, lo que demuestra la importancia de la atención de la misma. (FOMIX_UCOL_IPICYT-UASLP, ANEXO 2)



METODOLOGÍA

En la actualidad, uno de los temas que ocupan un papel primordial en la agenda de los gobiernos es el problema del abastecimiento de agua. En este contexto, la gestión integral y rigurosa de los recursos hídricos es fundamental para cualquier país, región o ciudad. Para ello, es necesario contar con un plan a largo plazo que permita mitigar los impactos que la variabilidad climática natural, la intensificación de actividades antropogénicas y el cambio climático pueden generar. El presente trabajo es parte de un proyecto, el cual nace de la necesidad del gobierno del estado de San Luis Potosí de tomar en cuenta la gestión sustentable del agua como un eje mayor del plan de desarrollo del estado. En este trabajo se analizó una de las amenazas naturales más importantes ligadas a problemas de abastecimiento de agua que son las sequías. El trabajo desarrollado se enfocó a la región Centro del estado de San Luis Potosí, la cual esta constituida por 12 de los 84 municipios del estado. En análisis se realizó con base a los registros de 65 estaciones climatológicas, seleccionado como periodo de trabajo 1965-2014. Se calculó el régimen de precipitación mensual en cada una de las estaciones, para cada municipio y para la región centro. La severidad de sequía se evaluó con el Índice Estandarizado de Precipitación (SPI por sus siglas en inglés), el cual permite identificar la sequía meteorológica en la zona de estudio. Se analizo la distribución espacio-temporal de la severidad de sequía. Los resultados generados permiten identificar aquellos municipios que presentan una mayor peligrosidad a los eventos de sequías. Estos resultados son parte de los cálculos necesarios en la evaluación de los recursos hídricos en la región centro del estado de San Luis Potosí.


CONCLUSIONES

Impacto Científico:El impacto científico se verá reflejado en primer lugar por el trabajo multidisciplinario propio del proyecto, que permitirá establecer las mejores alternativas de abastecimiento de agua en función de un consenso de actores involucrados en la problemática. En segunda instancia, se implementarán metodologías de evaluación de la sostenibilidad de las acciones derivadas del proyecto, lo que permitirá generar varios productos científicos, tales como artículos, ponencias en congresos, reportes. Impacto Tecnológico:Aquí el impacto más significativo serán las propuestas de procesos fisicoquímicos para la remoción de los contaminantes tóxicos que pudieran estar presentes en las fuentes de abastecimiento de agua (ejemplo, metales y fluoruros que ya ha sido identificados en fuentes de agua del Altiplano Potosino), lo que permitiría contar con procesos de tratamiento de bajo costo que pueden ser implementados en las comunidades. Impacto Social:La población de las comunidades urbanas y rurales de San Luis Potosí se verá beneficiada con la identificación de las acciones necesarias para mejorar la calidad de sus fuentes de agua y con la propuesta de alternativas para su abastecimiento. Impacto Económico:El impacto será en dos rubros. Primero, la población de las comunidades al ver satisfecha su necesidad de obras que los doten de agua, potenciará su desarrollo hacia nuevas actividades económicas que antes podrían estar limitadas por la carencia del recurso. Segundo, los gobiernos municipales y el estatal, podrán evaluar el ahorro en cuanto al tipo de obras superficiales que se puedan proponer, disminuyendo la inversión respecto a la perforación de pozos profundos que sería la última alternativa, en función de las condiciones encontradas por el proyecto.  Impacto Ambiental:El beneficio será para el estado de San Luis Potosí, ya que, al someter las propuestas de manejo para el abastecimiento de agua potable a una evaluación de sostenibilidad por medio de la evaluación ambiental estratégica, se permitirá prever con un alto grado de anticipación muy alto, las acciones de prevención y mitigación necesarias para que no se generen impactos ambientales negativos significativos en ella, que puedan causar desestabilidad al contexto ecológico de la región.(FOMIX_UCOL_IPICYT-UASLP, ANEXO 2)  
Jijon Hernandez Alex Abraham, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

ANÁLISIS DE MORTEROS ELABORADOS CON UNA SUSTITUCIÓN DE MUCILAGO DE NOPAL EXPUESTOS A UNA SOLUCIÓN DE MEDIOS SALINOS.


ANÁLISIS DE MORTEROS ELABORADOS CON UNA SUSTITUCIÓN DE MUCILAGO DE NOPAL EXPUESTOS A UNA SOLUCIÓN DE MEDIOS SALINOS.

Jijon Hernandez Alex Abraham, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Existen evidencias de que el calentamiento global observado se está desarrollando desde el siglo xx de manera inequívoca, y que éste está asociado a las acciones humanas, principalmente a la quema de combustibles fósiles y a procesos de cambio de uso de suelo (fundamentalmente a la deforestación). Por estos motivos, las concentraciones de dióxido de carbono aumentaron en un 35% desde la época preindustrial (1790) al año 2005, y, para el mismo periodo, las concentraciones del metano aumentaron en un 148% y del óxido nitroso en un 18%. Asociado a ese cambio en la composición atmosférica, se ha observado un aumento en la temperatura global de 0.74ºC, y, también se ha observado el aumento del nivel del mar de entre 6 a 10 cm de 1961 al 2003, y el decrecimiento de la cubierta global de nieve y hielo, al grado que para el Ártico se reportó una pérdida de alrededor de 3.5 millones de kilómetros cuadrados en su superficie. El cambio climático ha provocado ambientes agresivos y de climas extremos, el sulfato de sodio en particular se encuentra en el suelo, el mar y el agua freática, el cual ataca la superficie del concreto, las condiciones de exposición a sales a las que se encuentran sometidos elementos de concreto en ambientes marinos, los cuales sufren constantes ciclos de secado y humedecimiento, provocando en primer instancia el deterioro prematuro del revestimiento o del concreto, para finalmente reducir la vida útil de concreto, generando el desgaste del mismo y exponiendo al acero a medios corrosivos como lo es el CO2, por lo cual es necesario mejorar los compuestos de las mezclas de concreto, y a su vez reducir los costos en morteros para mampostería, es algo que beneficiaría a la industria de la construcción.



METODOLOGÍA

Esta investigación tiene como objetivo analizar y comparar la resistencia a sulfatos en especímenes de mortero a edades tardías, utilizando mucílago de cactus de opuntia como líquido de mezcla. Se sabe muy poco sobre el comportamiento del mucílago de nopal en las pastas de cemento, y aún existen preguntas sin responder sobre las adiciones del Cactus. Las muestras fueron elaboradas en octubre del año 2015 en el cual se obtuvieron resultados de compresión simple, flexión y tensión indirecta a edades tempranas, por lo cual se optó por seguir con la investigación y asi obtener resultados de las muestras a edades tardías a través de una prueba durabilidad. Se elaboraron tres morteros en ese año: CONTROL, MN 1: 2, MN 1: 3. CONTROL es el mortero testigo, utilizando una relación agua-cemento (a/c): 0,68, sin aditivo fluidificante; MN es un mucílago de nopal, el primero se obtuvo al hervir 1 kg de cactus y 2 litros de agua, el segundo fue 1 kg de cactus y 3 litros de agua, se utilizó fluidificación (Crisotan R-5), una mezcla del 1% y 0.3% en cada mucílago respectivamente. En tres morteros se utilizó arena extraída de "Joyitas", ubicada a 15 km al noroeste de la ciudad de Morelia. Se utilizó un cemento portland resistente a los sulfatos (CPC-30R RS). Se eligieron 5 especímenes más 1 testigo de cada muestra para someterlos a la prueba de laboratorio basada en la norma mexicana (NMX-C-075-ONNCCE-2016), el cual tiene como objetivo determinar la resistencia al desgaste de un mortero o concreto por medio de una solución saturada de sulfatos de sodio. La muestra testigo se sometió a pruebas de velocidad de pulso ultrasónico, resistividad eléctrica y compresión simple. Se preparo la solucion de sulfato de sodio (Na2SO4) con una concentracion de 350 g de sulfato por cada litro de agua destilada, la cantidad a utilizar debe ser suficiente para llevar a cabo por lo menos 5 ciclos de humedecimiento y secado de los especimenes, el proceso de preparacion de la solucion consiste en disolver el sulfato en el agua por un tiempo minimo de 1 hora. Se enumeraron los especímenes a evaluar, los cuales deben estar curados, saturados en agua hasta masa constante húmeda hasta el día de la prueba, y se determinan las dimensiones de los especímenes en cm. Se introdujeron los especímenes al horno a una temperatura menor a 60 °C, hasta masa seca constante, en un tiempo de 1 semana (1 ciclo), y registramos su peso. Se colocaron los especímenes en el recipiente con la solución de sulfato de sodio, estos deberán ir apoyados sobre una rejilla que evite su reposo directo sobre el fondo del mismo y asegure el contacto con la solución en todas sus caras, por lo que deberán estar separadas 2cm entre sí, los especímenes permanecieron en la solución de sulfato durante un tiempo de 16 a 18 horas, posteriormente a cada muestra se le llevo a cabo las pruebas de velocidad de pulso ultrasónico y resistividad eléctrica. Se repitieron los pasos de secado y humedecimiento por 5 ciclos, en cada ciclo se registraron los datos para posteriormente ser graficados.


CONCLUSIONES

En estos momentos la investigación sigue en curso, por lo cual se tienen registrados solamente 3 ciclos, en el cual se observa que las muestras con adiciones de mucilago de nopal tienen un mejor comportamiento al ataque de la solución de sulfato, ya que la muestra testigo se observa más deteriorada, también se observa por los datos obtenidos un aumento en el peso de las muestras en los primeros 2 ciclos, y un decremento en el tercer ciclo, al terminar los ciclos establecidos se compararan las muestras que estuvieron expuestas en la solución a la muestra testigo correspondiente y así otorgar datos verídicos y comparativos para la investigación e investigaciones posteriores. En conclusión tenemos que, el concreto aparte de ser diseñado por resistencia, deberá también de ser diseñado por durabilidad ya que abran agentes en el ambiente causados por el cambio climático los cuales deterioraran y harán que la calidad del concreto baje, y una intervención de una estructura reforzada puede ser altamente costosa, por lo cual es recomendable hacer estudios preliminares a cargo de un personal calificado para tener finalmente un control de calidad evitando mayores gastos futuros.
Jimenez Aguilar Leitza Jocelyn, Universidad de Colima
Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)

COMUNICACIóN DE SENSORES UTILIZANDO TECNOLOGíA BLE


COMUNICACIóN DE SENSORES UTILIZANDO TECNOLOGíA BLE

Jimenez Aguilar Leitza Jocelyn, Universidad de Colima. Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La implementación de un sistema IoT para la medición de variables como temperatura, humedad, luminosidad, etc. Es una aplicación muy útil, a lo que necesitamos una tecnología de comunicación con bajo consumo de energía y es ahí donde la tecnología BLE queda perfecta para nuestro sistema. Los sensorTag vienen pre-configurados para vincularse con una app móvil, diseñada por los mismos desarrolladores de Texas Instrument. Existen un par de problemas al trabajar con la app móvil, por ejemplo: Dicha app trabaja en conjunto con un servicio en la nube de IBM, lo cual nos causa un mayor tiempo al obtener los datos desde la nube a que si los tuviéramos directamente. La app solo muestra los datos de un solo sensor y lo que nosotros buscamos es trabajar con n sensores en el mismo tiempo, para lo que necesitamos implementar una pequeña WSN, utilizando los sensores internos de cada SensorTag y tener los datos disponibles con un menor tiempo de respuesta.  Para el desarrollo de este proyecto utilizaremos el nuevo SensorTag que se basa en el microcontrolador inalámbrico CC2650 (MCU), ofreciendo un consumo de energía 75% menor que los productos Bluetooth anteriores. Permitiéndonos que el kit SensorTag funcione con baterías. El Bluetooth SensorTag incluye tecnología iBeacon. Esto permite que nuestro teléfono inicie aplicaciones y personalice el contenido según los datos de SensorTag y la ubicación física. Además, el kit SensorTag se puede habilitar con la tecnología ZigBee® y 6LoWPAN.  



METODOLOGÍA

Para poder implementar una WSN utilizando la tecnología bluetooth, lo podemos hacer utilizando un dongle bluetooth o programar alguno de los sensores como el colector. En este caso, al no contar con un dongle, utilizaremos otro de los sensores que fungirá como colector.  Existen ciertos parámetros o direcciones que se deben establecer previamente para poder establecer la comunicación entre los sensores con los que contamos, para ello es necesario instalar algunas herramientas que nos ayudarán a completar nuestra tarea. Dichas herramientas son accesibles desde la página de Texas Instrument, el único prerrequisito es crearte una cuenta para así tener acceso a el software.  El software BLE Device Monitor, es de gran ayuda para hacer las pruebas con el sensor colector o el que será el que reciba toda la información desde los nodo sensores, también es necesaria la lectura del funcionamiento básico de estos dispositivos. Teniendo claro el funcionamiento de estos, podemos proseguir con nuestro desarrollo.  El sensor que fue elegido para ser programado como el colector estará conectado directamente a nuestra laptop o pc, lo que nos proporcionará comunicación con el puerto serial de nuestra máquina. Los dos sensores restantes serán programados para fungir como nodos. Cada uno de los sensorTag cuenta con sensores, por lo que las variables principales que se estarán monitoreando son: Temperatura Humedad Variables x,y,z obtenidas por el acelerómetro. El conjunto de estas variables conformará una trama o frame, la cual se estará  transmitiendo utilizando comunicación BLE. El tiempo de envío de los sensores estará previamente establecido en el código. La información transmitida por cada uno de los nodos sensores, será recibida o recolectada por el nodo colector, el cual a su vez estará conectado a una pc o laptop (como se mencionó anteriormente). Una vez que la información llegue al nodo colector una aplicación, desarrollada en python, estará extrayendo los datos y dándole el formato requerido; en el momento en el que el formato es el adecuado, la aplicación publicará un json a un broker MQTT. Los nodos sensores estarán desplegados con una distancia no mayor a los 8 metros al nodo colector. 


CONCLUSIONES

Se pretende establecer la comunicación de un nodo colector y dos o tres nodos sensores utilizando la tecnología BLE y la información obtenida por el colector, publicarla a un broker MQTT para su posterior tratamiento.
Jiménez Castillo María Herminia, Universidad de Guadalajara
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI


TELEOPERACION DEL ROBOT DOBOT A TRAVéS DE UNA BCI

Antaño Locia Gabriel, Universidad Autónoma de Guerrero. Gómez Villeda Yaritzel de Jesús, Instituto Politécnico Nacional. Jiménez Castillo María Herminia, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Se le conoce como discapacidad motora a las limitaciones y restricciones en actividades de la vida cotidiana de una persona como consecuencia de una deficiencia a nivel de estructuras bilógicas. En México cerca del seis por ciento de la población vive con algún tipo de discapacidad, indicándose como la motriz la más frecuente. Hoy en día se busca la implementación de la tecnología en el área médica para dar acceso a personas con dificultad motora a ejecutar algunos movimientos y/o actividades mediante el conjunto de tecnología integrada que comprenda la operación a distancia por un ser humano, llamado teleoperación. Se pretende con el verano de investigación lograr una integración de BCI (Interfaz cerebro-computadora) con el movimiento de un brazo robótico DOBOT Magiacian ®, donde el usuario pueda seleccionar dos actividades, selección de cubos de cuatro colores diferentes cada uno y dibujar formas geométricas en posiciones predeterminadas a elegir, lo anterior con la creación de programas en el software de Matlab y C# en Visual Studio, logrando así una teleoperación.



METODOLOGÍA

Para dar inicio se interactuó con el brazo robótico Dobot Magiacian ®, con el fin de lograr identificar cada una de las partes funcionales, restricciones y precauciones, para una correcta y segura manipulación; por otro lado, también se dio inicio con la descarga del SDK (Software Designer Kit) de la página oficial de Dobot Magiacian ®. Posteriormente se diseñó un manual de los componentes físicos y accesorios del brazo robótico Dobot Magician ®, en el cual se incluyó la descripción y la forma correcta de conectar y ensamblar cada uno de ellos. También se añadió un apartado de las precauciones que se deben tener al momento de utilizar el brazo robótico y de las restricciones que este posee. Después se diseñó y elaboró cada una de las rutinas antes mencionadas: Movimiento de cubos y dibujo de cuatro figuras geométricas, según el color y figura deseada respectivamente, ambas actividades con posición predeterminada a elegir por el paciente.   En lo que refiere a mover cubos, se identificaron las coordenadas de una matriz de dos por tres (2X3), marcadas desde a hasta f, las cuales son las posiciones posibles donde el brazo robótico puede colocar los cubos con el accesorio suction cup. En cuanto a dibujar figuras, se identificaron las coordenadas del triángulo, cuadrado, trapecio y rombo, en cuatro posibles posiciones de una matriz de uno por cuatro (1X4), en donde el accesorio pen fue utilizado. Una vez que se realizó la aplicación externa al software propietario del Dobot Magacian®, gracias al SDK y los componentes DLL, de las cuales se obtuvieron las herramientas necesarias para el desarrollo y control del Brazo robótico por medio de la nueva interfaz, se agregaron funciones que ayudaron a realizar las diversas rutinas implementadas por el Dobot que serían ejecutadas por las diferentes decisiones del paciente que controla el brazo robótico por medio de la BCI. Se analizó la API del Dobot Magacian ® para obtener las funciones que determinaran los movimientos del robot tales como los desplazamientos que hace el brazo robótico por el sistema de coordenadas integrado por defecto, así como las acciones que realiza con sus accesorios (Griper, Suction Cup y Pen). Con la ayuda del software de MATLAB se realizó un procesamiento de imágenes en tiempo real obtenidas de una cámara web las cuales son procesadas para la identificación de cuatro cubos de colores: rojo, verde, azul y amarillo, esto con ayuda del sistema de color RGB. Dentro del programa también se llevó a cabo la ubicación en coordenadas del centroide de cada cubo identificando que para la correcta interpretación de las coordenadas espaciales se tenía que realizar una transformación de pixeles a mm para posteriormente enviarlas en tiempo real al servidor. Lo que se realizó a continuación fue resolver asuntos de conectividad y comunicación, las cuales fueron útiles para que el control del robot funcione de manera remota y este sea capaz de recibir los datos, tanto de la BCI, como de un software externo definido como visión; este ultimó encargado de proporcionar las coordenadas de cada cubo ubicado aleatoriamente, para posteriormente indicar hacia donde deberá moverse el brazo robótico. Para lograr satisfactoriamente la conexión se implementó el protocolo de comunicación UDP, el cual por medio de un socket asincrónico se encargó de recibir y procesar los datos provenientes de las dos aplicaciones mencionadas. Al socket le llegan dos tipos de datos, los comandos de la BCI los cuales determinaban el color de cubo que el usuario selección, así como la posición a la cual se debería mover el cubo (la posición final dentro de la matriz de 2x3), por otra parte, también la obtención de las coordenadas de visión, antes ya mencionadas; desde este punto se implementó la lógica necesaria para poder identificar qué tipo de dato estaba entrando y como este debería manipularse para que las instrucciones se ejecutaran de manera correcta. Para finalizar, se realizó un nuevo manual de la interfaz diseñada, en donde se explicó la manera de llevar a cabo la conexión y ejecución de esta. Además, se incluyó un video de los experimentos llevados a cabo con la nueva interfaz, donde se muestra al paciente teleoperando el brazo robótico Dobot Magacian ®


CONCLUSIONES

A lo largo de la estadía, se logró desarrollar una interfaz con la cual se pudo teleoperar el Dobot Magician ® a través de la BCI, en donde fueron implementadas dos rutinas. Posteriormente se probó el funcionamiento de la interfaz mediante varios experimentos realizados a diferentes pacientes, en los cuales se obtuvieron resultados favorables. A pesar del logro obtenido, nos dimos cuenta de posibles recomendaciones y mejoras futuras, entre ellas que el Dobot Magician ® pueda apilar los cubos y en la parte de visión se pueda obtener la altura de cada cubo.
Jiménez Jiménez Gandhi, Instituto Politécnico Nacional
Asesor: Dr. Hector Enrique Jaramillo Suarez, Universidad Autónoma de Occidente (Colombia)

SIMULACIóN DEL PROCESO DE INYECCIóN DE POLíMEROS REFORZADOS CON FIBRAS NATURALES UTILIZANDO MéTODO DE ELEMENTOS FINITOS.


SIMULACIóN DEL PROCESO DE INYECCIóN DE POLíMEROS REFORZADOS CON FIBRAS NATURALES UTILIZANDO MéTODO DE ELEMENTOS FINITOS.

Jiménez Jiménez Gandhi, Instituto Politécnico Nacional. Asesor: Dr. Hector Enrique Jaramillo Suarez, Universidad Autónoma de Occidente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este trabajo se presentan lo resultados obtenidos a base de simulaciones computacionales realizadas en el software SolidWorks el cual emplea el método de elementos finitos, aplicándose dicho método en el proceso de inyección de un polímero bio compuesto con fibras de caña de azúcar en una geometría dada, la cual se pretende desarrollar de forma real en el laboratorio de la Universidad Autónoma de Occidente.debido a que en la acutalidad la mayoria de los materiales compuestos se basan en matrices polimericas, reforzados con incrustaciones de fibras naturales aportando mejores preopiedades mecanicas.  Se realizan estas simulaciones en condiciones similares a las reales con el propósito de analizar el comportamiento que pueden tener el polímero durante el proceso de inyección y así poder tomar alguna elección para mejorar el proceso de ser necesario.



METODOLOGÍA

La geometría usada en la simulación corresponde a la de una probeta de ensayo de tensión.El material empleado para este proceso de inyección corresponde a un polipropileno con adherencia de fibra de bagazos de caña en relación a 20%. El punto de inyección de nuestra pieza se ubica en la parte superior del conducto, desde este punto comenzara a fluir el PP+fibra por todo el interior de nuestra pieza. Los análisis se desarrollaron en un computador Lenovo modelo Optplex 90202 con procesador Intel® Core™ i7-4790 CPU @3.60Ghz y memoria RAM de 8GB con sistema operativo de 64 bits en promedio para realizar las simulaciones se requería un tiempo PC de 45.32 s; para obtener el grafico de convergencia se realizaron siete variaciones en el tamaño de malla, obteniendo así: 2124, 2591, 3401, 4630, 6344, 8824, 12655, 21393 números de elementos respectivamente. En las últimas tres variaciones de tamaño de malla comienza a ser notoria la convergencia de la temperatura final de llenado, por lo que se considera que se alcanzan valores con alta precisión.


CONCLUSIONES

Requirió un tiempo de llenado de 405.49 s, donde la primer parte del fluido que entra se aloja en la parte la lateral de la pieza situada de manera opuesta al lado por donde ingreso el fluido. Con un peso final aproximado de 10.99 gramos. Al llevarse el enfriamiento es posible que se generen encogimiento en zonas internas o externas  de la pieza, esto es debido a que como el fluido se solidifica puede llegar a ocupar un menor volumen en el estado final que se prestan, en comparación al estado en el que entro al molde. Se muestra el posible hundimiento superficial que pueda existir al solidificarse de manera total el material. En este caso las imperfecciones se miden en milímetros, está considerando como nivel o punto cero la caras superficiales del molde una vez que exista algún hundimiento este será dado en milímetros (mm). El compuesto inyectado que se conforma de PP+fibra, en la cual esta última propiedad tendrá un ordenamiento dentro de nuestra pieza un vez inyectada, se pude apreciar su arreglo interno que poseerá al finalizar el llenado. Se presenta algunas peculiaridades en los vértices de la pieza ya que las fibras parecen desbordarse de la pieza, esto se indica así en la simulación debido a que como tal no tenemos un molde que restringa completamente las superficies de nuestra pieza, sabiendo que en caso real o en una optimización de la simulación estas quede incrustadas totalmente en la pieza y no surja este desbordamiento al exterior. La orientación de la fibra se da de manera coherente en forma paralela respecto a los aristas con mayor longitud de la pieza, se puede considerar que el flujo del fluido se da sin problema alguno y llegar a todas las cavidades de nuestra pieza, puede re ubicarse el punto de inyección para ver que comportamiento tienen algunas características del proceso de inyección, aunque también pudiese agregar otro punto de inyección, siendo esto último no es tan recomendable debido a las dimensiones de la pieza no lo requiere.  El enfriamiento se da de manera inmediata ya que los cambios de temperatura que sufre el fluido durante el proceso de inyección y a la temperatura que está sometido el molde y el medio ambiente son muy variados. En este caso la pieza no sufre líneas de soldadura debido a que en este análisis falto agregar los moldes con los cuales probablemente se vayan a generar dichas líneas.
Jiménez López Miguel Francisco, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.


BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.

Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro. Jiménez López Miguel Francisco, Instituto Tecnológico Superior de Los Ríos. Zacarías Notario Carlos Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La empresa Beneficiadora de Hule Fénix de S.A de C.V (BEHULFE), cuenta actualmente con maquinaria en cada una de las áreas para el proceso de producción. Al momento de la producción debido a las distintas capacidades de cada área de trabajo, lo que provoca que no haya un flujo continuo de entradas y salidas en cada estación de trabajo, algunas máquinas se aprovechan en su capacidad máxima y otras se quedan sin carga de trabajo, lo que provoca pérdidas monetarias debido a que no se está aprovechando el tiempo productivo en su totalidad y de tener tiempo ocioso en algunas de las estaciones de trabajo, además de que afecta directamente a la producción manteniéndola en bajos niveles al día. El área con una carga de trabajo a su máxima capacidad es la de deshidratado que cuenta con 3 hornos y 1 cámara de enfriamiento, y la de menor carga de trabajo es el área de triturado, generando de esta forma un cuello de botella en el área de deshidratado. ¿Es necesario un flujo continuo del proceso para mejorar el control de la producción?



METODOLOGÍA

Para el comienzo del análisis de la línea de producción de la Beneficiadora de Hule El Fénix (BEHULFE) fue fundamental una visita a la empresa para conocer la distribución de la planta identificar cada una de las áreas de producción y representarlo mediante un croquis entre las cuáles se identificaron un total de 12 zonas de trabajo entre las que se encuentran: el área de la materia prima, el área de corte de la materia prima, cinco áreas de lavado y triturado, el área de deshidratado, el área de cocimiento, el área de secado, el área de prensado y el almacén de producto terminado. Además, para conocer el funcionamiento de la línea se representó a través de un diagrama de flujo identificando un  inicio y un fin del proceso, se identificaron y nombraron cada una de las actividades fundamentales del proceso como la recepción de materia prima, el corte, lavado, triturado, deshidratado, cocimiento y secado del hule; y de entre estas, se identificaron dos tomas de decisiones que son: la recepción de la materia prima bajo ciertas condiciones, y por último según los resultados de la prueba de calidad realizado en el laboratorio interno de la empresa, se define el rumbo del producto terminado. Cabe mencionar, que la parte medular de esta investigación, se centra en la recolección de datos de capacidades y números de empleados en cada área de trabajo de la planta de producción, por lo que con base en un estudio de tiempos dentro de la empresa, lograron obtenerse los resultados por cada área de producción. Con base en los datos obtenidos anteriormente, se realizó un modelo de la línea de producción con ayuda del software de simulación ProModel, que al fingir el sistema nos permitió observar una réplica del proceso, aprender de él, e identificar las principales problemáticas a resolver en la línea de producción. Para el inicio de esta simulación es primordial identificar las entidades involucradas que en este caso son cuatro, las locaciones de las cuáles se identificaron 20, los arribos que generalmente es uno, y los procesos que son 18. Ya realizada la simulación del estado actual de la empresa, se identificaron 3 áreas de oportunidad de mejora continua que son el Área L2 está por debajo en aproximadamente un tercio de la capacidad mínima de entre 1000 y 1333 kg. Y las áreas HD y E, que se encuentran por debajo en un cuarto de la capacidad de entre 1000 y 1333 kg. Bajo ese método de análisis, se considera una solución más viable el aumento de la capacidad en ellas, ya que, de las 20 locaciones definidas, estas representan un 15% de la planta, por lo que se considera que es mejor realizar un aumento de ellas a reducir la capacidad en las demás áreas. Con la implementación de una mejora de este tipo podría cuadriplicarse la producción actual, ya que el flujo de entradas y salidas en cada estación de trabajo resultan similares entre sí lo que evitaría los tiempos muertos o improductivos en la planta que se traduce a ganancias económicas.


CONCLUSIONES

El presente proyecto de investigación define un rumbo posible para la mejora de la empresa BEHULFE, ya que la herramienta de simulación empleada nos permitió un análisis previo a una implementación con mayor precisión y sin interrupción del sistema real, se conoció la relación entre sus variables y se evitaron grandes costos. Por lo tanto, la hipótesis de la investigación se acepta al conseguir un aumento del flujo continuo en el área de producción, lo que se convertirá en tiempo productivo y se reflejará en ganancias económicas para la empresa justificando la inversión de un incremento de capacidad.
Jiménez Martínez Andrea, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

REALIZACIóN DE CóDIGO PARA NAO Y EPOC - EMOTIV.


REALIZACIóN DE CóDIGO PARA NAO Y EPOC - EMOTIV.

Jiménez Martínez Andrea, Universidad Autónoma Benito Juárez de Oaxaca. Ramos Gómez Fernando Miguel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la tecnología tiene un impacto muy importante en la sociedad ya que gracias a esto se pueden realizar tareas de forma más ágil y eficaz debido a esto existe una gran cantidad de empresas a nivel mundial que se dedican al desarrollo tecnológico, tales como Aldebaran que se dedica a la venta, así como a los servicios profesionales de robótica o Emotiv Inc., que es una empresa privada de bioinformática que desarrolla y fabrica productos de electroencefalografía (EEG) portátiles. Existen diferentes tipos de dispositivos creados por diversos fabricantes y muchas veces no tienen en común la misma sintaxis de programación ni las mismas librerías, el mayor problema en este proyecto es la interconectividad de dos dispositivos de diferentes fabricantes a través de software realizado en un lenguaje en común, los dispositivos que utilizamos son el NAO y la diadema EPOC - EMOTIV.



METODOLOGÍA

Empezamos leyendo la documentación del NAO para saber las partes que lo conforman, los métodos por los cuales podemos programarlo y los requerimientos para ello, en este caso decidimos utilizar Python como lenguaje de programación, al leer la documentación nos percatamos que solo es compatible con la versión 2.7 de Python, así que las librerías que utilizamos deben ser compatibles con esta versión, tales como: pynaoqi-2.1.4.13.win32 (utilizado en la conexión entre el NAO y Python) PIL-1.1.7.win32-py2.7 (utilizado en la toma de capturas con la cámara del NAO a través de Python) Utilizamos el software Choregraphe 2.1.4 para comprender el uso de los módulos en el funcionamiento del NAO, de esta forma desarrollamos un código con las funciones básicas que puede realizar el NAO a través del IDE (Entorno de Desarrollo Integrado) de Python IDLE. Después de comprender el funcionamiento del NAO continuamos con la documentación de la diadema EPOC - EMOTIV y así saber tanto el funcionamiento como los datos que se pueden obtener con este dispositivo, para esto utilizamos las funciones gratuitas del software Emotiv Xavier ControlPanel v3.3.3 que nos permite utilizar el giroscopio de la diadema por medio del mouse de la computadora para después crear código que obtiene las coordenadas del posicionamiento con IDLE de Python, también realizamos pruebas del funcionamiento con electrodos para la lectura de gestos faciales y enlazarlos al código antes realizado en el NAO, de esta forma mover el NAO a través de los gestos faciales, otras pruebas que llevamos a cabo fueron con un control GameSir G3s utilizando el software Xpadder 2016.05.01 para configurar las acciones por cada botón del control.


CONCLUSIONES

En el periodo de estancia se adquirieron conocimientos acerca de dispositivos programables de los que no tenemos acceso en nuestra escuela de origen los cuales no son fáciles de conseguir monetariamente, en este verano realizamos muchas investigaciones acerca de librerías y sus funcionamientos en el lenguaje de desarrollo Python para poder utilizarlas en ambos dispositivos, incluso se utilizaron algunos software de pruebas para verificar el correcto funcionamiento de los equipos pero no nos fueron de utilidad para el código realizado con la función de la interconectividad en el que se utilizaron las diferentes librerías, sin embargo al ser librerías extensas nos faltan detalles de instancia de listener en un método de movimiento que recupera las coordenadas de la diadema EPOC - EMOTIV.
Jimenez Perez Limberth, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Luis Ariosto Serna Cardona, CIAF Educación Superior (Colombia)

DESARROLLO DE UNA METODOLOGíA BASADA EN TéCNICAS DE APRENDIZAJE DE MáQUINA PARA LA IDENTIFICACIóN DE LOS PERFILES DE LOS ESTUDIANTES BASADOS EN VARIABLES SOCIO ECONóMICAS Y DEMOGRáFICAS.


DESARROLLO DE UNA METODOLOGíA BASADA EN TéCNICAS DE APRENDIZAJE DE MáQUINA PARA LA IDENTIFICACIóN DE LOS PERFILES DE LOS ESTUDIANTES BASADOS EN VARIABLES SOCIO ECONóMICAS Y DEMOGRáFICAS.

Jimenez Perez Limberth, Instituto Tecnológico Superior de Los Ríos. Olan Hernandez Hasshel de Jesus, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Luis Ariosto Serna Cardona, CIAF Educación Superior (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La educación es un derecho fundamental que promueve el desarrollo social y económico de una nación, además de fortalecer a los ciudadanos en sus dimensiones personales, sociales y culturales. Es el medio por el cual un país puede alcanzar sus objetivos de desarrollo sustentable, mediante las personas que son capaces de obtener una educación de mejor calidad y así poder romper con el ciclo de la pobreza. La educación, por lo tanto, ayuda a reducir las desigualdades y alcanzar la equidad de género, también permite que las personas tengan una vida más sana y sostenible, e igualmente es crucial para fomentar la tolerancia entre las personas y contribuye a una sociedad más pacífica (Un.org. (2016)). En las últimas décadas Colombia ha sufrido múltiples procesos de transformación que han impulsado entre otros aspectos, el sistema de educación, el acceso a la educación que ha sido una prioridad, con políticas ambiciosas que buscan incrementar el número de estudiantes matriculados en todos los niveles y llevar los servicios educativos a todos los rincones del país (OECD (2016)). Sin embargo, aún queda un camino muy largo por recorrer pues la cultura educativa que se quiere implementar en el país colombiano tomara varios años en adecuarse pues el pueblo colombiano viene de una cultura de campo y narcotráfico bastante compleja, donde los ciudadanos creen que para hacer dinero no necesitan estudiar solo dedicarse al campo o irse por el mal camino de la delincuencia o narcotráfico, la llamada vida fácil (ABAD FACIOLINCE, Héctor. (1995)). Importante es que el gobierno ha estado implementando varias estrategias para generar conciencia en los jóvenes y día a día se ve como los numero de ingresos a las universidades públicas ha incrementado de una manera bastante alta comparada con años anteriores, además se puede ver como el nivel educativo va en incremento. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción (OECD (2016)). Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media (Instituto Colombiano ICFES (2018)). Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES (Charrys Llanos, A., et al (2016)). Por tal motivo, estas variables sociales permiten un mejor acercamiento al estudiante en el ámbito educativo, permitiendo así implementar alguna medida que puedan brindar una solución a los jóvenes que representaran futuros problemas con las pruebas de estado, permitiéndole al estado una mejora en el nivel educativo de la nación. Es por esto que se han realizado diferentes investigaciones en relación a la problemática antes mencionada. Como por ejemplo el ministerio de educación, que haciendo uso del banco de datos de las pruebas saber 11°, realizan análisis estadísticos para determinar relaciones entre variables sociodemográficas y los resultados de las pruebas (Resultados de investigaciones-Icfes (2018)). De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Es posible predecir los resultados de las pruebas saber 11, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?.



METODOLOGÍA

Las bases de datos que se utilizaran para este proyecto son exclusivamente del ICFES, se utilizaran las bases de calendario 1 y 2 de las pruebas saber 11° del año 2018. Como se puede observar se utilizarán las bases completas para todos los departamentos. Esto, para tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de los departamentos del país colombiano, y poder tener un modelo de predicción general para todo el país. Se desarrollará un módulo para el reconocimiento de perfiles de los estudiantes basado en aprendizaje no supervisado. De acuerdo al objetivo establecido, se proponen los siguientes pasos metodológicos: Organización y preprocesamiento de la base de datos Aprendizaje no supervisado Validación Redacción de informe final


CONCLUSIONES

Hoy en día la educación es muy importante pues es uno de los factores que más influye en el avance como país, así como el progreso de personas y sociedades. La educación es fundamental para alcanzar los niveles de bienestar social y así poder tener un mayor crecimiento socioeconómico, es por ello que las técnicas de machine learning junto con el aprendizaje no supervisado nos ayudara a poder predecir las pruebas del saber 11° aplicado por el ministro de educación en Colombia. Es importante resaltar que con esta herramienta se puedan obtener mejores resultados en cuento a la educación a nivel nacional y así como darles a los jóvenes una oportunidad de ingresar a una educación profesional.
Jiménez Pineda María Magdalena, Universidad Autónoma de Guerrero
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

COMPARACIóN DE DOS SISTEMAS CONSTRUCTIVOS.


COMPARACIóN DE DOS SISTEMAS CONSTRUCTIVOS.

Jiménez Pineda María Magdalena, Universidad Autónoma de Guerrero. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sismos son el movimiento de las placas tectónicas terrestres, en el cual chocan unas con otras y liberan grandes cantidades de energía en el curso de una reorganización brusca de materiales de la corteza terrestre al superar el estado de equilibrio mecánico, la cual se esparce a través de la tierra, alcanzando grandes distancias tanto en la superficie como a través de las mismas placas. Asimismo, donde se origina se distinguen dos puntos: el hipocentro y el epicentro. El primero es el punto del interior de la corteza terrestre donde tiene origen el movimiento sísmico y puede ser superficial (si ocurre a menos de 70 km de profundidad), intermedio (entre 70 y 300 km de profundidad) y profundo (a una profundidad de más de 300 km). Mientras que el epicentro es el punto de la superficie de la Tierra donde el terremoto es más intenso (perpendicular al hipocentro). Para poder medir la intensidad de los sismos se utiliza con mayor frecuencia la escala de Ritcher, se trata de una escala logarítmica arbitraria que asigna un numero para cuantificar la energía liberada. Los sismos son fenómenos espontáneos, por lo cual no se pueden predecir, y los efectos que estos causen tampoco. Esto es de suma importancia ya que actualmente estos movimientos afectan mucho la calidad de vida da las personas, al realizarse construcciones no adecuadas para resistir la intensidad de energía que liberan, dando esto lugar a diversos perjuicios, que van desde sentir con mayor intensidad los movimientos en las plantas altas de las edificaciones por la acumulación de energía, hasta en los casos más críticos el derrumbe de las mismas.



METODOLOGÍA

La calidad de vida de las personas es de suma importancia, por lo cual se realizó la comparación de dos procesos constructivos en un mismo edifico, en cual se considera para uso habitable, construyéndose una serie de departamentos en cuatro niveles, teniendo dos cada nivel.  Cada uno de los departamentos cuenta con dos habitaciones, un baño completo, una sala, una cocina, un comedor y un área de servicio. Todos estos con espacios mínimos. Además, que al estar construido solo sobre la mitad del lote que se tiene disponible permite que también cuente con un estacionamiento para cuatro coches medianos. Teniendo el terreno unas dimensiones de 10.5x23 m. Para propósitos de este análisis se realizó la comparación de los procesos constructivos uno de mampostería, en la cual todos los muros están construidos con tabiques rojos recocidos de dimensiones de 21x14x7 cm y en los vanos de puertas y ventanas se colocaron dalas de 14x25 cm y castillos de 14x20. Contando también con losas de 12 cm de espesor y escaleras de concreto reforzado con un peralte de 17cm. EL otro proceso que se utilizo es de concreto reforzado, en el cual las columnas y las trabes presentan diferentes dimensiones según el nivel en el que se encuentren. En las dos plantas bajas las columnas son de 55x55 cm, con un refuerzo de 6 varillas del 1 por columna y estribos de 3/8. En cuanto a las trabes tienen unas dimensiones de 25x55 cm con refuerzo de 3 varillas arriba y 3 varillas abajo de ½ y est. de 3/8. En las plantas superiores las columnas miden 45x45 cm con refuerzo de 4 varillas de 1 y estribos de 3/8. Presentándose trabes de 25x45 cm con 3 varillas tanto arriba como debajo de ½ y est. de 3/8. Siendo las losas y escaleras también de concreto reforzado, con las mimas dimenciones del sistema constructivo que se ha comparado.  En ambos casos se les aplico un espectro sísmico de 0.107678 como media en un intervalo de 5 segundos de duración. En las dos construcciones resistió la aplicación del sismo, sin presentar daños o ningún tipo de fisuras. Además de que la vibración en las plantas altas que se presentaron son mínimas, demostrando con esto que, dadas las dimensiones y forma del complejo, ambos sistemas constructivos son una excelente opción para aplicarse en este tipo de edificaciones.


CONCLUSIONES

Los sistemas constructivos que se analizaron resultaron ser muy confiables a la hora de construir con ellos, ya que son resistentes y duraderos. Dando además a los usuarios gran confianza ya que las vibraciones que ambos permiten se sientan en el interior de los recintos son mínimas. Ayudando con esto a que las actividades a realizarse en las instalaciones, son importar cuales fuesen, se desarrollen con completa normalidad y comodidad.
Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

ANALíTICA DE DATOS PARA PRONóSTICO DE ROBO DE ENERGíA USANDO MEDIDORES INTELIGENTES


ANALíTICA DE DATOS PARA PRONóSTICO DE ROBO DE ENERGíA USANDO MEDIDORES INTELIGENTES

Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos. Loya Ayala Yazmin Monserrat, Universidad Politécnica del Valle de Toluca. Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El robo de energía es la principal pérdida no técnica de las empresas suministradoras del servicio eléctrico. Con la introducción de medidores inteligentes se registran las lecturas de medición del consumo y producción de energía eléctrica de forma más periódica, lo cual conlleva al posterior uso de esta información. Tradicionalmente, los medidores de electricidad se instalan en los establecimientos del consumidor y la información de consumo se recopila mediante toma de lecturas a los medidores a través de lecturistas en sus visitas mensuales o bimestrales, dichos medidores son analógicos y presentan ciertas desventajas tanto para el consumidor como para la compañía eléctrica. Al contar con estos medidores, no se puede evitar el error humano en la lectura manual del medidor, existen altas posibilidades de robo de energía eléctrica, ya sea mediante el uso de diablitos, alteración de componentes mecánicos, eléctricos y electrónicos del medidor para cambios de lecturas de los medidores, entre otros.  En este trabajo se propone una implementación de un método de detección de robos de energía usando datos de medidores inteligentes y realizando el pronóstico dentro del mismo medidor para ello se determina en primera instancia el modelo de comportamiento de consumo/producción de energía eléctrica del medidor para tener una línea base que ayude a determinar si los nuevos valores de consumo/producción pueden ser considerados como robo de energía.



METODOLOGÍA

Para la realización del presente proyecto de investigación se llevó a cabo una metodología relacionada con minería de datos. Donde se realizaron distintas etapas para obtener conocimiento de dos bases de datos para poder identificar patrones de consumo/producción. El objetivo principal de la minería de datos consiste en la extracción de información oculta de un conjunto de datos. Esto puede ser alcanzado por el análisis automático o semiautomático de gran cantidad de datos, lo que permite la extracción de patrones desconocidos. Selección de los datos: Se obtuvieron los repositorios de los datos. Se seleccionaron dos bases de datos que contenían información energética relevante para el estudio. La primera de ellas fue una base de datos que incluía lecturas que registraban los medidores inteligentes que se instalaron en el Instituto Tecnológico de Morelia durante el periodo de octubre de 2018 a mayo de 2019, se obtuvieron un total de 547,864 lecturas. La segunda base de datos fue obtenida de UCI Machine Learning Repository. Esta base de datos contiene 2,075,259 mediciones reunidas en una casa ubicada en Sceaux (a 7 km de París, Francia) entre diciembre de 2006 y noviembre de 2010. Pre-procesamiento de datos:  En esta etapa se obtuvieron las medidas de dispersión y de tendencia central de los datos, así como los máximos y los mínimos de los datos para poder identificar el cómo venían los datos. Limpieza de datos: En esta etapa se identificaron aquellos datos que presentaban una mayor relevancia en el estudio para poder omitir aquella información de la base de datos que no agregaba valor. Se eliminaron aquellas columnas que presentaban datos que no eran necesarios dejando solamente información valiosa como las lecturas del consumo de energía, producción de energía, voltaje y frecuencia, para realizar este tratamiento en los datos se utilizó el sistema de gestión de bases de datos SQLite. Una vez que se tenía esta información, se realizó un análisis exploratorio a los datos para identificar valores perdidos en las bases de datos. Como siguiente paso se identificaron los valores atípicos de las bases de datos, estos son valores que no coinciden con el resto de las series y pueden influir considerablemente en el análisis y, por lo tanto, afectar a la capacidad de previsión del modelo de serie temporal. Transformación de datos: Una vez que se quitaron los valores atípicos de las bases de datos, se completó la base de datos de los medidores inteligentes que se encontraban en el Instituto de Tecnológico de Morelia, agregando datos hasta que las dos bases de datos fueran homogéneas y tuvieran la misma cantidad de lecturas. Esto se realizó mediante un programa realizado en Python. Reducción de datos: Se realizó la fragmentación de las bases de datos en archivos más pequeños para una mayor facilidad al momento de trabajar. Se agruparon las lecturas generando conjuntos de lecturas por día, semana, mes y año de las variables de consumo y producción. Discretización de datos: Se sustituyen atributos numéricos con valores nominales. En la columna donde se encontraban las fechas se sustituyó la información por valores consecutivos. Una vez que se tenían de esa manera los datos, se prosiguió a utilizar el método de series de tiempo para identificar el modelo adecuado para los datos. Se realizaron análisis mediante promedios móviles, autorregresión, modelos ARMA y modelos ARIMA para seleccionar el mejor modelo para los datos. Se realizaron distintas pruebas para la identificación de los patrones de consumo/producción de energía.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del uso de técnicas de minera de datos para poder extraer conocimiento de grandes bases de datos. Se realizó el análisis de sos bases de datos para poder identificar patrones de consumo/producción de energía y poder identificar posibles robos de energía que se prsenten. Los resultados obtenidos de la selección del modelo más adecuado para realizar los pronósticos será programado en el medidor inteligente y así poder detectar esta anomalías que se presenten. Este trabajo muestra que es posible detectar robos de energía utilizando datos y procesamiento del medidor inteligente. Los resultados indican que la detección de anomalías de consumos/producción de energía eléctrica es adecuada pero que como todo modelo de pronóstico la intervención humana juega un papel relevante en la toma de decisiones.
Jiménez Ulin Fernando, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Alejandro Durán Herrera, Universidad Autónoma de Nuevo León

COMPUESTOS CEMENTANTES INGENIERIZADOS REFORZADOS CON FIBRAS DE BASALTO Y VIDRIO FRENTE AL REFUERZO TíPICO CON FIBRAS DE POLIVINILO DE ALCOHOL


COMPUESTOS CEMENTANTES INGENIERIZADOS REFORZADOS CON FIBRAS DE BASALTO Y VIDRIO FRENTE AL REFUERZO TíPICO CON FIBRAS DE POLIVINILO DE ALCOHOL

Cantu Rodriguez Roman Alejandro, Instituto Tecnológico de Matamoros. Jiménez Ulin Fernando, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Alejandro Durán Herrera, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Del 60 al 80% del costo de los concretos fibro-reforzados es debido a las fibras utilizadas, por ello surge como necesidad el uso de fibras más baratas. Las fibras más utilizadas en los Compuestos cementantes ingenierizados (CCI) son las de PVA, las cuales son dosificadas a una razón de 24 kg/m3. El costo promedio de estas fibras limita el uso en aplicaciones normales de la construcción, aun en países de primer mundo. Sin embargo, utilizar fibras como las de basalto y vidrio las cuales son de 3 a 4 veces más baratas que las de PVA ampliaría el rango de uso de los CCI a gran escala y en aplicaciones más comunes. En México el Organismo Nacional de Normalización y Certificación de la Construcción y Edificación (ONNCCE), se encuentra en el proceso de normalización de los polímeros reforzados con fibra, con lo cual, se pretende que las fibras de vidrio y basalto estén disponibles en el país a costos más accesibles para la industria de la construcción mexicana. 



METODOLOGÍA

Se siguió un proceso experimental con el propósito de evaluar el desempeño de las fibras de basalto y vidrio en los CCI, típicamente reforzados con fibras de PVA, la metodología está constituida de tres etapas, las cuales están divididas en; Etapa 1: Caracterización y propiedades para el diseño de las mezclas de CCI, Etapa 2: Adición de fibras en el CCI y sus propiedades mecánicas y en estado fresco, por ultimo una etapa 3 en la cual se evaluaran las propiedades mecánicas de los CCI reforzados con fibras de PVA, basalto y los refuerzos híbridos PVA/Basalto. Para la elaboración del CCI reforzado con fibras de PVA y Basalto, se realizaron diferentes adiciones de fibras en una fracción del volumen del 1.0%, 1.5%, 2%, en las cuales las propiedades del concreto en estado fresco se determinaron por las siguientes normativas: Temperatura del CCI - ASTM C1064, Fluidez - ASTM C 240 y Contenido de Aire - ASTM C 185. Los materiales utilizados para la elaboración del CCI son: arena silica estándar, ceniza volante clase F, cemento CPO 40, aditivo plastol precast plus, fibras de PVA y basalto. A los especímenes obtenidos de las diferentes mezclas se les dio un proceso de curado en un cuarto con una humedad relativa superior al 75%. Posterior a ello se prepararon las muestras para los diversos ensayos preestablecidos. Respecto al desempeño mecánico para el compuesto cementante se ejecutaron las siguientes pruebas: para los ensayos de Resistencia a la compresión se utilizó la maquina universal, en la cual se ensayaron los especímenes a 3, 7, 14 y 28 días con cubos de 50 x 50 mm basado en los establecimientos de la norma ASTM C109, con el fin de tener una referencia de cuanto son sus respectivas resistencia conforme van avanzando las edades, Resistencia a la flexión a 28 días 3 vigas de 400 x 100 mm x 2.5 mm de espesor desde los soportes (ASTM 1690, modificada).


CONCLUSIONES

Durante la estancia de verano se trabajó con los CCI, se logró obtener el conocimiento para elaborar este tipo de concreto. Las fibras de basalto, PVA y de vidrio al 1% se sometieron a pruebas de compresión obteniendo un mejor desempeño las fibras de PVA conforme a las edades incrementen la unión fibra-matriz, disminuyen el costo y desarrollan la aplicación del CCI lo cual resulta factible para su respectivo perfeccionamiento y mejora. Sin embrago, se sigue trabajando en el diseño de mezcla para obtener un mejor desempeño, cabe mencionar que aún no se realizan pruebas a la tensión. Se busca obtener un concreto hibrido en un futuro combinando las fibras de PVA con las fibras de vidrio y basalto al 2%, esto con el fin de reducir costo.  
Juárez Leyva Jorge Antonio, Instituto Politécnico Nacional
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

DESARROLLO DE UN TABLERO DE CONTROL PARA LA VISUALIZACIóN DE INDICADORES DE MOVILIDAD


DESARROLLO DE UN TABLERO DE CONTROL PARA LA VISUALIZACIóN DE INDICADORES DE MOVILIDAD

Juárez Leyva Jorge Antonio, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El ojo humano no alcanza a identificar de manera precisa cuando se le presenta un gran volumen de datos, esto dificulta el proceso de toma de decisiones, por esta razón se desarrolla un tablero de control que permita visualizar la información relacionada a indicadores de movilidad utilizando recursos gráficos como son mapas y gráficas.



METODOLOGÍA

Inicialmente se realizó una investigación de las herramientas como son: Google Maps Platform, Carto JS, ArcGIS, QGIS, Leaflet y D3JS; se llegó a la conclusión de que Leaflet y D3JS se adecuaba para la resolución del problema para trabajar con los mapas y crear gráficas. En las primeras pruebas QGIS fue la herramienta más viable, debido a su intuitiva interfaz, sin embargo, se observó que los mapas generados son estáticos, mientras que se requería constante actualización de los datos. Se realizó el análisis de las variables que se van a mostrar en el tablero de control, siendo las siguientes: número total de personas registradas, número de hombres y mujeres, usuarios muestreados, usuarios clasificados por escuela, usuarios clasificados por carrera, edades, número de peatones y conductores registrados, trayectorias de los usuarios, lugares con mayor número de personas usando la aplicación, tipo de movilidad, usuarios compartiendo automóvil. Una vez analizadas las herramientas y las variables a mostrar, se realizó el diseño de malla de alambre «wireframe» del tablero de control. Se elaboraron gráficas de los diferentes mapas y sus KPI respectivos. Se incluye un formulario en el que se selecciona un periodo de tiempo (fecha y hora) para visualizar los datos. La codificación del tablero de control siguió la estructura del modelo DAO «Data Access Object» en donde se crearon los paquetes Modelo, DAO, impDAO y Controlador.


CONCLUSIONES

Dada una gran cantidad de datos y el uso de técnicas de visualización, se desarrolló un tablero de control para mostrar los indicadores de movilidad, facilitando la toma de decisiones para el usuario final.
Juárez Mortera Carmen Elizabeth, Universidad de Guadalajara
Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar

DESARROLLO DE UN GESTOR DE CONTENIDOS PARA EL SITIO WEB DEL LABORATORIO DE TECNOLOGíA DE PRODUCTOS PECUARIOS DE LA UMAR VINCULADO AL SECTOR SERVICIOS.


DESARROLLO DE UN GESTOR DE CONTENIDOS PARA EL SITIO WEB DEL LABORATORIO DE TECNOLOGíA DE PRODUCTOS PECUARIOS DE LA UMAR VINCULADO AL SECTOR SERVICIOS.

Juárez Mortera Carmen Elizabeth, Universidad de Guadalajara. Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, muchas empresas de diversos giros están utilizando las Tecnologías de la Información y la Comunicación (TIC) como herramientas para la innovación. En las instituciones educativas también se nota esa diferencia en distinguirse del resto de la competencia. Estas tecnologías son muy útiles para que los usuarios y colaboradores se comuniquen e interactúen en este ámbito; y por tal razón, las soluciones tecnológicas tienen que diseñarse para ser atractivas y fáciles de manejar. El Laboratorio de Tecnología de Productos Pecuarios en la Universidad del Mar, localizada en la ciudad de Puerto Escondido, Oaxaca, es un ejemplo de cómo, mediante una eficaz planeación e implementación de una solución tecnológica se asegura su crecimiento y la mejora continua, porque en su web se puede encontrar información acerca de los productos que elabora, el equipamiento con que cuenta, su personal, horarios de atención y los cursos y talleres que ofrece, también proporciona un formulario en línea para contacto, entre otra información. Sin embargo, uno de los principales problemas es tener al día esta información, porque el sitio en su mayoría es estático, sobre un conjunto de páginas HTML desarrolladas y a su vez mantenidas por el personal de sistemas con conocimiento de los lenguajes utilizados para desarrollar el sitio (HTML, CSS, PHP y JavaScript), así como en el sistema gestor de base de datos que se está utilizando (MySQL). Debido a la gran dependencia al personal informático surge la necesidad de integrar una herramienta propia de gestión de contenidos al sitio web que simplifique la actualización de la información del sitio al personal no informático del laboratorio que no necesitaría conocimientos de programación. El uso de esta herramienta está ampliamente extendido y permite mayores beneficios para la universidad, también, el uso de frameworks y librerías open source en este proyecto supone una ventaja adicional.



METODOLOGÍA

Para la realización del proyecto se definieron 5 fases: 1. análisis de requisitos, 2. diseño de las interfaces de usuario, 3. diseño, implementación y migración de la base de datos, 4. desarrollo y 5. pruebas. Se inició con el análisis de requisitos. Lo que se realizó en esta fase fue la elaboración del documento de requisitos y se utilizó la herramienta Astah UML para crear los casos de uso. Posteriormente, se realizó el diseño de la interfaz gráfica de usuario con base en los requerimientos establecidos. La herramienta utilizada fue Pencil, para generar los prototipos de las interfaces. Se realizó el diseño de las tablas necesarias para el gestor de contenido, posteriormente se modificó la base de datos existente para agregar dichas tablas y se realizó la migración de los datos, de las páginas HTML estáticas a la base de datos. Se utilizó MySQL WorkBench para el diseño y PHPMyAdmin para la implementación de la base de datos. El desarrollo del software se realizó en forma iterativa e incremental, de forma que el resultado del incremento anterior sumaba a las funcionalidades completas del producto final. El subsistema gestor de contenidos, con base en los requisitos planteados y el sitio web actual, se divide en los siguientes módulos: inicio, quiénes somos, laboratorio, personal, productos, cursos, equipo, y visitas, así como una galería de imágenes general para el recorrido virtual y otras galerías para cada uno de los productos y equipos. Respecto de las tecnologías, se optó por seguir utilizando los lenguajes HTML, JavaScript y CSS, teniendo como núcleo el framework Bootstrap para realizar los formularios de forma responsiva para la gestión de los módulos. Junto al lenguaje JavaScript se está utilizando la librería SweetAlert como complemento para los mensajes de alerta; también se está utilizando DataTables, un plugin para facilitar la implementación de la paginación de tablas; para poder llevar a cabo el requisito de dar formato al texto, se optó por CKEditor, un editor WYSIWYG (What You See Is What You Get) que genera el código HTML correspondiente al texto formateado. Para la persistencia de datos se continúa usando MYSQL y el lenguaje definido es SQL con PDO en PHP. Después de la implementación y pruebas lo que se obtuvo fue la primera versión completa del gestor de contenido. Se comprobó la actualización de contenidos del sitio web del Laboratorio, accediendo al gestor desde el sitio con un usuario y contraseña válidos para verificar la consulta, creación, modificación y eliminación de la información del sitio. El objetivo final es poner en producción el sistema desarrollado.


CONCLUSIONES

La realización de este proyecto ha significado una experiencia de aprendizaje general. El punto más relevante ha sido tratar con más tecnologías desconocidas para mí como JavaScript y otros complementos (SweetAlert, DataTables y CKEditor), siendo el aprendizaje principalmente durante el proyecto el punto más importante y a la vez difícil. Se puede concluir que se ha cumplido con los objetivos iniciales, ya que se ha obtenido una aplicación web que satisface a todos los requisitos que se solicitaron y que está listo para usarse en un navegador web. Además, el proyecto es escalable para agregar nuevas funcionalidades que se requieran, con base en una arquitectura modular en MVC (modelo-vista-controlador). En definitiva, esta experiencia ha sido positiva, permitiendo obtener una visión global de lo que representa llevar a cabo un proyecto como el presente para futuras aplicaciones. Y, además de contar con el apoyo del director del proyecto, se logró un proceso de autoaprendizaje.
Juárez Quiroz Egla Mariely, Universidad Veracruzana
Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

MORTERO BASE CEMENTO PARA USO ESTRUCTURAL Y NO ESTRUCTURAL CON ADICIONES DE ALMIDONES DE MAÍZ Y ARROZ.


MORTERO BASE CEMENTO PARA USO ESTRUCTURAL Y NO ESTRUCTURAL CON ADICIONES DE ALMIDONES DE MAÍZ Y ARROZ.

Juárez Quiroz Egla Mariely, Universidad Veracruzana. Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El mortero es un material formado por la mezcla de uno o más cementantes, áridos, solvente (agua), y eventualmente aditivos o adiciones (piedra caliza, arcilla, puzolana, escoria granulada de alto horno, ceniza volante) que tiene la propiedad de fraguar tanto en el aire como en el agua y a su vez forma una masa endurecida que adquiere resistencia mecánica con el paso del tiempo hasta un punto máximo. A partir del siglo XVIII, se empiezan a utilizar ligantes hidráulicos que sustituyen a la cal, estos nuevos materiales endurecían más rápidamente y desarrollaban mayores resistencias que la cal. En el siglo XIX, la llegada del cemento Portland, revolucionó el mundo de los materiales de construcción, desplazando el uso de la cal por el cemento para la fabricación de morteros y concretos utilizados en todo tipo de construcciones. Con el fin de modificar algunas de las propiedades del mortero, tradicionalmente se han adicionado al mismo diferentes materiales. Las adiciones, tienen la misión de mejorar aquellas propiedades de los morteros (porosidad, resistencia al hielo, etc.) que los hacen más vulnerables a los ataques de los agentes agresivos externos provocados por factores físicos, químicos, meteóricos y biológicos. Es por ello que durante esta estancia de verano se ha decidido investigar sobre las adiciones de almidones para los morteros base cemento, ya que los almidones, debido a su naturaleza, tienen un gran potencial como sustitutos de materiales poliméricos sintéticos, principalmente con fines medioambientales, además que es uno de los productos más importantes obtenidos de las plantas, es un producto relativamente económico y renovable y debido a que unas de las principales fuentes de almidón son los cereales, seguido de las raíces y tubérculos, se utilizaron los almidones de maíz y arroz.



METODOLOGÍA

Para el desarrollo de esta investigación se llevó a cabo una metodología cuantitativa, basada en la NMX-C-061-ONNCCE-2015, se elaboraron cuatro mezclas: la mezcla testigo, adición de almidón de maíz, adición de almidón de arroz y combinación de adición de los almidones de maíz y arroz; y para cada una de esas mezclas se colaron 9 especímenes con cavidades cúbicas de 50 mm por lado, los cuales se sometieron a pruebas destructivas y no destructivas a la edad de 7, 14 y 28 días(NMX-C-083-ONNCCE-201). Esto con el fin de observar los comportamientos del mortero base cemento y de esa manera poder evaluar el impacto de la adición del almidón de maíz y arroz en las mezclas. El proceso de la investigación fue de la siguiente manera: Primero se realizó la elección y caracterización de los materiales los cuales se sometieron a prueba (porcentaje de absorción, densidad, etc.) para determinar sus propiedades y comportamientos, los cuales son fundamentales para realizar el diseño del mortero. El agregado fino utilizado fue una arena volcánica negra, este material fue utilizado en estado seco, es decir, con humedad actual de cero por ciento; el cemento utilizado fue el Portland tipo CPC 30R RS; se utilizó el agua potable del laboratorio “Ing. Luis Silva Ruelas” de la Universidad Michoacana de San Nicolás de Hidalgo; se utilizó el almidón de maíz y de arroz que pasaba por la malla número 50 ASTM (para ambos almidones) y se agregó el aditivo Flow x D85, súper fluidificante reductor de agua. Para el diseño del mortero de cada mezcla se utilizó una relación de arena-cemento de 1:2.75, agua-cemento: 0.68 y 12 ml de aditivo por cada kg de cemento; se adicionó el 6% de almidón de maíz y arroz para cada mezcla y para la combinada fue de un 3% de cada almidón. De acuerdo a la NMX-C-061-ONNCCE-2015, se procedió a engrasar los moldes para evitar que la mezcla de los morteros quede pegada en ellos y así poder desmoldar fácilmente. Por consiguiente se procedió a agregar los materiales secos en una olla de mezclado, después se agregó el agua y el aditivo y se incorporó todo con un mezclador mecánico. Después del mezclado de los materiales, de acuerdo a la norma NMX-C-061-ONNCCE-2015, se realizó la prueba de fluidez de cada mezcla, de manera que cada una de ellos estuvo dentro de los límites que son de 105 a 130%. Por último se llevó a cabo el llenado de los moldes con su correspondiente compactación y enrasado; por último se dejó en espera del fraguado, por lo que se desmoldaron pasando las 24 horas después de su colación y consecutivamente se colocaron en un recipiente para proceder a la saturación, (NMX-C-061-ONNCCE-2015). Pasando los 7, 14 y 28 días del colado, se realizaron las pruebas no destructivas que fueron velocidad de pulso ultrasónico -VPU- (NMX-C-275-ONNCCE-2004), y la prueba de resistividad eléctrica -RE- (NMX-C-514-ONNCCE-2016); al igual que la prueba destructiva que en este caso fue la de compresión simple la cual se realizó en la máquina de Forney (NMX-C-083-0NNCCE-2014).


CONCLUSIONES

Las principales conclusiones originales que se pueden extraer de los resultados obtenidos en el presente trabajo son: el almidón, nativo o modificado, tiene un futuro prometedor en el sector de la construcción debido a su naturaleza ecológica y renovable. Hemos encontrado que con la adición de los almidones su comportamiento fue diferente en cuanto a lo siguiente: su comportamiento fue espesante, contribuyó a la retención de agua por lo que tuvo una retardación en el tiempo de fraguado y ayudó a la dispersión de las partículas del cemento; así también ayudó en cuanto a la reducción de los poros, las substituciones presentaron una porosidad total menor del 10%, por lo que puede ser un aditivo benéfico a futuro para los morteros ya que no habría necesidad de darle mantenimiento constantemente y podría tener una vida útil, lo que significa una mayor resistencia a la penetración de agentes de desgaste, por ende, un material que brinda una permeabilidad más baja. No obstante falta determinar algunas pruebas a 28 días y una vez concluidas se puede determinar con mayor precisión un veredicto final sobre el comportamiento de los almidones de maíz y arroz en un mortero base cemento. Al concluir con las pruebas de este proyecto queda abierto un gran horizonte de posibilidades de las ventajas que ofrecen las substituciones de almidón en morteros, por lo que sería muy interesante realizar investigación a edades tardías a ataques distintos, a materiales cerámicos armados, con estos materiales orgánicos en concreto, y poder dar un dictamen del uso de estos materiales naturales.
Lambert Cortés Sofía Camila, Universidad Autónoma de Baja California
Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México

SUELO Y SUBSUELO COMO SISTEMA PASIVO DE CLIMATIZACIóN DE EDIFICIOS ANTE EL CAMBIO CLIMáTICO EN MéXICO


SUELO Y SUBSUELO COMO SISTEMA PASIVO DE CLIMATIZACIóN DE EDIFICIOS ANTE EL CAMBIO CLIMáTICO EN MéXICO

Lambert Cortés Sofía Camila, Universidad Autónoma de Baja California. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, uno de los temas más destacados y preocupantes es el cambio climático, el cual es generado, principalmente, por las emisiones de dióxido de carbono y otros gases de efecto invernadero. Dicho fenómeno tiene un efecto sobre el incremento de calor y la temperatura ambiental en los distintos climas, conocido como calentamiento global. Existen algunas estrategias para acondicionar un espacio partiendo de elementos del bioclima, sin embargo, estas propuestas en su mayoría dependen de factores fácilmente modificables por el cambio climático como vientos, lluvias o la radiación solar. No existe suficiente discusión acerca de aquellos elementos con mayor permanencia en el ecosistema como lo es el suelo y el subsuelo. El objetivo de esta investigación es desarrollar estrategias pasivas de diseño bioclimático que a través del suelo y subsuelo permitan mantener un nivel de confort en una edificación a pesar de los efectos del cambio climático. Se espera identificar las características que debe cumplir el espacio arquitectónico para permanecer en confort debido a las propiedades de inercia térmica de la tierra y que la adecuación bioclimática lograda permanezca a pesar de los cambios en el clima de la región.



METODOLOGÍA

Primeramente, el software Meteonorm 7.3 para obtener las temperaturas prospectivas en base a las normales climatológicas registradas por el Gobierno de México. Teniendo esos datos, se sometieron al programa Biosol donde se obtuvieron los isorrequerimientos por clima según un modelo de confort propuesto por Victor Olgyay. Por otro lado, se contaba con archivos climáticos .EPW de cada una de las cuatro ciudades piloto y gracias al software CCWorldWeatherGen se generaron estos archivos para el escenario 2050. Con esto se analizó mediante el programa Climate Consultant.


CONCLUSIONES

Los cuatro climas analizados sufrirán cambios de temperatura importantes para el 2050 y 2100, mayormente un ascenso de temperaturas, pero también en ocasiones un descenso. Esto tendrá consecuencias directamente en las condiciones de confort de los espacios por lo tanto es necesario tomarlo en cuenta para el diseño bioclimático en la arquitectura. El suelo y el subsuelo son un recurso que se puede aprovechar debido a su inercia térmica para aclimatar de manera pasiva las construcciones y así garantizar el confort térmico a pesar de los cambios climáticos a largo plazo. Algunas estrategias bioclimáticas utilizando el suelo son los espacios enterrados, la climatización geotérmica, la tierra como sistema constructivo, etcétera.
Lara Garrido Laura, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Jesus Felipe Mendoza Muñoz, Instituto Tecnológico Superior de Los Ríos

MOTIVACIóN: FACTOR QUE IMPULSA LA PRODUCTIVIDAD LABORAL EN LA EMPRESA PURIFICADORA DE AGUA BERMAR S.A. DE C.V.


MOTIVACIóN: FACTOR QUE IMPULSA LA PRODUCTIVIDAD LABORAL EN LA EMPRESA PURIFICADORA DE AGUA BERMAR S.A. DE C.V.

Lara Garrido Laura, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Jesus Felipe Mendoza Muñoz, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En la empresa Purificadora de Agua Bermar S.A. de C.V. en el municipio de Balancan se requiere de un formato para el registro de ingreso y egreso del producto, la cual se fórmulara un formato el cual se obtendría datos relevantes para la empresa .De igual manera en la organización se abordó el tema de motivación para el personal personal en el cual se dará como propuesta técnicas para mejorar el ámbito de trabajo por medio de la motivación.



METODOLOGÍA

Para la obtención de datos fidedignos se utilizara la metodología Six Sigma en conjunto de herramientas que apoyen a la misma como son DMAIC, Foda, 5 porque, y AMEF, para la realización de dicha investigación y la obtención de datos relevantes y certeros.


CONCLUSIONES

Se desea obtener datos que determinen la cantidad exacta de ingresos y egresos de producto en la empresa Purificadora de Agua Bermar S.A. de C.V en el Municipio de Balancan por medio de formatos donde se indique las cantidades exactas, de igual manera proponer las posibles formas de motivación que se podía llevar acabo en la organización para mejorar el ámbito laboral en el cual los colaboradores tengan sentido de pertenencia y de esta forma obteniendo mayo productividad.
Lara González Leobardo, Universidad de Sonora
Asesor: Dr. Luis Elias Chavez Valencia, Universidad de Guanajuato

UPPE-FRAME


UPPE-FRAME

Honesto Muñoz Arantza, Instituto Politécnico Nacional. Lara González Leobardo, Universidad de Sonora. Asesor: Dr. Luis Elias Chavez Valencia, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente la demanda de diversos polímeros es enorme en diversos ámbitos de la vida cotidiana del ser humano que es contrastante con la vida útil de apenas minutos u horas, siendo un contaminante bastante problemático debido a su largo tiempo de degradación, que puede llegar incluso a tardar siglos. Para evitar los efectos negativos que genera la contaminación por polímeros en el medio ambiente, se tienen varias soluciones, las cuales pueden ser, el reciclaje del mismo polímero para así darle una nueva vida útil sin cambiar su finalidad, la reutilización del polímero en un nuevo producto, o bien, la alteración de este para hacerlo más amigable con el medio ambiente. Basándonos en la reutilización de los desechos agroindustriales para solucionar la problemática de la contaminación y la falta de una vivienda digna de las comunidades más vulnerables. Según CONEVAL, cerca de 14 millones de hogares en México no gozan del derecho a la vivienda digna y decorosa como lo dicta el artículo 4to de nuestra constitución  política de los Estados Unidos Mexicanos. Por lo que este proyecto busca ayudar a resolver ambas problemáticas, la primera es reciclar desechos agroindustriales como la arpilla para la elaboración de bastidores para la construcción modular y la segunda es ayudar a la comunidad para construir viviendas con bajo costo siendo al mismo tiempo seguras y cumpliendo con los estándares actuales de construcción.



METODOLOGÍA

Inicialmente se propusieron varias alternativas de solución, de las cuales destacan, el uso de botellas HDPE (High Density PolyEthylene) para ser moldeadas en los marcos deseados, así como la utilización de resina UP (unsaturaded polyester) y PE(polyethylene) triturado, obtenido de arpillas. Para llevar a cabo dichas propuestas, fue necesario crear los moldes adecuados para cada método, con las dimensiones estándar de construcción modular a una longitud reducida en escala 1:8. De las opciones anteriores, después de pruebas preliminares se eligió el uso de resina UP y PE triturado debido a que presenta mayor facilidad para moldear las piezas deseadas así como una disponibilidad de los materiales necesarios en mayor cantidad y por último, presenta mejores propiedades mecánicas e inerciales que su contraparte en HPDE Al enfocarnos en utilizar solamente la resina UP y PE triturado, fue necesario crear una composición que nos facilitara la reproducción de las muestras, dicha composición es la siguiente: 278 gr de resina PP-250 100 gotas de catalizador 18 gr de PE triturado. Dicha composición es suficiente para obtener un tramo de 35 cm de largo aproximadamente. Así mismo durante la preparación de las muestras y su paso al molde, se tuvo el cuidado pertinente para evitar que se generara una reacción exotérmica, que pudiera alterar las propiedades del material. El proceso de pruebas mecánicas consistió en dos tipos de ensayo: Ensayo de flexión de viga a tres puntos Ensayo de compresión o elasticidad Se elaboraron 3 cubos de 4.5x4.5 cm, necesarios para realizar los ensayos de compresión o elasticidad. Después de someter las muestras a cargas de varias toneladas, pudimos obtener los datos necesarios para calcular el módulo de elasticidad del material, característica indispensable para cualquier material y sus propiedades mecánicas Para el ensayo de flexión de viga se utilizó una prensa Marshall, con un ensayo a tres puntos. Haciéndose tres pruebas consecutivas. En comparativa los marcos elaborados con el material UPPE resistió mayor carga, no se torció en exceso y en general su desempeño fue superior que los perfiles comerciales de acero de la marca plaka de Comex.


CONCLUSIONES

Los resultados de las pruebas mecánicas nos proporcionaron un punto de referencia con las opciones actuales del mercado. Teniendo sus ventajas claramente, al ser más barato y teniendo el factor de ser un producto que pretende reducir la contaminación del medio ambiente. Al plantear el problema, la solución parecía muy simple,  solo después de casi dos meses de trabajo, podemos constatar que aunque el proyecto ha iniciado de forma exitosa, con bases sólidas así como resultados prometedores, aún queda mucho tiempo y esfuerzo para que se pueda perfeccionar, al grado de ser implementado realmente, siendo la solución que nosotros planteamos.
Lara Madrigal Alex Fernando, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

AFECTACIóN DE FLUJO DE MATERIAL, EN BASE ALA UBICACIóN DE MáQUINA "TIMESAVERS" APLICANDO LAS 5S. EN LA EMPRESA VERTIV S.DE R.L DE C.V


AFECTACIóN DE FLUJO DE MATERIAL, EN BASE ALA UBICACIóN DE MáQUINA "TIMESAVERS" APLICANDO LAS 5S. EN LA EMPRESA VERTIV S.DE R.L DE C.V

Lara Madrigal Alex Fernando, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La empresa VERTIV S. de R.L de C.V está ubicada en el municipio de Reynosa Tamaulipas, por lo cual se dedica a la metal mecánica, y también elaboran componentes de telecomunicaciones, Este proyecto nace de ciertos problemas que se presentan en el área de producción, como lo es: el exceso y flujos de materiales que afectan la ubicación de la maquina TIMESAVERS. Por lo que se procede a que los materiales tengan un área delimitada para su almacén, sin que afecten al operario en sus actividades, alcanzando una mejora continua.



METODOLOGÍA

Al llevar acavo este proyecto, tiene como principal objetivo lograr un Espacio adecuado para la reubicacion de maquinaria TIMESAVERS Aplicando las 5s. esta herramienta nos facilita la adopcion de nuevas formas  de trabajo en las que se integra la autodiciplina, el orden, limpieza y seguridad. A pesar de grandes beneficios que aporta bajo conste de implementacion, hay todavia organizaciones que no se aplican de forma sistematica en la mejora y Resistencia a los cambios  de habito en la organizacion.


CONCLUSIONES

En base a la metodología de las 5s, tuvo gran impacto dentro del proyecto logrando los siguientes beneficios: Mejorar desempeño de las actividades del operador, evitando zonas de peligro. Mejorar las operaciones de materiales. Mejorar y mantener las condiciones  de la organizacion de orden y limpieza. Desminuir movimintos innecesarios. Reducir tiempos muertos. (En la ubicacion anterior de la maquina Timesavers los operadores tenian tiempos muertos por minutos, durante los dias de la semana teniendo un total de 3hrs con 32 min. y se redujo en base a la mejora a 1hrs con 6 seg. Teniendo una diferencia de 2 hrs con 26 min y 59 segundos. Lo cual fue muy factible, teniendo un ahorro de 36,058 dolares anuales, tomando encuenta que una hora cuesta 25.34 dolares, lo cual la empresa VERTIV, tendra ese ahorro en beneficio.)
Lara Ochoa Carlos Daniel, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

SIMULACIÓN Y OPTIMIZACIÓN DE PROCESOS EN EL SOFTWARE DELMIA QUEST ®


SIMULACIÓN Y OPTIMIZACIÓN DE PROCESOS EN EL SOFTWARE DELMIA QUEST ®

Gonzalez Bracamontes Jessica Guadalupe, Instituto Tecnológico de Colima. Lara Ochoa Carlos Daniel, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Actualmente en cualquier tipo de sistema es de suma importancia conocer que es lo que sucede en cada proceso para saber si se puede optimizar, para ello existe la simulación, una herramienta que nos puede ser de mucha utilidad al momento de implementar propuestas sin que la empresa se vea afectada en caso de que éstas no sean las adecuadas. Lo cual ayuda a los gerentes, ya que ellos van a ser capaces de probar y ejercer alternativas de decisiones en el modelo simulado, permitiendo ensayar cada una de sus decisiones ajustando el modelo e inmediatamente ver su efecto. La simulación está siendo cada vez más demandada en empresas de manufactura ya que ésta trata de acercarse lo más posible a las características de la realidad y esto genera que dichas empresas opten por esta herramienta ya que ayuda a mejorar su proceso sin necesidad de intervenir directamente en éste. Debido a esto se ha facilitado la simulación con la ayuda de softwares, ya que hacerlo a mano puede ser muy tardado, existen diferentes programas que ayudan a simular, tal es el caso de Excel, sin embargo, se han desarrollado programas para computadoras destinados únicamente para que nos ayuden a simular procesos; durante este verano de investigación aprendimos a manejar el software Delmia Quest ®, creado para modelar los procesos y poder generar propuestas de mejora para después implementarlas en el mismo programa y analizar qué es lo que sucede. En la empresa fabricante de puertas metálicas se modela todos los procesos que contiene su sistema para analizar lo que sucede dentro de ésta y poder obtener propuestas de mejora ya sea en cada proceso o en un área específica y buscando minimizar la entrega tardía del producto al cliente.



METODOLOGÍA

Se utilizan datos reales de una empresa fabricante de puertas metálicas para crear el modelo a simular, esto con el propósito de analizar sus procesos y utilizar nuestro conocimiento para buscar áreas de oportunidad y crear propuestas que ayuden a mejorarlos. El modelo por simular consta de cinco departamentos en los cuales se lleva a cabo el proceso de producción de las diferentes puertas que esta planta produce, para realizar nuestro modelo de simulación decidimos llevar a cabo el proceso de la puerta de 2 luces. El proceso comienza en el departamento de herrería en el cual se llevan a cabo operaciones como tronzado donde se hace el corte de los perfiles a las medidas especificadas por la orden del cliente, habilitado donde se hacen las perforaciones a los perfiles para prepararlos para futuros procesos, armado donde a través de soldadura los perfiles son unidos para dar la forma preliminar del producto, pulido en donde se elimina el exceso de soldadura en las uniones y por último la operación de recubrimiento para evitar oxidación con el paso del tiempo.   El proceso continuó en el área de rolado y troquelado en la cual se colocan láminas de acero galvanizado en una roladora, la cual les da la forma de perfil, dando como resultado el marco. Se obtienen dos empaques, uno de ellos con 30 piernas que se dirigen al área de troquelado, donde se procede a realizar el punteado, después de esto se dirige al área de lavado donde se eliminan todas las impurezas únicamente de los marcos, el otro empaque contiene 30 cabezales y 30 piernas derechas el cual se dirige al área de lavado directamente, en esta área se realizan 3 operaciones que son desengrase, enjuague y secado, las cuales se realizan en tres tinas una para cada etapa previamente indicada.  La siguiente área es la de pintado, aquí llegan las hojas soldadas y los marcos lavados, se suben a un carrusel a tres metros de altura que gira automáticamente a una velocidad de 30 mm/s, en ésta se aplica la pintura en polvo, después de esto pasan a través del horno a una temperatura de 220°C para su curado, esto depende de lo que se va a pintar, es decir, si es marco o puerta. Por último se encuentra el área de armado de puerta donde se realiza el armado final de la puerta, en esta área se llevan a cabo cinco operaciones las cuales son el corte de vidrio en donde se hace el corte de hojas de vidrio a las medidas de las órdenes del cliente, envidriado donde se realiza la colocación de vidrio y silicón, habilitado donde se hace la preparación de la chapa, armado donde se realiza el ensamble de piezas entre la puerta y el marco, por último se realiza el empaque para dirigir el producto terminado a embarques. Al finalizar el modelo llevamos a cabo la validación de este para asegurar que simulaba un lote de 510 puertas, después de esto hicimos un total de treinta corridas para poder calcular el tiempo promedio en que se entregaba este lote de puertas. Una vez hecho todo esto analizamos todas nuestras áreas y usamos nuestros conocimientos para buscar posibles mejoras que beneficien el sistema.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos del software Delmia Quest ®, así como poner a prueba nuestros conocimientos adquiridos en la carrera de ingeniería industrial para poder proponer mejoras que optimicen los procesos de producción. Después del análisis del modelo simulado, pudimos observar que había máquinas gemelas que hacían las mismas operaciones, por lo que decidimos probar que pasaba con el tiempo si eliminamos una de esas máquinas. Logramos eliminar cuatro máquinas, tres en el área de herrería y por último una en el área de troquelado, lo que nos ayudó en la reducción del tiempo de entrega del pedido del lote de 510 puertas de dos luces.
Lara Olvera Sergio Armando, Instituto Tecnológico de Reynosa
Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)

SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO


SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO

Lara Olvera Sergio Armando, Instituto Tecnológico de Reynosa. Niño Peña Ana Laura, Instituto Tecnológico de Reynosa. Parra Lopez Gerardo, Instituto Tecnológico de Toluca. Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el sector agrícola surgen problemáticas que ocasionan un gasto innecesario y un aumento potencial del deterioro medioambiental por agotamiento de la fertilidad o del agua disponible para riego, y por contaminación de suelos y acuíferos, entre otros. Este sector del departamento del Atlántico se ha visto estancado en sus niveles de producción, calidad y cantidad debido a las formas tradicionales de manejar los cultivos, por lo que se ha comenzado a implementar modelos de agricultura desarrollados en el exterior. La variabilidad espacial de las propiedades del suelo y de los rendimientos de los cultivos han sido reconocidos dentro de estos modelos de agricultura, dando origen a nueva tecnología llamada Agricultura de Precisión (AP) que permite medir y manejar la variabilidad espacial para aumentar la eficiencia productiva y disminuir el impacto ambiental. Tomando en cuenta que la demanda de productos va en aumento debido al crecimiento de la población, es indispensable realizar cambios que permitan que los cultivos logren cumplir con la demanda del mercado, además de comenzar a comercializar un producto de mayor calidad, beneficiando tanto al productor como al consumidor.



METODOLOGÍA

El resultado de una prueba piloto de investigación del SENA Centro Nacional Colombo Alemán CNCA en el área de Diseño de Productos Industriales y Diseño e integración de Automatismos Mecatrónicos, con el fin de desarrollar un sistema de monitoreo que permite innovar en los procesos de formación internos e impactando en el Centro para el Desarrollo Agroecológico CEDAGRO. Visualización y análisis de la información (mapas digitales). 1. Se planeó y seleccionó el área a cartografiar, se planificó la misión y las diferentes tareas (Participan aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se capturaron imágenes aéreas multiespectrales de su cultivo con aviones no tripulados (Drones), registrando la información de calidad de suelo, detención de plagas y rendimiento y crecimiento de cultivos del departamento del Atlántico. Generación y entrega de reportes. 1. Se realizaron notificaciones automáticas en tiempo real a los agricultores del estado de tierras y el resultado de decisiones de expertos mediante órdenes de trabajo fotografías, notas de voz o texto, que fueron registrados y almacenados en el Sistema de Monitoreo. (intervienen aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Análisis y Desarrollo de Sistemas de información; Gestión de Redes de Datos; Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se analizó la información obtenida con las conclusiones y resultados del procesamiento de las imágenes apoyados de las indicaciones de los expertos agroindustriales, y se tomaron decisiones sobre la base del conocimiento construido por aprendices y expertos profesionales en el tema, que permiten a los agricultores ser productivos y competitivos en el mercado.


CONCLUSIONES

Diseñar y proporcionar un sistema de toma de decisiones a partir de vehículos no tripulados para la gestión integrada de las explotaciones agrícolas es fundamental. Esto permite fortalecer competencias en el desarrollo tecnológico de productos que impactan positivamente a la comunidad con la solución de problemáticas reales, es decir; permite a los agricultores del Atlántico optimizar el rendimiento de la inversión y conservar los recursos naturales. La propuesta del Sistema para el monitoreo y toma de decisiones a partir de vehículos no tripulados (drones) en el área rural del departamento del Atlántico, se centra en proporcionar a los agricultores una herramienta profesional que mejora la producción, reduzca los costos y el riesgo, permitiendo concentrarse en lo importante, su productividad y negocio.
Lara Sánchez Sarai Julieta, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

HIDROGELES NANOESTRUCTURADOS DE MWCNT-NANOPARTICULAS DE POLIACRILAMIDA


HIDROGELES NANOESTRUCTURADOS DE MWCNT-NANOPARTICULAS DE POLIACRILAMIDA

Lara Sánchez Sarai Julieta, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los hidrogeles pueden presentar altos niveles de hinchamiento, sin embargo conforme incrementa dicho hinchamiento las propiedades mecánicas disminuyen. Por los que sus aplicaciones se ven limitadas como absorbentes. Cuando se usa un líquido iónico puede incrementar sus aplicaciones, como absorbente y como conductor. Los líquidos iónicos aumentan absorción y propiedades eléctricas. Sin embargo, a mayor hinchamiento también pueden presentar fragilidad. Para ello, en este trabajo se pretende usar líquidos iónicos, para mejorar sus propiedades de hinchamiento, nanotubos de carbono de pared múltiple para aumentar las propiedades mecánicas y nanoparticulas de poliacrilamida para disminuir la fragilidad que puede llegar a obtener el hidrogel.



METODOLOGÍA

Se prepararán una serie de muestras de diferentes concentraciones analizando en cual se muestra una mejor dispersión de los MWCNT. Las muestras se desgacifican para la eliminación de gases en el interior de la solución. La solución se le adicionan 2 gotas de acelerador en cada muestra para que la reacción se genere en un periodo corto y colocarlas en un baño de ultrasonido (sonicador) en un tiempo de 5 min a temperatura de 30 °C. Obteniendo una estructura dispersa de MWCNT con nanoparticulas de poliacrilamida y liquido iónico generando un corte en la estructura. Se depositan en un recipiente con agua bidestilada para que desprenda el exceso de acrilamida que no reacciono en un tiempo de 24 horas. Se depositan las muestras en el horno de vacío para la eliminación de agua en un tiempo de 24 horas a una temperatura aproximada a 40°C observando que la disminución del agua de las muestras no se encontraba un avance rápido se dejaron las muestras por 48 horas a una temperatura aproximada de 80 °C. Las medidas de hinchamiento se analizaron para determinar en que tiempo llega al equilibrio el hidrogel.


CONCLUSIONES

Los MWCNT funcionalizados se ponen en el horno 1 hora antes de utilizar por lo que se necesitan secos y en temperatura ambiente son higroscópicos. En los blancos se demostró que para alcanzar el peso mayor de hinchamiento es con la aplicación de liquido iónico aplicando en las muestras 1-8 con los MWCNT generando una mejor dispersión, con las nanopartículas de acrilamida para la resistencia del hidrogel para evitar la ruptura de la estructura, las muestras 1-4 como mejor resultado será la muestra 1 demostrando un peso de hinchamiento mayor pero el equilibrio es paralelo con las demás muestras y de las muestras 5-8 como mejor resultado es la muestra 8 con un peso de hinchamiento mayor y llegando al equilibrio en un tiempo menor a las muestras anteriores.
Lara Tolentino Jahir Othoniel, Instituto Tecnológico de Iguala
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA


CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA

Calderón Lara Isabel, Instituto Tecnológico de Iguala. Lara Tolentino Jahir Othoniel, Instituto Tecnológico de Iguala. Valladares Rivera Miguel Angel, Instituto Tecnológico de Iguala. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La empresa "VIVA STONE" es una empresa que actualmente trabaja con muchos tipos de piedras para fachada, analizando todos los procesos que se realizan en dicha empresa encontramos que la gran problematica es el gran desperdicio que se produce en el corte de piedra de cantera para fachada.  



METODOLOGÍA

Six Sigma es un método basado en datos que examina los procesos repetitivos de las empresas y tiene por objetivo llevar la calidad hasta niveles cercanos a la perfección. Es más, se propone una cifra: 3.4 errores o defectos por millón de oportunidades. Y se distingue de otros métodos en el hecho de que corrige los problemas antes que se presenten. Six Sigma constituye un modelo de gestión de calidad que también se conoce como DMAIC, siglas de las palabras en inglés: define (definir), measure (medir), analyze (analizar), improve (mejorar) y control (controlar). Estas son las cinco fases que se han de aplicar en cada proceso.  En las primeras semanas identificamos la causa raiz de la problematica que citamos con anterioridad midiendo todo el despedicio que generaba un operario al dia y midiendo tambien todo el producto bueno que se sacaba.  Mediante las herramientas estadisticas de la metodologia "SEIS SIGMA" es como pudimos analizar que los datos que nos arrojaban los procesos de corte generaban mas desperdicio que producto bueno.  Por consiguiente en las ultimas semanas nos dedicamos a mejorar y controlar la cauza raiz, buscando alternativas que nos ayudaran a solucionar dicho problema.


CONCLUSIONES

Con los datos arrojados mediante la metodologia "SEIS SIGMA" encontramos que la causa raiz que debemos atacar principalmente es contar con un estandar de calidad a la hora de recibir el lote de piedras en almacen ya que se encontro que la piedra llega muy fracturada o dañada lo cual tiende a desmoronarse y empezar a generar todo ese desperdicio que intentamos disminuir. 
Lasso Saldaña Javier, Universidad de Guadalajara
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

INTERFACES CEREBRO-COMPUTADORA BASADAS EN SSVEP


INTERFACES CEREBRO-COMPUTADORA BASADAS EN SSVEP

Lasso Saldaña Javier, Universidad de Guadalajara. Muñoz Montes de Oca Jenny Noemí, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En México, el 6% de la población presenta algún tipo de discapacidad, inducida por enfermedad o accidentes, lo cual representa aproximadamente a 5 millones de personas.  Según datos de la Secretaría de Salud, la discapacidad más frecuente es la motriz, siendo la dificultad para ver o caminar las más comunes. Las enfermedades neuromusculares son la causa más frecuente de deficiencia motora. (2017) Las enfermedades neuromusculares afectan al sistema nervioso generando una pérdida en la capacidad motriz, entre las cuales destacan padecimientos como Esclerosis Lateral Amiotrófica y Esclerosis Múltiple. Las interfaces cerebro-computadora representan una herramienta para proveer nuevas tecnologías de comunicación y control para pacientes con deficiencia motriz. Este tipo de interfaces facilitan la comunicación usuario-computador mediante la medición de bioseñales tales como los paradigmas P300 y SSVEP.



METODOLOGÍA

Se realizaron experimentos utilizando el paradigma SSVEP en una interfaz cerebro-computadora. Para ello se reclutaron participantes del Programa de Verano de Investigación Delfín 2019. Doce sujetos sanos dentro de las edades entre 19-22 años, participaron en el estudio de SSVEP, utilizando el equipo g.EEGsys para el registro del encefalograma.  El experimento realizado se dividía en 2 fases, durante la fase de preparación el participante se conectaba al electroencefalograma (EEG), utilizando un gorro de electrodos pasivos, aplicando gel conductor al participante para favorecer el contacto del cuero cabelludo y el electrodo. Las señales del EEG eran medidas a través de 8 canales posicionados en los lóbulos parietal y occipital del cerebro, es decir PO7, PO3, POz, PO4, PO8, O1, O2, Oz, y AFz como electrodo de tierra, siguiendo el Sistema Internacional de electrodos ‘10-20’. Se utilizó una configuración de grabación referencial, en donde la diferencia de potencial se obtiene entre un electrodo de grabación y uno de referencia. Para este experimento el electrodo de referencia se colocó en el lóbulo del oído derecho. Las señales sin procesar son amplificadas y procesadas a través del amplificador de bioseñales ‘g.USBamp’ y son transmitidas al computador utilizando el software del mismo. El experimento consiste en 5 partes, la primera, tercera y quinta figuran un entrenamiento neutro, en el cual se registran los datos del EEG en un estado de reposo, para esto la interfaz muestra una barra de tiempo (1 minuto). Para la segunda y cuarta parte del experimento se realizó un entrenamiento con diferentes frecuencias. En este entrenamiento se pidió a los sujetos concentrar su mirada en un cuadrado de 200 pixeles de largo por 200 pixeles de alto, en donde una señal destella a diferentes frecuencias dentro del rango de 5 a 30 Hz, de una manera aleatoria. El experimento consiste en una pantalla en negro (duración 2 segundos) para el periodo de reposo, una pantalla de fijación (duración 1 segundo) para que el sujeto dirija su atención al estímulo, y por último la pantalla del estímulo el cual dura 10 segundos. En esta fase del entrenamiento se muestran 55 estímulos, por lo que se realiza en un total de 12 minutos. Una vez realizada la primera sesión de experimentos a los 12 sujetos, se inició con el procesamiento de datos utilizando el programa ‘SSVEP Analyzer’ para ello se utilizó la función Detector para analizar las frecuencias presentadas contra las señales en reposo del entrenamiento neutro, con lo que se pudieron detectar las frecuencias (o clases) que funcionaban de manera adecuada para cada uno de los sujetos. El análisis se realizó utilizando los algoritmos Cannonical Correlation Analysis, Minimal Energy Conservation y Likelihood Ratio Test, utilizando 4 índices distintos de 0.2, 0.4, 0.6 y 0.8 para cada uno de ellos. A su vez, también se modificaron los parámetros del tamaño de muestras entre 256, 384 y 512. Cada uno de los participantes fue sometido a dos sesiones experimentales como la que se describió previamente. Sin embargo, en la segunda sesión experimental se adicionó la Prueba Online, en la cual se colocaron 2 señales (izquierda y derecha) destellando a las 2 frecuencias más altas para cada sujeto. Posteriormente, se pidió a los participantes concentrar su mirada en una de las señales, con lo que la computadora era capaz de seleccionar la señal elegida por el participante. A su vez se realizó el análisis del tiempo de respuesta del programa para clasificar las frecuencias observadas durante el experimento. Para ello se realizó un gráfico en MATLAB, comparando el porcentaje de error con el intervalo de tiempo, así detectando el tiempo de respuesta del programa para cada uno de los sujetos. Finalmente, se implementó un Interfaz Cerebro-Computadora para el control de un brazo robótico ‘DOBOT’, en la cual el estímulo SSVEP se utiliza para habilitar la interfaz, mientras que el paradigma P300 se utiliza para asignar comandos o indicaciones al robot.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos de las Interfaces Cerebro-Computadora utilizando el paradigma SSVEP. Se analizaron los datos de 12 sujetos, obteniendo para ellos las frecuencias adecuadas para que el sistema funcione, y el tiempo de respuesta del computador. El objetivo principal de la investigación es el diseño de un algoritmo que pueda encontrar estas frecuencias, utilizando la configuración más apropiada, sin embargo, al ser un extenso trabajo analítico solo se llegó a la etapa de procesamiento de datos, la base para la generación del algoritmo. A su vez, fue posible implementar y controlar una Interfaz Cerebro-Computadora empleando SSVEP para el control de un robot de comandos, utilizando los datos obtenidos para llevar a cabo el control de la interfaz.
Lázaro Buenrrostro José Luis, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.


INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.

Aguilar Apolinar Monserrat, Tecnológico de Estudios Superiores de Jocotitlán. Lázaro Buenrrostro José Luis, Instituto Tecnológico Superior de Apatzingán. Peñaflor Ruiz Jessica Lizbeth, Instituto Politécnico Nacional. Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Siendo Uruapan Michoacán, México la capital mundial del aguacate por la comercialización a nivel nacional e internacional, se identificó que la contaminación atmosférica, de agua y suelo son aspectos que generan un impacto negativo en el proceso de cultivo de la fruta por lo que, se requiere dar solución inmediata que asegure la calidad de la misma para el consumidor, usuario o cliente.



METODOLOGÍA

Se considera la investigación de tipo documental: Su objetivo es el desarrollo de las capacidades reflexivas y críticas a través del análisis, interpretación y confrontación de la información recogida. Para ello, se desarrollará la fundamentación teórica como apoyo al proceso de investigativo. La investigación tipo descriptivo: Constituyen una "mera descripción de algunos fenómenos", para lo cual, se identifica una problemática donde el fenómeno a investigar es el efecto negativo de la contaminación atmosférica, de agua y sobre todo en el proceso del cultivo de aguacate. El tipo de investigación de  campo: También conocida como investigación in situ ya que se realiza en el propio sitio donde se encuentra el objeto de estudio, el cual es el proceso del cultivo de aguacate en una huerta determinada en la ciudad de Uruapan, Mich. Desarrollo del protocolo de investigación. Diseño para  la presentación del protocolo de investigación y la Wix. Entrega del CD de la investigación.


CONCLUSIONES

Tomando como base la metodología de la investigación, se detectó la realidad que se vive en la ciudad de Uruapan, Michoacán respecto al impacto negativo en el medio ambiente. Así mismo, el manejo de los conocimientos adquiridos sobre la Ingeniería Ambiental respecto a la contaminación atmosférica, de agua y suelo que ayudó a identificar las causas por las que el proceso de cultivo de aguacate se ve afectado por este fenómeno que son: la quema descontrolada de árboles, la alteración del ciclo hidrológico y el abuso de  uso de agroquímicos. Por lo que, el desarrollo de un protocolo de investigación es el parte aguas para presentar un abanico de alternativas de solución que disminuya los niveles de contaminación para tener una tierra y frutos sanos.
Leal Bustamante Jetro Manases, Universidad Autónoma del Estado de México
Asesor: Dr. Miguel Urrestarazu Gavilán, Universidad de Almería (España)

MEJORAMIENTO DE SISTEMA DE FERTIRRIGACIÓN AUTOMATIZADA EN CULTIVOS SIN SUELO MEDIANTE UN CONTROL PID POR ORDENADOR


MEJORAMIENTO DE SISTEMA DE FERTIRRIGACIÓN AUTOMATIZADA EN CULTIVOS SIN SUELO MEDIANTE UN CONTROL PID POR ORDENADOR

Casillas Camacho Geovanni, Instituto Tecnológico de Toluca. Leal Bustamante Jetro Manases, Universidad Autónoma del Estado de México. Asesor: Dr. Miguel Urrestarazu Gavilán, Universidad de Almería (España)



PLANTEAMIENTO DEL PROBLEMA

  La fertirrigación es una técnica que permite la aplicación simultánea de agua y fertilizantes a través del sistema de riego, aportando al suelo o sustrato los nutrientes que se necesiten para el cultivo (IEP invernaderos, 2017). Estos sistemas permiten distribuir el agua en la ubicación, cantidad, frecuencia y horario requeridos, generalmente utilizando un sistema automatizado. Una función de suma importancia en un sistema automatizado es la posibilidad de realizar controles, con el fin de identificar las características a la entrada y salida para establecer una corrección manual o automática (Martínez, 2013). Estas características en sistemas de fertirrigación son dadas por el potencial de hidrogeno (pH), conductividad eléctrica (Ce), Concentración de Nutrientes, volumen y temperatura del agua alimentada al cultivo.   Un sistema de fertirrigación automática es una de las opciones más cómodas y productivas para regar, permite ahorrar tiempo y garantiza que los cultivos se mantengan en condiciones óptimas. Algunas ventajas y desventajas que menciona Jiménez (2014) son:   Ventajas Reduce el tiempo invertido en los trabajos para el mantenimiento del cultivo A través del controlador es posible ajustar frecuencias, tiempos y horarios independientes para cada circuito de riego Los nutrientes son aplicados en forma exacta y uniforme, sólo al área humedecida, donde se concentran las raíces. Existe un mejor control de la dosis de nutrientes, reduciendo el potencial de toxicidad al cultivo y, por ende, los costos. Permite aplicar los nutrientes en cualquier etapa del cultivo. Reduce los costos de mano de obra y aumenta la eficiencia del fertilizante. Permite adecuar la cantidad y la concentración de los nutrientes de acuerdo con su demanda, durante las diferentes etapas de crecimiento del cultivo. Incrementa los rendimientos, la calidad e inocuidad del producto final. Reduce el potencial de contaminación de aguas subterráneas por lixiviación de fertilizantes.   Desventajas Alto costo inicial de la infraestructura. Inicialmente se requiere personal especializado o capacitado y conocimiento técnico. Mantenimiento continúo para evitar la obstrucción.      



METODOLOGÍA

  Para realizar la inspección del sistema e identificar el fallo en el funcionamiento, es necesaria la identificación de la estructura y conocer cómo trabaja dicho sistema.   Los procesos de fertirrigación automatizada trabajan con un procesador que controla sensores de pH, Ce y Caudal de entrada y salida (Zubelzu, 2019). Los sensores están destinados a medir las características de una mezcla que se produce a través de 4 tanques, los cuales son: Tanque 1 y 2: Macronutrientes Tanque 3: Ácido Nítrico al 0.1 N Tanque 4: Agua proveniente de filtración   La mezcla y control se realiza de manera continua, de tal forma que en la misma tubería se mezclan los componentes. En la salida se instalan los sensores para realizar el control y corrección en caso de haberla (Raghuwanshi N.S, 2013).   El proceso descrito anteriormente se repite de forma continua mientras se realiza el riego. Esta estructura de control es llamada de retroalimentación o Feedback control, es una estructura muy eficaz para sistemas continuos, ya que siempre está verificando la salida y en función de ella establece acciones correctivas en la entrada (Franklin et al., 2002).   En el procesador fue instalada una pantalla LED, la cual permite realizar la programación directa del riego mediante una interfaz fácilmente reconocible, sin embargo, un tanto incomoda a la hora de establecer las condiciones de salida del agua de riego.   Una vez entendido el funcionamiento se procedió a identificar los problemas, encontrando como mayor inconveniente la incomodidad de la pantalla LED para programar las características de salida del agua.   A continuación, se propone realizar el control por medio de un ordenador que se encuentra en una bodega a 15 metros del invernadero (lugar donde se encuentra el sistema de irrigación automática), ya que de esta manera será más fácil la manipulación de la intefaz, el riego, tiempo y variables.   Para ello fue conectado un puerto serial desde el procesador hasta el puerto COM4 del ordenador, con el fin de establecer una comunicación entre el sistema de fertirrigación y el ordenador principal. La conexión se encuentra de forma subterránea para evitar un riesgo de desconexión y deterioro. Una vez definida la forma de comunicación se procede a realizar la reprogramación de Arduino para verificar el buen funcionamiento de electroválvulas, sensores y bombas, así mismo, se realiza para establecer una compatibilidad entre el procesador y la nueva interfaz de ordenador.   El diseño de la interfaz para ordenador se presenta de una forma más cómoda para la vista. El personal entra a la interfaz con un usuario y contraseña, posteriormente, se accede a la pantalla principal donde se observa una cantidad de 20 bancos de riego editables para programar simultáneamente varios riegos en diferentes ubicaciones. Accediendo a cualquier programa se muestra una pantalla que permite el control a tiempo real de ubicación, cantidad, frecuencia, horario, pH y Ce.   La interfaz también permite recopilar datos en tiempo real de riego y estadísticas de las diferentes variables mediante gráficos. Así mismo, en todo momento se muestra un recuadro que indica si el programa que está editando el personal se encuentra activo o inactivo.    


CONCLUSIONES

  A partir de lo descrito en la metodología, se puede concluir que, con la implementación del control por ordenador se redujo de gran manera la incomodidad del personal.   La reprogramación del Arduino e interconexión con un ordenador permitió la programación de una mayor cantidad de programas simultáneos, ya que fue ampliado el rango de 10 que anteriormente podían ser ejecutados en la pantalla LED, a 20 que ahora son posibles con la nueva interfaz.   El control, el monitoreo en tiempo real y la presentación de un resumen de salida, genera una gran ventaja en la reducción de errores humanos a la hora de programar las variables de salida del agua de riego e identificar anomalías en las características del agua de riego.  
Lechuga Illingworth Victor Alfonso, Universidad de Colima
Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)

ARQUITECTURA DE SOFTWARE ORIENTADA A MICROSERVICIOS PARA LA RECOLECCIóN Y TRATAMIENTO DE VARIABLES AMBIENTALES


ARQUITECTURA DE SOFTWARE ORIENTADA A MICROSERVICIOS PARA LA RECOLECCIóN Y TRATAMIENTO DE VARIABLES AMBIENTALES

Lechuga Illingworth Victor Alfonso, Universidad de Colima. Moreno Ruiz Edson Rafael, Universidad de Colima. Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

Las aplicaciones de Internet de las Cosas (IoT) en el contexto del monitoreo ambiental son un componente clave para la industria y el desarrollo de ciudades inteligentes. Estas aplicaciones se benefician de los avances de la computación en la nube y el Big data para realizar un conjunto de tareas que van desde la recolección de datos provenientes de una red de sensores, hasta el procesamiento, análisis y presentación de los mismos. Este tipo de aplicaciones requieren de una arquitectura que sea distribuida, escalable, flexible, eficiente y segura. Donde cada uno de los componentes sean independientes, puedan interactuar entre ellos y permitan un desarrollo continuo. Sin embargo, estas características son difíciles de conseguir con los sistemas monolíticos convencionales haciendo que su desarrollo sea lento y complejo. Por lo tanto, en este estudio se propone el desarrollo de una arquitectura de microservicios (en inglés, Micro Services Architecture, MSA), usando patrones orientados a este tipo de arquitectura.



METODOLOGÍA

Arquitectura de microservicios La arquitectura de microservicios (Micro Services Architecture, MSA) es una aproximación con la que se puede enfrentar el desarrollo de software, que consiste en construir una aplicación como un conjunto de pequeños servicios, los cuales se ejecutan en su propio entorno y se comunican con protocolos ligeros. Cada servicio se encarga de implementar una funcionalidad del negocio. También, cada servicio es desplegado de forma independiente y puede estar programado en distintos lenguajes y usar diferentes tecnologías de almacenamiento de datos (Lewis & Fowler, 2014). En cierto modo, los microservicios son la evolución natural de las arquitecturas orientadas a servicios, pero hay diferencias entre los microservicios y estas arquitecturas. Estas son las características de un microservicio (Wasson, 2018): Los servicios son pequeños e independientes y están acoplados de forma flexible. Cada servicio es un código base independiente, que puede administrarse por un pequeño equipo de desarrollo. Los servicios pueden implementarse de manera independiente, sin afectar a otros dentro de la aplicación. Los servicios son los responsables de conservar sus propios datos o estado externo. Los servicios se comunican mediante API definidas. Los detalles de la implementación interna se ocultan a los otros servicios. No es necesario que los servicios compartan la misma tecnología, bibliotecas o framework. A diferencia del enfoque tradicional y monolítico de las aplicaciones, en el que todo se integra  en una única pieza, los microservicios son independientes y funcionan en conjuntos para llevar a cabo las tareas. Este enfoque sobre el desarrollo de software privilegia el nivel de detalle, la sencillez y la capacidad de compartir procesos similares en varias aplicaciones. Los microservicios son más fáciles de diseñar, probar, implementar y actualizar. El objetivo es distribuir software de calidad con mayor rapidez ("¿Qué son los microservicios?", s. f.).    MQTT (Message Queuing Telemetry Transport) MQTT es un protocolo de conectividad máquina a máquina (M2M). Fue diseñado como un transporte de mensajería, basado en el estándar ISO ISO/IEC PRF 20922, de publicación/suscripción ("FAQ - Frequently Asked Questions | MQTT", s. f.). Inicialmente, MQTT fue inventado y desarrollado por IBM a finales de los 90´s. Su aplicación original era vincular sensores en oleoductos de petróleo a satélites. Se trata de un protocolo de mensajería con soporte para la comunicación asíncrona entre las partes. Un protocolo de sistema de mensajes asíncrono separa al emisor y al receptor del mensaje tanto en el tiempo como en el espacio, permitiendo la escalabilidad en ambientes de red que no sean de confianza (Banks & Gupta, 2015). Algunas características de este protocolo son: Uso del modelo de mensajería de publicación/suscripción. Un transporte de mensajería que es agnóstico al contenido de la carga útil. Es extremadamente ligero, abierto y simple. Está diseñado para que sea fácil de implementar. Es útil en conexiones con ubicaciones remotas, donde se requiere un pequeño código y donde el ancho de banda es una limitante. Tres calidades de servicio para la entrega de mensajes: Como máximo una vez, donde los mensaje se entregan de acuerdo con los mejores esfuerzos del entorno operativo. La pérdida de mensajes es tolerable. En caso de que el cliente no se encuentre disponible en ese momento, perderá el mensaje. Al menos una vez, donde se asegura que los mensajes lleguen pero pueden ocurrir duplicados. Exactamente una vez, donde se asegura que el mensaje llegue exactamente una vez. Estas características han convertido este protocolo en una constante dentro del área de IoT (Internet of Things), convirtiéndolo en un patrón para sus comunicaciones. También es ideal para aplicaciones móviles debido a su pequeño tamaño, bajo consumo de energía, paquetes de datos minimizados y distribución eficiente de información a uno o varios receptores.


CONCLUSIONES

Como solución al problema planteado y siguiendo la metodología establecida, se desarrolló una arquitectura de microservicios capaz de soportar una gran cantidad de datos provenientes de una red de sensores y aplicandoles distintas transformaciones a través de un flujo de trabajo. Haciendo uso de las características y beneficios que los contenedores virtuales poseen. La arquitectura propuesta se caracteriza por la facilidad de distribuir los procesos en diferentes microservicios independientes, proporcionando la facilidad de escalar o añadir nuevos servicios de la aplicación sin afectar a los demás servicios. Este trabajo presenta una forma idónea de solventar el problema y facilitar las tareas de desarrollo haciéndolas flexibles, eficientes y seguras.
Ledesma Mendoza Gabriela, Instituto Politécnico Nacional
Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California

DISEñO DE UN GEOTEXTIL DE FIBRA DE PLáTANO PARA FUNCIóN DE REFORZAMIENTO DE PAVIMENTOS


DISEñO DE UN GEOTEXTIL DE FIBRA DE PLáTANO PARA FUNCIóN DE REFORZAMIENTO DE PAVIMENTOS

Ledesma Mendoza Gabriela, Instituto Politécnico Nacional. Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Residuos agrícolas generados de la producción de plátano, pavimentos en mal estado. El desarrollo de la industria agrícola genera gran cantidad de residuos orgánicos que no son utilizados, como hojas, tallos o cualquier otra parte de la planta.  El fin de aprovechar los residuos agrícolas, no es generar un proceso industrializado a gran escala, más bien, es generar empleos locales aprovechando los recursos regionales para su uso y aprovechamiento local. Las grietas en las calles son un serio problema para los transeúntes y los ciudadanos en general porque destruyen tuberías, drenajes, banquetas y dificultan el tránsito vehicular. Las reparaciones requieren cierta cantidad de tiempo que dependerá de la gravedad del asunto. Esto significa que los ciudadanos tienen que tomar rutas alternas que, en ocasiones, duplican el tiempo de llegada a su destino. Las fibras naturales son renovables, de bajo costo, completa o parcialmente reciclables y biodegradables. Lo que las hace una buena opción debido a sus propiedades mecánicas.  No contaminan el suelo, ya que se descomponen dentro de ciclos biológicos de penetración del suelo. Las fibras en descomposición apoyan la retención de humedad y mejoran la permeabilidad del suelo. Promueven el crecimiento de vegetación en el mismo. A pesar de su vida corta, es tiempo suficiente para mejorar el comportamiento del suelo 



METODOLOGÍA

La metodología elegida para esta investigación, es hacer un análisis sobre las características y propiedades que posee la fibra de plátano para poder implementarla en un geotextil de reforzamiento de pavimentos. Con el análisis se pretende realizar un geotextil que se pueda usar sobre pavimentos de concreto fatigado y retardar la reflexión de grietas. Se obtendría mediante la saturación con el cemento de un geotextil que ha sido colocado sobre la superficie existente, para luego colocar la nueva capa de concreto asfáltico. En el caso de la función de reforzamiento, las consideraciones del diseño radican en: Incremento de la capacidad portante del sistema. Reducción de espesores de la capa granular. Incremento de la vida útil. En esta función, se aprovecha el comportamiento a tracción del geotextil para trabajar como complemento de las propiedades mecánicas del suelo, con el fin de controlar los esfuerzos transmitidos tanto en la fase de construcción como en la de servicio de estructuras. El geotextil actúa como un elemento estructural y de confinamiento de los granos del suelo, permitiendo difundir y repartir las tensiones locales. Estas acciones aumentan la capacidad portante y la estabilidad de la construcción  .


CONCLUSIONES

Los resultados que se esperan obtener son la viabilidad técnica de implementar como materia prima la fibra de plátano en geotextiles de reforzamiento de pavimentos. En caso de que sea viable técnicamente, se pretende implementarlo en las zonas productoras de plátano para el uso regional, generando empleos y reduciendo costos en la reparación de pavimentos.
Lemus Garcia Christien, Instituto Tecnológico de Toluca
Asesor: Dr. Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño (Colombia)

RECONOCIMIENTO DE ACTIVIDAD HUMANA A PARTIR DE SENSORES CORPORALES UTILIZANDO APRENDIZAJE AUTOMáTICO


RECONOCIMIENTO DE ACTIVIDAD HUMANA A PARTIR DE SENSORES CORPORALES UTILIZANDO APRENDIZAJE AUTOMáTICO

Lemus Garcia Christien, Instituto Tecnológico de Toluca. Asesor: Dr. Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño (Colombia)



PLANTEAMIENTO DEL PROBLEMA

  Los pacientes de la tercera edad de entre 66 y 86 años atendidos en diversos centros de salud suelen tener momentos de actividad e inactividad desiguales, es decir que de un estado de reposo prolongado pueden pasar a uno de actividad con actividades varias como deambular o incluso salir de la habitación, esto a menudo los pone en situaciones de  riesgo debido a los cuidados que su condición física requiere, sin embargo monitorear estos momentos de inestabilidad resultado complicado utilizando únicamente sensores pasivos debido a la existencia alta de falsos positivos y negativos, por lo que las alertas al cuerpo de seguridad pueden ser erróneas o inexistentes en muchos casos. Por medio de un método de aprendizaje inteligente denominado maquinas de vectores de soporte (SVM) podemos entrenar maquinas en un lenguaje de programación de nuestro dominio para leer bases de datos inmensas de pacientes de las características expuestas, obtenidos por medio de sensores adheribles, y por este medio puedan dar un pronostico lo mas acertado posible sobre posible actividad o inactividad del paciente por medio de las capturas que el sensor arroje.



METODOLOGÍA

La metodologia seguida durantr la estadia fue de casacada, esto debido a la necesidad inherte de trabajar un elementos justo despues de terminar el anterior por la dependencia del mismo, empezando por el registro masivo de datos, pasando por el entrenamiento de maquinas funcionales y la experimentacion con diferentes iteraciones para poder registrar los resultados y observar la precision de los mismos.


CONCLUSIONES

Las maquinas de vectores suelen tener mayor precisión en las evaluaciones cuando mayor numero de iteraciones se trata debido a que el entrenamiento mismo los así considerar un mayor numero de elementos, encontrando en la maquina RBF el elemento mas optimo en términos generales. 
León Morales Valeria, Universidad Veracruzana
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
León Sandoval Elias, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Omar Guillermo Rojas Altamirano, Universidad Panamericana, Campus Guadalajara

PROGRAMACIóN DE TAREAS


PROGRAMACIóN DE TAREAS

León Sandoval Elias, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Omar Guillermo Rojas Altamirano, Universidad Panamericana, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La programación es un aspecto importante del control de operaciones, tanto en la manufactura como en la industria de servicios. Haciendo un gran énfasis en el tiempo de comercialización y en el tiempo para incrementar la producción, así como en la satisfacción del cliente. Es importante en cualquier empresa tener un plan de trabajo diario, puesto que, de esta manera existe una mayor certeza de que se están aprovechando de manera eficiente los recursos de los que se dispone para fabricar un producto o prestar un servicio. Los recursos y tareas en una organización pueden tomar diferentes formas. Estos pueden ser (los recursos), las máquinas de un taller, pistas de un aeropuerto, cuadrillas en una obra de construcción, unidades de procesamiento en sistemas computacionales etc. Las tareas pueden ser operaciones en un proceso de producción, despegues en un aeropuerto, etapas en un proyecto de construcción, órdenes de ejecución en un programa de computadora, etc. Cada tarea tiene cierto nivel de prioridad, una fecha de inicio temprana y una fecha de vencimiento. Los objetivos también pueden ser diferentes. Uno podría ser la minimización del tiempo que se toma en completar la última tarea y otro podría ser minimizar el número de tareas que se completan después de sus respectivas fechas de vencimiento. El problema de obtener la mejor secuencia de trabajos en una empresa de manufactura, para garantizar la explotación de los recursos, forma parte de una rama de la matemática conocida como optimización combinatoria.



METODOLOGÍA

La optimización combinatoria es un área que ha recibido mucha atención en los últimos años. Matemáticos e ingenieros han estudiado los problemas de asignación de tareas y han desarrollado diversos métodos para resolver este tipo de problemas de optimización. Existes diversos algoritmos determinísticos, estocásticos y también heurísticos. En este proyecto en específico se ha centrado la atención en los métodos determinísticos y algunos métodos heurísticos.


CONCLUSIONES

Se han adquirido bastos conocimientos en relación con la programación de tareas en la industria manufacturera. Tales como importancia de la optimización de secuencias de trabajos y capacidad para desarrollar algoritmos que resuelvan este tipo de problemas en un tiempo razonable.
Lerma Sarabia Fernando Alberto, Instituto Tecnológico de Los Mochis
Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro

MONITORIZACIóN Y CONTROL DE EQUIPO INDUSTRIAL POR MEDIO DE TECNOLOGíAS DE INDUSTRIA 4.0


MONITORIZACIóN Y CONTROL DE EQUIPO INDUSTRIAL POR MEDIO DE TECNOLOGíAS DE INDUSTRIA 4.0

Barrozo Preciado Karla Guadalupe, Instituto Tecnológico de Los Mochis. Lerma Sarabia Fernando Alberto, Instituto Tecnológico de Los Mochis. Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En el laboratorio de sistemas tecnológicos aplicados de la Universidad Politécnica de Querétaro se cuenta con distintos tipos de cámaras para estudio de la corrosión cosmética de autopartes plásticas. En particular, se desarrollan pruebas durante largos periodos de tiempo, lo cual demanda un monitoreo y control a distancia de manera continua y permanente. Considerando los horarios del personal, y la logística de acceso al laboratorio, los equipos no pueden ser monitoreados las 24 horas los 7 días de la semana. Por lo tanto es fundamental desarrollar un sistema que permita monitorear y controlar los equipos de ensayo de manera remota y en tiempo real.



METODOLOGÍA

La primera etapa del proyecto consistió en consultar toda la información referente al controlador de temperatura del horno de pruebas. Se investigó la página web del fabricante del equipo. Posteriormente se realizaron pruebas de configuración de comunicación entre el controlador y la computadora con un software del fabricante. No obstante, los resultados estaban demarcados por errores de comunicación. A partir de los códigos de error, el fabricante SAMWONTECH ofrecio un servicio de soporte técnico postventa.  Una vez solucionado este problema, se Instaló el programa Serial Port Monitor y se configuró los protocolos con ayuda de nuestro asesor. Finalmente, se logró establecer la comunicación entre el controlador del horno y la computadora de acceso remoto. Por otra parte, se trabajó de manera paralela en el desarrollo de la aplicación móvil que es el medio por donde se va a monitorear y controlar el equipo de manera remota. Los datos adquiridos por el controlador, son transmitidos a la nube en tiempo real, mediante un dispositivo Arduino. Igualmente, este dispositivo tiene un módulo RS485 y un termopar tipo K para estar tomando las temperaturas del horno de manera externa al controlador. La plataforma firebase fue utilizada para la implementación de la base de datos, con enlace a la aplicación móvil en Android. Actualmente ya se cuenta con la aplicación móvil terminada, el montaje del Arduino con sus módulos, y la base de datos. Están pendientes los comandos de trama para comunicación serial RS-485 directamente desde la aplicación móvil.


CONCLUSIONES

Durante esta estancia de verano obtuvimos conocimientos de Arduino (montaje de módulos y código), manejo de controles de temperatura industriales, protocolos de comunicación de tipo industrial, bases de datos en la nube, sistemas embebidos y scada. El retraso que tuvimos por los inconvenientes al hacer la comunicación, dilató el tiempo de culminación del proyecto. Sin embargo, se está estudiando la estructura de la trama que envía el controlador para subir y bajar la temperatura. Esperamos que al tener completos los comandos de operación del horno se pueda desde la aplicación móvil controlar y monitorear las variables del equipo.
Leva Rendón María de los Ángeles, Universidad Politécnica de Sinaloa
Asesor: Dr. Luis Javier Mena Camaré, Universidad Politécnica de Sinaloa

REFERENCIAS DIGITALES VS FíSICAS


REFERENCIAS DIGITALES VS FíSICAS

Leva Rendón María de los Ángeles, Universidad Politécnica de Sinaloa. Asesor: Dr. Luis Javier Mena Camaré, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo de investigación que se presenta con el nombre de “Referencias digitales Vs físicas” pretende determinar el tipo de herramienta de estudio que es más viable para los estudiantes, del cual este tema de investigación  se ha formado en la comunidad estudiantil con el fin de apreciar la herramienta más óptima de estudio en los estudiantes, Sin embargo en las últimas décadas ha tenido un incremento la herramienta digital como fuente de información , lo que ha generado como consecuencia un escaso manejo de las referencias fiscas. Es preciso levantar la información cualitativa respecto a la investigación, ya que en la actualidad existen preferencias sobre la utilidad de las herramientas de estudio que existen. Es por esto que resulta interesante el analizar estas herramientas y de este modo observar la viabilidad de las referencias digitales y físicas.



METODOLOGÍA

Conocer que herramienta de estudio que es más utilizada por la población estudiantil por medio de la metodología cuantitativa para obtener la información necesaria y traducirla en datos precisos de manera que estadísticamente nos permita demostrar la herramienta con mayor viabilidad ya que actualmente los jóvenes se adaptan a la manera de búsqueda más accesible para obtener la información correspondiente a cada tema según sea el interés. En términos generales en esta investigación se pretende indagar sobre que herramienta es más optima para el aprendizaje, ya que con la nueva tecnología existen en variedad de formas para obtener información y transformarla en conocimiento y trasmitirlo, sin embargo, se efectúa el análisis del estudio con los datos obtenidos dentro de la investigación de la cual se aplica a los jóvenes que se encuentran estudiando. Al abordar el tema de las herramientas de estudio, resulta necesario buscar por medio de entrevistas a los jóvenes, respuestas que nos permitan obtener resultados significativos para determinar  cuantitativamente que herramienta es más viable.


CONCLUSIONES

Las herramientas como fuentes de información son variantes según sea el tipo de gusto del estudiante, determinando si son físicas o digitales actúan como auxiliar en el proceso del aprendizaje, permitiendo que los estudiantes obtengan un mejor rendimiento escolar.
Leyva Amaya Brenda, Universidad de Sonora
Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California

ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.


ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.

Leyva Amaya Brenda, Universidad de Sonora. Ramírez Gómez Juan Bernardo, Universidad Autónoma de Baja California. Torres Sandoval Diana Karina, Universidad Autónoma de Baja California. Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los satélites pequeños se clasifican en base a su peso y dimensiones como: minisatélite (100-500 kg), microsatélite (10-100 kg), nanosatélite (1-10 kg) y pico-satélite (0.1-1 kg); siendo estos últimos de importante desarrollo en instituciones educativas debido a que sus características de tamaño y peso hacen de ellos una opción más económica (Gutierrez, 2015). Actualmente la tendencia de construcción de los satélites pequeños se ha vuelto más atractivo debido a los menores costos y cortos tiempos de desarrollo y son comúnmente desarrollados en laboratorios universitarios (Choque, 2019). En el marco del verano de investigación científica se aborda esta temática con el fin de comprender el funcionamiento de un nano-satélite, con énfasis en la determinación de la orientación.



METODOLOGÍA

En este proyecto trabajamos con una tarjeta Beaglebone Black, la cual es una plataforma de desarrollo de bajo costo para desarrolladores y aficionados (BeagleBoard.org - black, s.f.). Para poder establecer la conexión entre la computadora y la Beaglebone Black, se conecta la Beaglebone Black a la computadora por medio de un cable USB tipo-A a USB tipo-B.  Posteriormente comprobamos si la conexión se ha realizado de forma exitosa accediendo al servidor web en la Beaglebone dando clic en el archivo htm llamado START que se encuentra en los archivos de la carpeta Getting Started.  El paso siguiente consisten en actualizar el sistema operativo, donde la imagen más reciente se descarga en la página oficial (BeagleBoard.org - latest-images, s.f.). Como la memoria flash de la Beaglebone Black es de 4Gb, se utiliza una microSD de 8Gb como unidad de arranque para tener el espacio suficiente para instalar lo requerido. La computadora Beaglebone Black puede ser controlada por medio de instrucciones a través de una  terminal de tipo linux. En Windows, se requiere de un programa especial que permita abrir un canal de comunicación SSH (o Secure Socket Shell) con un cable USB-microUSB (de laptop a Beaglebone Black). Para expandir la memoria de la computadora Beaglebone Black y efectuar actualizaciones, se necesita conexión a internet. Basta con conectar la computadora con un cable ethernet. Es importante cerciorarse que se cuenta con conectividad a internet para evitar problemas futuros.  La memoria total disponible está limitada por la capacidad interna de la computadora. Para hacer uso del espacio disponible en la memoria microSD, basta con introducir un comando de expansión de memoria en la terminal. Además, existen comandos que se utilizan para instalar todas las actualizaciones disponibles para el sistema operativo, estos se utilizan con el fin de un mejor desempeño de la computadora (Beagleboard:BeagleBoneBlack Debian - eLinux.org., s.f.).  Otra manera de interactuar con la computadora Beaglebone Black es por medio del ambiente gráfico incorporado. Para esto es necesario un programa de tipo VNC (Virtual Network Computer) y configurar la Beaglebone Black por medio de la terminal. Una vez que el programa está instalado, en la terminal (por medio de código) se instala el programa en la Beaglebone Black y se crea una contraseña. Posteriormente, se inicia el programa (en la beaglebone y en Windows). Ahora se puede interactuar con la Beaglebone Black de manera gráfica, e incluso se puede utilizar la terminal desde ahí.  El sensor utilizado para la determinación de la orientación es un Sparkfun Razor IMU con 9 grados de libertad. El primer paso en el manejo de este sensor es establecer la conexión del hardware con la microcomputadora BeagleBone Black. Una vez establecida esta conexión se procede a realizar escribir un código breve cuya función es la lectura de los datos crudos del sensor. Se optó por utilizar una herramienta desarrollada previamente en Python (McWhorter, 2015) . Este proceso sirve como confirmación de que se ha establecido la comunicación con el sensor correctamente y existe una correcta respuesta al movimiento.  A continuación, es importante reinterpretar esta información que se obtiene de manera que se pueda correr un programa que muestre los ángulos yaw, pitch y roll, también en tiempo real. Con el fin de implementar esto, fue necesario consultar las definiciones de dichos ángulos en base a los datos crudos que envía el sensor. El programa creado es una modificación del primer código utilizado para visualizar los datos crudos y permite visualizar en pantalla, en tiempo real, los ángulos yaw, pitch y roll del sensor con respuesta adecuada al movimiento. Este era el objetivo principal del proyecto por lo cual, a pesar de las dificultades técnicas experimentadas, se considera que se logró el objetivo.


CONCLUSIONES

Se adquirieron conocimientos sobre la configuración del hardware de la Beaglebone Black. Además, la estancia de investigación nos dió la oportunidad de trabajar con un sensor de medición inercial. Esta experiencia será de utilidad para aplicarla en actividades futuras. En la realización de este proyecto se pudo observar el valor del trabajo en equipo y la capacidad de encontrar recursos en línea para el desarrollo del mismo. Se considera que el objetivo propuesto se alcanzó, a pesar de las dificultades. Es importante mencionar que fue necesario ajustar el plan de trabajo para adaptarlo mejor a los recursos, tanto materiales como de tiempo, disponibles para su realización.  Referencias: Gutierrez Medina, A. (2015). Desarrollo de un entrenador experimental con dos ruedas de reacción para un CubeSat educativo (Tesis de maestría). Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California. Choque Yanarico, H. (2019). CubeSat Educativo. Universidad Católica Boliviana San Pablo. La Paz, Bolivia. McWhorter, Paul. (2015). Beaglebone Black GPS LESSON 1: Hooking Up the Adafruit Ultimate GPS | Technology Tutorials. Recuperado: 30/07/2019, de:  http://www.toptechboy.com/tutorial/beaglebone-black-gps-lesson-1-hooking-up-the-adafruit-ultimate-gps/ Beagleboard:BeagleBoneBlack Debian - eLinux.org. (s.f.). Recuperado: 30/07/2019, de: https://elinux.org/Beagleboard:BeagleBoneBlack_Debian  BeagleBoard.org - black. (s.f.). Recuperado:  30/07/2019, de: https://beagleboard.org/black BeagleBoard.org-latest-images. (s.f.). Recuperado: 29/07/2019, de: https://beagleboard.org/latest-images
Licona Flores Cassandra, Instituto Tecnológico de Pachuca
Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.


CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.

Huerta Duran Elia, Benemérita Universidad Autónoma de Puebla. Licona Flores Cassandra, Instituto Tecnológico de Pachuca. Muñoz Granados Luis Daniel, Instituto Politécnico Nacional. Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los factores principales de crisis urbana de nuestros días tiene que ver con la disposición de agua para la vida diaria en las viviendas, comercios, servicios e industrias. Obtener nuevas fuentes de agua se va haciendo cada día más difícil, dado que la población crece y demanda este recurso en las ciudades y en el campo. A nivel urbano, el desperdicio del vital líquido tanto por los consumidores directamente como en las tuberías dañadas y muebles sanitarios ineficientes o en mal estado, representa solamente una parte del problema; la contaminación de las aguas usadas tanto en los domicilios como en procesos industriales es otra, y la falta de opciones para su disposición cierra el círculo. No es suficiente con proveer la cantidad de agua requerida, sino que se debe asegurar su calidad necesaria para los diferentes usos, sin consecuencias adversas para la salud, de manera práctica y económica Es por lo anterior que la Facultad de Ingeniería Química de la BUAP optó por instalar una purificadora y desionizadora cuyo abastecimiento es el agua de la red municipal. El objetivo de ésta es suministrar agua purificada para el consumo de los docentes y personal de la misma facultad y de igual modo, proporcionar agua desionizada como reactivo de las prácticas de docencia. Al mismo tiempo el personal del Laboratorio de Operaciones Unitarias (sede de dicha planta) es quien se encarga de monitorear y asegurar la calidad del agua que se produce



METODOLOGÍA

El trabajo de investigación se ha realizado a través de una estrategia de trabajo consistente en las siguientes acciones: Se analizó la calidad de agua que llega y se trata para distribuirla a las instalaciones de la Facultad de Ingeniería Química (FIQ) de la Benemérita Universidad Autónoma de Puebla, en la colonia Jardínes de San Manuel de la capital poblana, Puebla.  El agua que se recibe se procesa en una planta tratadora de agua, ubicada en el Laboratorio de Operaciones Unitarias (LOU) de la FIQ. El tren de tratamiento  ofrece agua purificada para consumo del personal de la misma Facultad y agua des ionizada apta para emplear como servicio auxiliar en equipos, prácticas de docencia e investigación. El muestreo se realizó en 4 válvulas de la planta de tratamiento, válvula 2 (V2), 10(V10), 21 (V21) Y 31 (V31) . El agua de la válvula 2 proviene de la red municipal de agua potable; la válvula 10 suministra agua que ha pasado por un filtro de arena, un filtro con carbón activado y un sistema suavizador, la válvula 21 surte agua purificada, apta para el consumo humano, ésta se encuentra dentro de una cámara donde se procede al llenado de garrafones por solicitud del personal de la facultad. Por último, la válvula 31 dota de agua des ionizada, adecuada para usar en los equipos de todos los laboratorios de la facultad o como reactivo para prácticas de docencia e investigación en los mismos. El muestreo comenzó el día 1 de enero de 2019 y finalizó el 28 de Junio del mismo año. El tiempo de muestreo corresponde a los períodos Primavera 2019 y Verano 2019 para las actividades en la BUAP,en un horario de 9 a las 12 hrs. Se midieron sólo 4 parámetros físico-químicos: conductividad eléctrica (CE), Total de sólidos disueltos (TDS), potencial de hidrógeno (pH) y dureza. Los dos primeros, CE Y TDS se determinaron mediante un multiparámetro portátil OAKTON. El pH y la dureza fueron determinados con ayuda de kits especiales para ello. Para determinar Conductividad eléctrica y TDS se usó un multiparámetro marca OAKTON. Una vez encendido se introducía el electrodo  en el vaso de precipitado con el agua de interés dentro. Se configuraba el multiparámetro para determinar Conductividad presionando MODE. Para tomar una lectura confiable se esperaba a que la pantalla mostrara el mensaje READY, una vez anotada la lectura se presionaba MODE hasta que en pantalla apareciera como parámetro a medir TDS, nuevamente se esperaba el mensaje  READY para leer la medición de TDS. Entre cada muestreo se enjuagaba el electrodo con agua des ionizada y se dejaba escurrir para asegurar que no quedaran restos de la muestra anterior y que ésta afecte la lectura de la siguiente muestra. Para determinar el pH parte de la muestra se vertía en una columna colorimétrica, a la cual se le añadían 2 gotas de indicador Fenol Rojo, luego se agitaba para homogeneizar y la coloración obtenida se comparaba con la escala de pH que incluía el Kit. Las coloraciones podían indicar que el pH era aproximado a 6.8, 7.2, 7.6, 7.8 y 8.2. El interés de conocer la dureza del agua sólo se centró en la Válvula 10, debido a que era necesario conocer la presencia de sales que se le añaden en el intercambio iónico. Ésta se determinó con un kit en el cuál se aforaba en un recipiente de plástico transparente, se añadían 2 o 3 gotas de solución Buffer y posteriormente se titulaba con EDTA. Si a la primer gota de titulante añadida a la solución muestra se tornaba azul indicaba 0 ppm de dureza y luego, por cada siguiente gota añadida significaba 10 ppm de dureza. En solo una ocasión se tituló agua de la válvula 2, la cual indicó una dureza aproximada de 300 ppm.


CONCLUSIONES

De acuerdo a la NOM-127-SSA1-1994, el agua purificada que sale de la válvula 21 cumple con los límites permisibles de acuerdo a los parametros medidos.  De acuerdo a clasificación de los tipos de agua según ASTM 1193: 2001, se tiene un agua desionizada tipo IV la cual es agua con una conductividad final máxima de 5,0 µS/cm. La cual sirve para la preparación de soluciones y para el lavado o enjuague de cristalería. Con base a la norma anteriormente mencionada el agua desionizada que produce la planta satisface los requerimientos en cuanto a conductividad eléctrica y pH. De acuerdo a lo anterior se considera importante continuar los registros de monitoreo en la bitácora, para detectar posibles irregularidades en el funcionamiento de la planta que puedan afectar la calidad del agua que se produce, además se sugiere una sanitización en periodos de cada tres meses para evitar fluctuaciones en los parámetros de calidad.
Licona Márquez Vanelly, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México

APRENDIZAJE MAQUINAL PARA PROCESAMIENTO DE IMAGENES MEDICAS


APRENDIZAJE MAQUINAL PARA PROCESAMIENTO DE IMAGENES MEDICAS

Licona Márquez Vanelly, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

 Una de las problemáticas que presenta el procesamiento de imágenes médicas es la dificultad que existe a la hora de generar información válida para ser procesada, pues poseen gran cantidad de ruido y una enorme variabilidad en sus propiedades. En el presente proyecto se realiza una fase de segmentación mediante Modelos de contornos activos (Snake) con la implementación del seno, coseno y seno más coseno, realizada en el software de Matlab. Cuenta con distintas finalidades entre ellas está la precisión y delineación de diversas formas, las cuales ayudaran a reducir errores en la segmentación y obtener mejores resultados.



METODOLOGÍA

Para el proyecto de Aprendizaje Maquinal para Procesamiento de Imágenes Médicas, se trabajó con imágenes de fetos y con el video del corazón de una rata. El algoritmo se realizó con el Modelo de contornos activos (Snake) en el cual se implementó las funciones de seno, coseno y seno más coseno. En el primer algoritmo se utilizó dos imágenes diferentes, con la finalidad de realizar la deformarmacion sobre la imagen a partir de una forma inicial con el resultado de delimitar las regiones y así obtener el contorno final. Posteriormente se le implemento las funciones ya mencionadas en el código, las cuales obtienen el valor de las funciones trigonométricas y se traslada a una posición correspondiente en el primer contorno final de Snake, el resultado es un nuevo contorno que será la forma inicial para segmentar, finalmente se realizó el código del video en Matlab para poder segmentar por cada cuadro del video, donde se anexa el primer código de Snake con las funciones trigonométricas  y se realizan n iteraciones de veces en los cuadros del video obteniendo segmentaciones y valores diferentes de cada contorno iterado en cada uno de ellos, cabe mencionar que para las funciones trigonometricas se trabaja con amplitud de 1 y con una frecuencia de 1-10 Hz estas pueden ser modificadas en el código.       


CONCLUSIONES

Con el uso de contornos activos se logró lá deformacional de lá Snake hasta el momento en que converge. Al incluir las funciones de senos, coseno y seno más coseno, se delimitaron las regiones de interes en la imagen logrando una curvatura suave, de igual forma se obtuvo una mayor precisión en el área segmentada. Finalmente al realizar las iteraciones de la imagen y con los valores guardados en la matriz 4D se observó que por cada iteración los valores van cambiando lo que quiere decir que si se tiene una frecuencia con iteración 10 y para el video, 5 iteraciones, el resultado es 50 datos en 5 cuadros del video. A grandes rasgos, el contorno inicial por cada iteración, su segmentación varia.
Limon Hernandez Martin Alejandro, Universidad de Guadalajara
Asesor: C. Katherine Isabel Hernández Rodriguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)

PROCESO DE RECICLAJE DEL POLíMERO PET PARA DISEñO Y CONSTRUCCIóN DE UNA CARCASA DE UN COMPUTADOR VISUALIZANDO UNA IDEA DE NEGOCIO.


PROCESO DE RECICLAJE DEL POLíMERO PET PARA DISEñO Y CONSTRUCCIóN DE UNA CARCASA DE UN COMPUTADOR VISUALIZANDO UNA IDEA DE NEGOCIO.

Limon Hernandez Martin Alejandro, Universidad de Guadalajara. Valdes Hurtado Valdes Hurtado Hector, Universidad Autónoma del Estado de México. Asesor: C. Katherine Isabel Hernández Rodriguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los residuos de aparatos eléctricos y electrónicos (R.A.E.E.) son cada vez más numerosos en nuestras vidas: electrodomésticos, equipos de informática y telecomunicaciones entre otros, que a pesar de los esfuerzos realizados por los gobiernos se mantienen las practicas inadecuados de recolección, disposición y reciclaje sobre todo en el sector industrial, o planteles educativos siendo estos los mayores consumidores de estos equipos generando residuos con gran impacto negativo al ambiente. En 2016, el mundo generó 44,7 millones de toneladas métricas (Mt) de RAEE, de los cuales:  Solo el 20% (8,9 Mt) se recicló a través de los canales apropiados.  El 4% (1,7 Mt) de desechos electrónicos en los países de mayores ingresos se recoge.  Pero se desconoce el destino del 76% (34,1 Mt) de los desechos electrónicos; es probable que vayan a vertederos, o bien sean comercializados o reciclados en condiciones inferiores. Se espera que la cantidad de desechos electrónicos aumente, a nivel global, a 52,2 millones de toneladas métricas, o 6,8 kg / habitante, para el año 2021, dicho por Alexandra Farbiarz Mas, Comunicóloga, especializada en Biotecnología y Medio Ambiente.  



METODOLOGÍA

A partir de los estudios mostrados en diversos artículos sobre reciclaje de platicos, tanto polímeros del petróleo como bioplásticos y plásticos biodegrádales, se analizó y buscó la mezcla del polímetro PET adicionado con aditivos metálicos con el objetivo de encontrar los porcentajes de masa de cada componente de la mezcla que fuera el de mayor eficiencia de sus propiedades mecánicas en el uso y fabricación de una carcasa para computador.  El diseño del proceso de reciclaje realizado desde de su recuperación, reducción, limpieza hasta la obtención de pellets óptimos para su extrusión, inyección en moldes o impresión 3D con ayuda de sistemas automáticos y sistemas CAD CAM, se realizo con el trabajo de modélalo de todos los elementos y ensambles necesarios para la fabricación de la maquinaria con cualidades de sencillez, versatilidad y economía para este proceso. Para crear una idea de negocios e implementarla en la carcasa para computador se investigaron varios pasos a seguir: Se inició con los requisitos que la carcasa debe cumplir para que sea viable y se tendió a analizar si las características de esta carcasa solucionaban un problema no resuelto o que impacto tenia, también se analizó la rentabilidad y también si la carcasa es innovadora. Se analizó la viabilidad y la puesta en marcha del producto, fue aquí donde se hizo una búsqueda de mercado, los posibles clientes y propuesta de valor. Por último, se analizó la competencia y fue ahí donde nos dimos cuenta que la carcasa para computadores es viable, se denotó que empresas tecnológicas han incursionado en el desarrollo de proyectos de reciclaje para portátiles nuevos, sin embargo, aún es una industria con baja competencia.  


CONCLUSIONES

Hector Valdes Hurtado: El diseño de producto y diseño de proceso de reciclaje tiene objetivos ambiciosos y es el deseo de los participantes continuar desarrollando el proyecto con el fin de encontrar los factores óptimos viables para su implementación al mercado como proyecto de innovación al terminar el periodo del programa de investigación Delfín 2019. La participación en el verano de investigación dentro del programa Delfín ha tenido una meta muy importante que es engrandecer la pasión e interés de nuevos investigadores y divulgadores que serán los futuros desarrolladores de conocimientos y técnicas. Este practica es una herramienta para generar oportunidades personales académicas y laborales profesionales con el objetivo en mente de realizar un posgrado en alguna institución extranjera.    Martin Alejando Limón Hernández: En el transcurso de esta investigación trabajé a la par con un ingeniero mecánico quien se encargó de estudiar las propiedades mecánicas del PET a partir de adición de aditivos para su mejoramiento, así mismo yo estuve analizando los posibles mercados y la competencia de la carcasa para computador y de esta forma crear una idea de negocios y posteriormente darle continuidad al producto. Es fundamental destacar la importancia que debe existir entre profesiones completamente diferentes compartiendo conocimientos para afinar y hacer viable una idea. Hoy en día trabajar en proyectos para la reducción de contaminantes es sumamente importante ya que es un problema global, lo importante es empezar antes de que sea demasiado tarde y este proyecto es una semilla factible porque su materia prima proviene de la basura y de esta forma sustenta una necesidad tecnológica que tiene que crecer y evolucionar para bien con la reducción de PET y creación de nuevos productos en el futuro.
Lira Torres Erick, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA


SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA

Lira Torres Erick, Instituto Tecnológico Superior de Guanajuato. Lona Rodríguez Francisco Javier, Instituto Tecnológico Superior de Guanajuato. Suárez Cisneros José Miguel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La vida de anaquel nos ayuda a saber que tan factible es el tener un producto a la venta, esto se puede determinar con la ayuda de ciertos algoritmos aplicados en la programación para obtener la pigmentación de una muestra de dicho producto y de esta manera determinar su vida de anaquel.



METODOLOGÍA

Con el programa llamado AutoCAD se modelo una cabina fotográfica de acuerdo a los parámetros requeridos por el proyecto, el equipo se encargó de ensamblar la cabina así como los demás elementos necesarios para crear el ambiente óptimo para la captura de las imágenes requeridas de cada producto para obtener un muestreo aceptable y de esta manera poder obtener datos concretos para determinar su vida de anaquel, aunado a esto se realizó un estudio del manejo del lenguaje de programación llamado Python para la correcta ampliación de los algoritmos necesarios para la clasificación de dichos datos obtenidos del muestreo, así como el desarrollo de una parte grafica desarrollada en el programa Visual.net todo esto para mejorar la interacción del usuario con el programa Una vez obtenidos grupos de muestras (por medio de imágenes) pertenecientes a distintos tiempos de vida de anaquel, se procedió a la clasificación por medio de los algoritmos de Machine Learning NaïveBayes y KNN (K-Nearest Neighbours) esto con la finalidad de definir los rangos de vida de los productos, para posteriormente clasificar las nuevas muestras cuya vida de anaquel sea desconocida, y una vez más usando los algoritmos, determinar a qué rango pertenecen las nuevas muestras.


CONCLUSIONES

Esta técnica nos permite una mejor gestión durante el almacenamiento de productos, debido que permite predecir con buen grado de exactitud la vida de anaquel que tiene, en este caso un concentrado de fruta. Cabe mencionar que la técnica de procesamiento de imágenes en conjunto con algoritmos de Machine Learning puede ser aplicada en múltiples áreas de la industria, ya que se pueden establecer parámetros que definan cierta característica en un producto y así poderlos clasificarlos de una manera más eficaz.
Lizárraga Lizárraga Diana Lizeth, Universidad Politécnica de Sinaloa
Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

ANÁLISIS DE UN CENTRO DE AYUDA HUMANITARIA: GESTIÓN DE ALMACENAJE Y ÁREAS DE OPORTUNIDAD.


ANÁLISIS DE UN CENTRO DE AYUDA HUMANITARIA: GESTIÓN DE ALMACENAJE Y ÁREAS DE OPORTUNIDAD.

Ibarra Castañeda Paulina Lizbeth, Universidad Politécnica de Sinaloa. Lizárraga Lizárraga Diana Lizeth, Universidad Politécnica de Sinaloa. Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El estudio se enfocó en conocer a detalle el concepto de Logística humanitaria y las problemáticas que adolecen los centros de ayuda humanitaria. Uno de ellos es la falta de organización, administración y distribución de insumos o donaciones; que impiden el control óptimo y correcto de la cadena de ayuda humanitaria. La investigación se situó en un centro ubicado en el sur de Sinaloa.



METODOLOGÍA

Se realizó una investigación de campo, ya que se acudió al centro de ayuda humanitaria para conocer las operaciones. Posteriormente, se realizó un piloto de un código de prioridades para la gestión del almacenamiento de insumos, que pueda favorecer el control de la cadena de valor, en situación de desastres naturales como huracanes. Se detectaron las áreas de oportunidades, sobre todo en la administración de insumos, concretamente el almacenamiento y su distribución. Con base en ello, se elaboró una propuesta de mejora, que incluye el desarrollo de prácticas lean como las 5S, administración visual y distribución de insumos.


CONCLUSIONES

La logística humanitaria se conoce como el proceso de planear, coordinar y ejecutar el plan de contingencia a los necesitados de un desastre natural, ofreciendo servicios médicos y de rescate, además de la distribución y entrega de insumos básicos. Al ser este un tema en desarrollo, se identifica la necesidad de contar con indicadores concretos para realizar un seguimiento y establecer metas cuantitativas. Tal es el caso, del centro de ayuda humanitaria revisado; en el cual se encontró falta de organización, señalizaciones y comunicación. Asimismo, se identificó una infraestructura pobre para atender la demanda del sur de Sinaloa, no solo de la operación cotidiana del mismo, sino en la situación de desastre. En cuanto al código de prioridades revisado, se detectan áreas de ajuste, sobre todo por la falta de capacidad de almacenaje y equipos para almacenaje. Como conclusión, se obtiene que la administración visual y lean favorece la operación de una cadena de ayuda humanitaria. Sin embargo, el personal es un eje clave para lograr el objetivo de la cadena de valor, que se traduce como la ayuda oportuna y óptima a las personas que lo necesitan, al menor costo y tiempo posible.
Lizarraga Tisnado Olga Karely, Universidad Politécnica de Sinaloa
Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

CALIDAD SEIS SIGMA EN PROCESOS PRODUCTIVOS: MEJORES PRáCTICAS IMPLEMENTADAS Y áREAS DE OPORTUNIDAD EN EL SUR DE SINALOA.


CALIDAD SEIS SIGMA EN PROCESOS PRODUCTIVOS: MEJORES PRáCTICAS IMPLEMENTADAS Y áREAS DE OPORTUNIDAD EN EL SUR DE SINALOA.

Lizarraga Tisnado Olga Karely, Universidad Politécnica de Sinaloa. Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La problemática de estudio se centró en conocer a detalle la implementación de la metodología DMAIC de la filosofía seis sigma en las empresas del sur de Sinaloa, sus características, sus puntos clave, sus herramientas e impacto de las mejoras desarrolladas a lo largo de las cadenas. Con la intención de conocer las mejores prácticas y áreas de oportunidad, para elaborar un cuadro descriptivo y detectar las necesidades de capacitación, para potencializar su uso como metodología básica de mejora continua en el desarrollo de proyectos. La investigación también incluye un análisis bibliográfico sobre la importancia de la metodología seis sigma en el contexto internacional, nacional, regional y local.



METODOLOGÍA

Se realizó una investigación mixta, del tipo cualitativa y cuantitativa. Ya que se revisaron 40 marcos teóricos, para la obtención de información sobre las ventajas de la metodología seis sigma en la administración de la cadena de valor. Primeramente, se reunió el material bibliográfico, se identificaron los conceptos de interés y se realizó un cuadro de doble entrada para facilitar su comprensión. Asimismo, se elaboró un tablero de registro sobre casos de éxito situados en las empresas del sur de Sinaloa de distintos giros, correspondientes a las años 2015 a 2019. Finalmente, se realizó un análisis sobre los beneficios económicos que ha aportado la implementación de la metodología en las empresas y las áreas de oportunidad para potencializar y difundir su uso en el estado de Sinaloa.


CONCLUSIONES

Se elaboró el cuadro de doble entrada sobre la información bibliográfica de la importancia de la metodología a nivel internacional, nacional y regional. Se obtuvo el análisis de las mejores prácticas realizadas en las empresas del sur de Sinaloa, las herramientas clave y las áreas de oportunidad para potencializar su uso y difusión. Como trabajo futuro se tiene el compromiso de culminar el artículo científico para publicarlo, con la intención de dar a conocer los proyectos que el sur de Sinaloa está generando en materia de mejora continua. Como conclusión se obtiene que las herramientas de seis sigma, ayudan a evaluar el estado actual de los procesos, identificar áreas de oportunidad y facilitar la implementación de acciones preventivas y/o correctivas, con impacto económico medible en beneficio de la administración de la cadena. También se reconoce que, la cultura de la organización influye fuertemente en el desarrollo de los proyectos seis sigma, ya que es un trabajo de equipo y solo con el seguimiento constante por parte del Champion de la empresa se lograrán mejoras altamente productivas.
Llamas Lara Carlos Brian, Universidad Tecnológica de Nayarit
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

NEUROTECNOLOGÍA E INTERFACES CEREBRO-COMPUTADORA: IMPLEMENTACIÓN


NEUROTECNOLOGÍA E INTERFACES CEREBRO-COMPUTADORA: IMPLEMENTACIÓN

Llamas Lara Carlos Brian, Universidad Tecnológica de Nayarit. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

  Las señales electroencefalográficas (EEG), asociadas a diferentes tareas mentales, podrian ser un mecanismo de interacción con el entorno para personas con deficiencias en sus funciones motoras, el centrarse en tareas mentales puede usarse para implementar estos sistemas.   En la actualidad se busca información suficiente de las señales cerebrales para el análisis e identificación de estados cognitivos y la obtención de un algoritmo para lograr un mejor rendimiento y operación de las BCI.   Al implementar una BCI y obtener las señales cerebrales durante la realización de tareas mentales, con el fin de analizar a través de distintas plataformas como MATLAB los datos obtenidos en busca de la detección de estados cognitivos.



METODOLOGÍA

  Para la obtecion de datos ,se implemento el proyecto con participantes que estaban realizando estancia de investigacion,dentro del proyecto se busca estimular la atencion,memoria y concentracion gracias a una secuencia de imagenes.   El proyecto tiene una duracion promedio entre 2 a 3 horas y consta de 10 runs con 12 trials cada uno. Las imagenes son unas cuadriculas de 3x3 dentro de las cuales de visualizan 4 numeros, ninguno se repite, son elegidos al azar y en diferentes ubicaciones. Las preguntas que se le realizan al participante son cuadriculas de 3x3 donde se muestra una posicion y se le da a elegir entre dos numero, eligiendo asi el numero correcto anteriormente visto en la imagen que memorizo) El participante debe responder con ayuda de dos push bottoms uno para cada mano y dichas respuestas de muestran una en cada lado.   Lo necesario para llevar acabo cada experimento es lo siguiente: Python BCI MATLAB Software g.tec G-HIamp G-Stimbox Gorro de electrodos con 64 canales Laptop Monitor  Gel conductor Jeringas 2 Push bottom Cable RCA Cable Usb a micro Usb Cable Usb para hi-amp   Para comenzar,la atencion se estimula al momento en el cual se empiezan a mostrar las imagenes del experimento al participante (esperando para comenzar, preparado, etc), tambien se puede encontrar al momento que el participante requiere responder, ya que se tiene un tiempo determinado para responder cada pregunta (2 sg cada pregunta) y son 4 preguntas por imagen.   La memoria se encuentra al momento en el cual se le muestran las imagenes al participantes,ya que primero se le muestra por 3 sg y luego se le muestra una pantalla en blanco (3 sg) durante la cual el debe recordar la imagen anterior para despues poder responder correctamente las preguntas.   Por ultimo la concentracion se obtiene cuando el participante empieza a poner demasiado interes en alguna tarea, como podria ser: responder,visualizar etc.   Los datos de los participantes son guardados para despues poder ser visualizados y analizados en matlab, con ayuda de la plataforma de puede realizar graficas,calculos y operaciones, ya que se pueden realizar infimidad de operaciones por cada electrodo o por ambos juntos, esto en busca de patrones.


CONCLUSIONES

  Durante la estancia se logró adquirir conocimientos tanto teoricos como practicos, con el objetivo de llevar acabo el experimento y obtener datos, por otro lado tambien se consiguieron conocimientos de lenguajes de programacion los cuales ayudaron a realizar una pequeña codificacion en matlab para el analisis y calculos, sin embargo, al ser un extenso trabajo, aún se encuentra en busqueda de mas informacion sobre patrones para poder lograr un futuro algortimo y la optimizacion de los codigos utilizados.
Loeza Perez Luis Fernando, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León

HEURÍSTICA GREEDY PARA RESOLVER EL PROBLEMA DE INSPECCIÓN DE AUTOBUSES INTERURBANOS


HEURÍSTICA GREEDY PARA RESOLVER EL PROBLEMA DE INSPECCIÓN DE AUTOBUSES INTERURBANOS

Loeza Perez Luis Fernando, Benemérita Universidad Autónoma de Puebla. Londoño Barreto Sara Lucía, Pontificia Universidad Javeriana (Colombia). Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las empresas de transporte público interurbano, en Latinoamérica y probablemente en otros países en vía de desarrollo,  presentan un déficit en los montos de efectivo que se recaudan en la venta de boletos a pasajeros que suben a los autobuses en paradas donde no existen mecanismos de expedición de boletos electrónicos.  Es por esto, que algunas organizaciones mexicanas han implementado inspecciones en las rutas, con el fin de mitigar o incluso resolver este problema; se identifican los tramos más críticos (es decir, donde se presenta un baja recaudación respecto a los montos históricos) y se asignan inspectores que se suben a los autobuses en estos tramos, para verificar la cantidad de pasajeros viajando en el autobús y revisar sus tickets. Por lo tanto, las empresas buscan hacer una planeación óptima del recorrido que deben hacer los inspectores en su jornada laboral (12 horas), de modo que se verifiquen la mayor cantidad de rutas críticas  y puedan volver  su punto de partida en este periodo de tiempo.  Este problema de inspección no ha sido formulado anteriormente en la literatura científica publicada sobre este tema y afines. Hasta el momento, sólo se ha catalogado como un problema complejo de ruteo de arcos. Adicionalmente, este trabajo se enmarca en una investigación de tesis de maestría, y su propósito es desarrollar un método de solución heurístico simple (una heurística Greedy) y estudiar como influyen los principales parámetros  del problema en el proceso de solución (tiempo de solución, calidad de la solución, etc.).



METODOLOGÍA

Como se ha mencionado anteriormente, el objetivo es estudiar cuáles de las características de las instancias que entran al problema generan un mayor impacto en la complejidad del mismo; es decir, cuáles de los factores inciden directamente en el proceso de solución. Para ello, se plantea un diseño experimento, en dónde se considera lo siguiente: Variables de respuesta: Tiempo computacional, GAP, cumplimiento del horario, máxima criticidad, tomando estas últimas dos como restricciones soft en el modelo matemático. Factores: Distribución de la criticidad, número de nodos, número de corridas, número de inspectores, distribución de los nodos de transfer (aquellos que conectan mas de una ruta) y el número de rutas. Debido al número de factores considerados, se ha determinado que lo mas conveniente es hacer uso de un diseño factorial o factorial fraccionado, de modo que se estudien no sólo la influencia que estos tienen en la solución del problema, sino también, el impacto que tiene la relación entre ellos.  Luego, se procedió a implementar un generador de instancias aleatorias en  R, el cuál tiene como finalidad producir suficientes escenarios en donde los factores varíen. Estas instancias se introducen como parámetros en el algoritmo Greedy implementado en R, quién busca encontrar el recorrido mas crítico para ser recorrido por cada inspector intentando en lo posible cumplir con la jornada laboral típica de 12 horas y verificando constantemente que el tiempo restante sea suficiente para regresar al punto de partida. Adicionalmente, busca que no se repitan inspectores en los tramos a inspeccionar y que las soluciones generadas sean factibles. Una vez evaluadas las instancias, se tienen las variables de respuesta, las cuales son necesarias para realizar el análisis exploratorio, en donde se da una mayor idea acerca de los niveles que debe tener cada uno de los factores; es decir, las categorías de cada uno de ellos. En esta etapa, es preciso el uso de herramientas estadísticas básicas tales como gráficos e indicadores. Por último, se generan suficientes instancias, de modo que se cubran todas las posibles combinaciones entre los factores y ahora si proceder a implementar el experimento factorial, el cuál determina si efectivamente estos factores tienen un efecto significativo en las variables de respuesta, y por tanto, en la solución encontrada al problema de inspección.


CONCLUSIONES

Se implentó en R un generador de instancias, el cual tiene algunos parámetros fijos, tales como el número de nodos y el número de inspectores, con el fin de explorar el comportamiento que tienen los otros factores. Adicionalmente, se tiene otro generador completamente aleatorio, en donde cada una de las opciones para los factores se determina siguiendo una distribución aleatoria.  Además, haciendo uso igualmente de R, se programó el algoritmo Greedy, encargado de dar una solución aproximada al modelo optimización planteado en la tesis de maestría. Sin embargo, queda como trabajo futuro en esta investigación el desarrollo del experimento factorial o factorial fraccionado, el cual se sugiere llevar a cabo en R, ya que cuenta con funciones especificas para las pruebas de hipótesis y verificación de supuestos.
Lona Ramirez Janet Abigail, Instituto Tecnológico Superior de Guanajuato
Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato

APROVECHAMIENTO DE FRIJOL DE SOJA PARA LA PRODUCCIóN Y ANáLISIS DE TOFU


APROVECHAMIENTO DE FRIJOL DE SOJA PARA LA PRODUCCIóN Y ANáLISIS DE TOFU

Granados Arellano Juana Isamar, Instituto Tecnológico Superior de Guanajuato. Lona Ramirez Janet Abigail, Instituto Tecnológico Superior de Guanajuato. Asesor: M.C. Norma Angélica Caudillo Ortega, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Los problemas de salud en la actualidad, ha hecho que incremente la tendencia a llevar una alimentación sana y las dietas alternas surjan con mayor auge en la última década, modificando las necesidades del consumidor. El enfoque hacia este mercado conforman personas con un régimen alimenticio especializado, libre de productos de origen animal o intolerantes a la lactosa. Fomentando el consumo de productos derivados del extracto de soja para el consumo humano en México, ya que es uno de los principales países consumidores de soja, ya que es una excelente fuente de proteína de alta calidad, en países occidentales se ha consumido por siglos y actualmente se utiliza para la elaboración de diversos alimentos, ya que aporta aminoácidos esenciales, isoflavonas, vitaminas, minerales y un alto contenido proteico. Los alimentos elaborados a partir del frijol de soja son no fermentados y generalmente insípidos, como la leche y queso de soja, también llamado Tofu. Considerando el aporte nutrimental de la soja se planteó desarrollar un producto de alta calidad y valor nutritivo, como es el Tofu, con características organolépticas atractivas al consumidor, entre ellas se destaca sabor a chile chipotle.



METODOLOGÍA

En este trabajo se realizo en tres etapas, que incluyen la caracterización por medio de análisis bromatológico, microbiológico y textura del producto. Etapa I. Análisis bromatológico Este análisis se llevo a cabo por triplicado en cada una de las muestras y obteniendo así un porcentaje de humedad del 24%, ceniza 3%, grasa cruda 23% y proteína cruda los cuales aun se están determinando. Etapa II. Análisis microbiológico Este análisis se realizaron tres métodos: para la cuenta de microorganismos aerobios, mohos y levaduras y coliformes totales. Para cada método se utilizó 1 ml de la muestra líquida directa o de la dilución primaria, repitiendo el procedimiento hasta la disolución 10-4, obteniendo un crecimiento ausente en cada uno de los métodos. Etapa III. Análisis de textura El análisis de textura se realizo para evaluar la calidad del producto ya que nos sirve para monitorear cambios en los atributos que afectan la vida de anaquel, dicho análisis se realizo mediante el texturometro midiendo los siguientes atributos: cohesividad, dureza, elasticidad y masticabilidad.


CONCLUSIONES

El presente proyecto surgió generar una alternativa de consumo para personas que optan por una dieta de ausencia de lácteos, que a su vez buscan productos que aporten los mismos nutrientes. Se realizaron se llevo a cabo en tres etapas que incluyen el análisis bromatológico, microbiológico y de textura con el fin de obtener nuestro producto final. El análisis bromatológico muestra resultados verídicos y un alimento con un alto valor nutricional. El análisis microbiologico muestra que el producto alimenticio es libre de microorganismos patógenos, por lo tanto, es un alimento inocuo para el consumidor. Por último en el análisis de textura obtenemos como resultado un alimento de calidad según los atributos evaluados.    
Lona Rodríguez Francisco Javier, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA


SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA

Lira Torres Erick, Instituto Tecnológico Superior de Guanajuato. Lona Rodríguez Francisco Javier, Instituto Tecnológico Superior de Guanajuato. Suárez Cisneros José Miguel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La vida de anaquel nos ayuda a saber que tan factible es el tener un producto a la venta, esto se puede determinar con la ayuda de ciertos algoritmos aplicados en la programación para obtener la pigmentación de una muestra de dicho producto y de esta manera determinar su vida de anaquel.



METODOLOGÍA

Con el programa llamado AutoCAD se modelo una cabina fotográfica de acuerdo a los parámetros requeridos por el proyecto, el equipo se encargó de ensamblar la cabina así como los demás elementos necesarios para crear el ambiente óptimo para la captura de las imágenes requeridas de cada producto para obtener un muestreo aceptable y de esta manera poder obtener datos concretos para determinar su vida de anaquel, aunado a esto se realizó un estudio del manejo del lenguaje de programación llamado Python para la correcta ampliación de los algoritmos necesarios para la clasificación de dichos datos obtenidos del muestreo, así como el desarrollo de una parte grafica desarrollada en el programa Visual.net todo esto para mejorar la interacción del usuario con el programa Una vez obtenidos grupos de muestras (por medio de imágenes) pertenecientes a distintos tiempos de vida de anaquel, se procedió a la clasificación por medio de los algoritmos de Machine Learning NaïveBayes y KNN (K-Nearest Neighbours) esto con la finalidad de definir los rangos de vida de los productos, para posteriormente clasificar las nuevas muestras cuya vida de anaquel sea desconocida, y una vez más usando los algoritmos, determinar a qué rango pertenecen las nuevas muestras.


CONCLUSIONES

Esta técnica nos permite una mejor gestión durante el almacenamiento de productos, debido que permite predecir con buen grado de exactitud la vida de anaquel que tiene, en este caso un concentrado de fruta. Cabe mencionar que la técnica de procesamiento de imágenes en conjunto con algoritmos de Machine Learning puede ser aplicada en múltiples áreas de la industria, ya que se pueden establecer parámetros que definan cierta característica en un producto y así poderlos clasificarlos de una manera más eficaz.
Londoño Barreto Sara Lucía, Pontificia Universidad Javeriana (Colombia)
Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León

HEURÍSTICA GREEDY PARA RESOLVER EL PROBLEMA DE INSPECCIÓN DE AUTOBUSES INTERURBANOS


HEURÍSTICA GREEDY PARA RESOLVER EL PROBLEMA DE INSPECCIÓN DE AUTOBUSES INTERURBANOS

Loeza Perez Luis Fernando, Benemérita Universidad Autónoma de Puebla. Londoño Barreto Sara Lucía, Pontificia Universidad Javeriana (Colombia). Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Las empresas de transporte público interurbano, en Latinoamérica y probablemente en otros países en vía de desarrollo,  presentan un déficit en los montos de efectivo que se recaudan en la venta de boletos a pasajeros que suben a los autobuses en paradas donde no existen mecanismos de expedición de boletos electrónicos.  Es por esto, que algunas organizaciones mexicanas han implementado inspecciones en las rutas, con el fin de mitigar o incluso resolver este problema; se identifican los tramos más críticos (es decir, donde se presenta un baja recaudación respecto a los montos históricos) y se asignan inspectores que se suben a los autobuses en estos tramos, para verificar la cantidad de pasajeros viajando en el autobús y revisar sus tickets. Por lo tanto, las empresas buscan hacer una planeación óptima del recorrido que deben hacer los inspectores en su jornada laboral (12 horas), de modo que se verifiquen la mayor cantidad de rutas críticas  y puedan volver  su punto de partida en este periodo de tiempo.  Este problema de inspección no ha sido formulado anteriormente en la literatura científica publicada sobre este tema y afines. Hasta el momento, sólo se ha catalogado como un problema complejo de ruteo de arcos. Adicionalmente, este trabajo se enmarca en una investigación de tesis de maestría, y su propósito es desarrollar un método de solución heurístico simple (una heurística Greedy) y estudiar como influyen los principales parámetros  del problema en el proceso de solución (tiempo de solución, calidad de la solución, etc.).



METODOLOGÍA

Como se ha mencionado anteriormente, el objetivo es estudiar cuáles de las características de las instancias que entran al problema generan un mayor impacto en la complejidad del mismo; es decir, cuáles de los factores inciden directamente en el proceso de solución. Para ello, se plantea un diseño experimento, en dónde se considera lo siguiente: Variables de respuesta: Tiempo computacional, GAP, cumplimiento del horario, máxima criticidad, tomando estas últimas dos como restricciones soft en el modelo matemático. Factores: Distribución de la criticidad, número de nodos, número de corridas, número de inspectores, distribución de los nodos de transfer (aquellos que conectan mas de una ruta) y el número de rutas. Debido al número de factores considerados, se ha determinado que lo mas conveniente es hacer uso de un diseño factorial o factorial fraccionado, de modo que se estudien no sólo la influencia que estos tienen en la solución del problema, sino también, el impacto que tiene la relación entre ellos.  Luego, se procedió a implementar un generador de instancias aleatorias en  R, el cuál tiene como finalidad producir suficientes escenarios en donde los factores varíen. Estas instancias se introducen como parámetros en el algoritmo Greedy implementado en R, quién busca encontrar el recorrido mas crítico para ser recorrido por cada inspector intentando en lo posible cumplir con la jornada laboral típica de 12 horas y verificando constantemente que el tiempo restante sea suficiente para regresar al punto de partida. Adicionalmente, busca que no se repitan inspectores en los tramos a inspeccionar y que las soluciones generadas sean factibles. Una vez evaluadas las instancias, se tienen las variables de respuesta, las cuales son necesarias para realizar el análisis exploratorio, en donde se da una mayor idea acerca de los niveles que debe tener cada uno de los factores; es decir, las categorías de cada uno de ellos. En esta etapa, es preciso el uso de herramientas estadísticas básicas tales como gráficos e indicadores. Por último, se generan suficientes instancias, de modo que se cubran todas las posibles combinaciones entre los factores y ahora si proceder a implementar el experimento factorial, el cuál determina si efectivamente estos factores tienen un efecto significativo en las variables de respuesta, y por tanto, en la solución encontrada al problema de inspección.


CONCLUSIONES

Se implentó en R un generador de instancias, el cual tiene algunos parámetros fijos, tales como el número de nodos y el número de inspectores, con el fin de explorar el comportamiento que tienen los otros factores. Adicionalmente, se tiene otro generador completamente aleatorio, en donde cada una de las opciones para los factores se determina siguiendo una distribución aleatoria.  Además, haciendo uso igualmente de R, se programó el algoritmo Greedy, encargado de dar una solución aproximada al modelo optimización planteado en la tesis de maestría. Sin embargo, queda como trabajo futuro en esta investigación el desarrollo del experimento factorial o factorial fraccionado, el cual se sugiere llevar a cabo en R, ya que cuenta con funciones especificas para las pruebas de hipótesis y verificación de supuestos.
López Arana Carlos Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Ruben Herrera Galicia, Instituto Tecnológico de Tuxtla Gutiérrez

SMART HOME MONITOREADA Y CONTROLADA MEDIANTE LA COMUNICACIóN ENTRE RASPBERRY PI 3 Y ARDUINO ETHERNET, EMPLEANDO PáGINAS WEB - BASES DE DATOS Y SMART PLUGS


SMART HOME MONITOREADA Y CONTROLADA MEDIANTE LA COMUNICACIóN ENTRE RASPBERRY PI 3 Y ARDUINO ETHERNET, EMPLEANDO PáGINAS WEB - BASES DE DATOS Y SMART PLUGS

López Arana Carlos Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Ruben Herrera Galicia, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La concepción moderna de una casa inteligente es aquella que utiliza la tecnología para hacer uso racional y eficiente de la energía eléctrica, sin comprometer las funciones que permiten a los habitantes del hogar disfrutar de comodidades. A nivel mundial crece el número de personas interesadas en desarrollar este tipo de tecnología para aplicación en la industria Smart Industry – Smart Manufactoring, los edificios Smart Building, en las redes de suministro Smart Energy - Smart Grid  y en las viviendas Smart Home .  La presencia de dispositivos inteligentes, conectados entre sí, significa que pueden ser activados o desactivados automáticamente dependiendo de su uso real. También, los accesorios inteligentes se pueden encender o apagar a control remoto a través de una aplicación específica, cuando el usuario no está en casa ó cuando está en otra habitación. La Compañía de Electricidad cobra por kW/hora de potencia consumida. Así que, al controlar el consumo de un dispositivo, se tiene un mejor aprovechamiento, que se traduce en ahorro de energía eléctrica y ahorro de dinero. Existen dispositivos conocidos como Smart Plug están a la venta y su precio varía entre 25 y 50 USD según sus aplicaciones. Estos pueden ser controlados por comandos de voz o por las aplicaciones ofrecidas por los fabricantes. Su principal objetivo es encender y apagar los dispositivos electrodomésticos ya sea programando un horario de encendido/apagado, o el apagado automático al no estar en uso. Lo que aquí se propone es desarrollar un prototipo de una Smart Home que incluya Smart plugs propios, que midan y transmitan, en tiempo real, el estado de voltaje y corriente de todos los accesorios y las condiciones en las habitaciones. Con un servidor central que recibe y lee los datos, para adecuar las condiciones y lograr un consumo de potencia optimo; y enviando los datos a una base de datos para su posterior procesamiento y visualización en las páginas web de monitoreo, análisis y control, con lo que se pretende obtener un ahorro en el consumo.



METODOLOGÍA

El nivel más bajo de la arquitectura de una Smart home está constituido por los accesorios eléctricos y electrónicos. A este nivel también se le conoce como capa física. En este proyecto una placa de desarrollo Arduino Ethernet será la encargada de desempeñar las tareas de un toma corriente inteligente Smart Plug. El Arduino medira voltaje, corriente y calculará la potencia consumida por el accesorio. Tambien tendra un display y un teclado y con ello podrá ser programada para conectar - desconectar al accesorio en ciertos horarios. El Arduino controlará la conexión con un relay. Al detectar un mal aprovechamiento de la energía, apagara el dispositivo para evitar que se generen gastos innecesarios. Los datos medidos por la placa Arduino serán recolectados y enviados a una placa de desarrollo Raspberry. La comunicación entre el Arduino y la Raspberry será mediante un router con conexiones ethernet para la transferencia de datos.  La programación de la placa de desarrollo Raspberry incluye dentro de sus funciones una base de datos y un bloque manejador de la base de datos. Cuando la Raspberry recibe los datos de las mediciones, incorpora esos datos a la base de datos. El usuario puede revisar la información almacenada en la base de datos y lo hace a través de la programación incluida en las páginas web. El servidor web, programado en la Raspberry, consta de una página web principal que direcciona al usuario hacia las páginas web. El servidor web incluye  tres páginas web, una para cada actividad: monitoreo, análisis, y control. El usuario puede acceder a las páginas web desde un dispositivo móvil con conexión a internet vía Wi-fi. En la página web de control se generan los comandos para las acciones deseadas a ejecutar en  la Smart home: manipulacion de luces, lectura de la temperatura, encendido/apagado de dispositivos. Estos comandos pasan por la estación de control en la Raspberry y se almacena una copia de ellos en la base de datos, para posteriormente ser consultados en las paginas web de monitoreo y control. La página de monitoreo es una herramienta para observar el estado de todos los accesorios integrados en la Smart home, si están encendidos o apagados, si están funcionando correctamente, y se muestran historiales de consumo en tiempo real. En la página de análisis, se muestran historiales de consumo por periodos de tiempo para cada Smart Plug y para toda la Smart Home. Los historiales del consumo se generan para un lapso del día, un día completo especifico, una semana completa especifica o para un mes. También se visualiza el estimado de la cantidad a pagar por concepto de potencia consumida durante el periodo específico de un mes.


CONCLUSIONES

Este proyecto surge a partir de una revisión bibliográfica de los diferentes paradigmas y conceptos que aparecen en la literatura anglosajona y que incluyen el prefijo inteligente Smart.  La idea de una Smart home no es nueva, y se pueden notar en su historia diferentes transformaciones. El paradigma actual de una Smart Home va más allá de una casa inteligente convencional, y esto se debe a la inclusión del internet de las cosas, la computación en la nube Cloud Computing y la computación en la niebla Fog Computing. La inclusión de estos paradigmas en una Smart Home hace de ella un proyecto mucho más ambicioso que las casas inteligentes convencionales. Desde la inclusión de bases de datos y páginas web de monitoreo, análisis y control, hasta la inclusión de un Smart plug, fueron surgiendo  ideas hasta llegar a tener la propuesta final aquí presentada. Si bien, este proyecto requiere de tiempo para lograr los resultados esperados, se logró diseñar en tiempo y forma la arquitectura completa que será la base para el desarrollo óptimo del mismo. En cuanto al ahorro energético que este proyecto puede generar, es necesario hacer las pruebas físicas que en esta estancia no se pudieron realizar. El uso en conjunto de Raspberry y Arduino es una buena opción para el desarrollo de este proyecto ya que permite abarcar y proporcionar las soluciones que se requieren. Además, las páginas web y la base de datos tienen que ser perfectamente implementadas para cumplir con el objetivo de control y monitoreo de la Smart Home y así, observar la eficiencia real planeada para el sistema.
Lopez Badillo Araceli, Universidad de Guanajuato
Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato

ANÁLISIS DE SISTEMAS DE MUY ALTAS DISIPACIONES DE ENERGÍA


ANÁLISIS DE SISTEMAS DE MUY ALTAS DISIPACIONES DE ENERGÍA

Lopez Badillo Araceli, Universidad de Guanajuato. Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, el uso de dispositivos electrónicos computacionales se ha hecho indispensable en diversas áreas con aplicaciones y necesidades distintas. Hoy en día, se realizan numerosos análisis en el campo de sistemas de disipación energética, tales como análisis numéricos y experimentales, los cuales ayudan a determinar un óptimo sistema de disipación de energía. En este proyecto se realizó un análisis numérico computacional, mediante CFD, de tres configuraciones de disipadores de calor, sometidos a las mismas condiciones termo-hidrodinámicas de operación, esto se realizó con la finalidad de analizar la disipación energética, para ello, se analizaron las temperaturas del fluido y de la base del disipador, así como también las caídas de presión del sistema.



METODOLOGÍA

En este verano de investigación, los tres disipadores de calor propuestos se analizaron de forma numérica, mediante softwares especializados en análisis fluido-dinámico computacional y transferencia de calor. Los tres disipadores se simularon bajo las mismas condiciones de operación, teniendo un flujo másico de entrada de , a la salida del disipador se impuso una condición de presión atmosférica y los tres tuvieron un área cuadrada de transferencia de calor de 37.5 mm por lado, a la cual se le aplicó un flujo de calor de 200 W. Para los disipadores de calor con sumideros, se consideraron semiesferas para la forma geométrica de éstos, con un diámetro de 2 mm y una profundidad de 1 mm.


CONCLUSIONES

Se logró proponer una configuración que contribuya a la disipación de energía, aumentando la transferencia de calor y disminuyendo la caída de presión. Así también, el mallado de la geometría permitió resolver el problema en un menor tiempo. Las configuraciones fueron: (i) disipador sin sumideros, (ii) con 1 sumidero y (iii) con 85 sumideros separados por 2 mm.  El disipador con 1 sumidero se utilizó para analizar y comprender el comportamiento del fluido en un sumidero. El disipador con 85 sumideros obtuvo una temperatura máxima menor que el disipador simple, por lo tanto, disipó más calor. Para trabajos posteriores, se sugiere realizar más análisis en los cuales se varíen parámetros tales como: radios, geometrías, profundidad y separación de los sumideros, y analizar su influencia en la disipación de energía.
Lopez Castrejon Jeanelle, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ESTUDIO TÉRMICO DE UN CALENTADOR SOLAR DE AIRE


ESTUDIO TÉRMICO DE UN CALENTADOR SOLAR DE AIRE

Lopez Castrejon Jeanelle, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En los terrenos del departamento de Agricultura y Ganadería de la Universidad de Sonora, se han desarrollado varios proyectos con tecnología para el aprovechamiento de la energía solar, principalmente la solar térmica. En este sentido, se ha desarrollado un dispositivo para el calentamiento de aire a temperaturas de hasta 90 °C. Con este aire caliente se pueden atender necesidades de calor de proceso como el deshidratado de alimentos, o la climatización de espacios, entre otras aplicaciones. Este calentador solar de aire utiliza la tecnología de tubos evacuados, usados principalmente para el calentamiento de agua.



METODOLOGÍA

Para conocer el rendimiento térmico del calentador solar de aire, se realizaron cálculos a partir de las propiedades físicas y geométricas de los tubos evacuados y por medio de pruebas experimentales en las que se registraron datos de temperatura y flujo masico del aire. Se recolectaron datos mediante un sistema de sensores que contiene el calentador solar los cuales están conectados a un Arduino, esté captura en un programa las temperaturas del aire al momento de entrar y salir del calentador solar. Con los datos obtenidos de la prueba realizada, se obtiene que la eficiencia global del calentador solar fue de 32%, y un valor de calor útil máximo de 120 W, con una radiación solar de 950 W/m2.


CONCLUSIONES

Se puede concluir que las temperaturas a las que puede funcionar el calentador para proporcionar aire caliente son a partir de los 55°C hasta 90°C, para altos flujos y para bajos flujos respectivamente. La eficiencia global del calentador solar de aire fue de 32% con un calor útil máximo de 120 W con una radiación solar de 950 W/m2.
Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Lopez Delgadillo Ricardo, Universidad Autónoma del Estado de México
Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC

DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA: PANEL DE BAHAREQUE METÁLICO (PANEL BAM)


DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA: PANEL DE BAHAREQUE METÁLICO (PANEL BAM)

Lopez Delgadillo Ricardo, Universidad Autónoma del Estado de México. Rodriguez Martinez Blanca Esthela, Universidad Autónoma de Guerrero. Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC



PLANTEAMIENTO DEL PROBLEMA

En la construcción se opta por homogeneizar un método de construcción aplicando materiales pétreos que no se adaptan al tipo de región en la que fueron construidas. El uso de materiales externos a la región, aumenta el costo de la transportación aunado a un gasto energético innecesario y a un aumento de nuestra huella de carbono sobre el planeta, dejando de lado todos los materiales propios de la zona que en ocasiones solo tienen una función de un excedente de la ciudad, por ende estos tienden a convertirse en desechos sin estar teniendo en cuenta que tienen un potencial para aprovechar en la Bioconstrucción. Actualmente un muro de Panel W, Muro de Tabique o Tabla Roca que tiene un grosor considerable despoja espacio habitable en las viviendas, y una termicidad nula, en los cuales se tienden a calentar el elemento constructivo por su composición, que resultan deficientes para regiones con temperaturas altas, y en su caso opuesto también para temperaturas bajas. Debido a que las edificaciones actuales demandan el empleo de prácticas y materiales que de bajo impacto ambiental, se realiza el análisis de Desarrollo Sostenible de un Elemento Constructivo Prefabricado de Tierra Cruda: Panel de Bahareque Metálico (BaM), bajo el estudio de Eficiencia Industrial como criterio de impacto económico.



METODOLOGÍA

Para la creación de un Panel de Bahareque Metálico (BaM) la Arq. Selene Lopez Cameras se inspiró en un sistema estructural de Quincha metálica que es una técnica constructiva creada por el arquitecto Marcelo cortes, que ofrecen sus componentes en la combinación de las características tierra-compresión y ferro-tracción que permiten la asismicidad de la obra de tierra. La propuesta hecha por la Arq. Selene fue a base de un marco de acero tipo vigueta de 3/8, con un arriostre diagonal y otro horizontal del mismo material, con relleno de pajón seco y prensado con malla ciklon, con 2 capas, una primera capa de pajón-arcilla y un revoque fino de arcilla-agua este último aplicado in situ para su acabado final.    Después de un proceso de investigación y pruebas realizadas para determinar qué nuevos componentes se podrán incluir para mejorar la estructura principal del Panel BaM, se desarrolló un Test Carazas que es una prueba que se realiza sobre las arcillas para identificar su comportamiento aplicando diferentes porcentajes de agua, con el fin de comparar resultados entre dos tipos de arcillas; Las arcillas presentes eran una arcilla Montmorillonita y una Arcilla Caolinita, que a través de un estudio de suelos. se determinó que estas eran las arcillas con mayor presencia en la región de Tuxtla Gutiérrez Chiapas. El ensayo permite conocer resultados distintos entre cada arcilla con relación a su modo de aplicación y grado de humedad, puesto que la arcilla tiene la capacidad de actuar distinto permitiendo así una variedad de usos. Al tener un catálogo de opciones sobre los tipos de aplicación, se realizó diferentes tipos de estabilización de las arcillas con fibras naturales; Viruta cernida, y aserrín cernido. Ello con el fin de tener la estabilización correcta para un vertido sobre una superficie vertical que muestre una adherencia resistente. Con apoyo de una fibra natural, se utiliza un relleno de pajón dentro de la estructura ya que agrega al panel mayor adherencia con las capas, y al ser un relleno ligero no aumenta el peso del panel de forma considerable La propuesta de cambio que se hizo fue en mejorar la estabilidad del panel y evitar hundimientos, vibraciones que se generaban debido a los llanos que se encontraban en el panel, al solo tener 2 arriostres uno diagonal que atravesaba toda la estructura de una esquina superior a una inferior, y un arriostre horizontal al medio del panel.  La malla que se utilizó al tener hexágonos espaciosos mejora la adherencia del Pajón, pero genera llanos y poco resistencia a los hundimientos. Al observar estas patologías que presentaba el panel, y determinar cuáles eran los objetivos que se plantean alcanzar, se optó por utilizar una Arcilla Montmorillonita por el hecho de ser nativa de la región, además de ofrecer respuestas favorables a su aplicación  


CONCLUSIONES

A lo largo del verano de investigación se logró adquirir conocimientos sobre la construcción con tierra cruda y sus aplicaciones. El panel BaM aunque es un elemento que retoma los métodos esenciales de la  construcción con tierra, específicamente el bahareque, tiene en su composición innovaciones como lo son; Ser un elemento constructivo Prefabricado El redimensionamiento del panel en su grosor, teniendo un grosor total cuantitativo de 3 cm  Y aquellas características nuevas del sistema que se incorporaron con posterioridad y que se han ido modificando. A través de las investigaciones hechas sobre el Panel BaM se fue modificando en su estructura principal, para adaptarla a medidas estándar que puedan ser comercializadas en un Prefabricado quedando una estructura propuesta por Jóvenes veraniegos 2019. La base del panel es una estructura de vigueta de aluminio de 3/8, formado por un marco rectangular de 2.40 x 0.60 mts con separaciones horizontales a cada 0.40 mts y  6 arriostres diagonales; para facilitar el proceso de instalación del panel in situ, para la parte superior del panel se coloca un riel en el muérete previo a la instalación y en el margen inferior del panel se colocan dos extensores de varilla que sobresalen de los márgenes del marco 10cms para su anclaje a través de soldadura con las varillas en la trabe.  Por mucho tiempo se ha creído que el proceso de innovación es el proceso de avanzar sin dar vuelta atrás, sin embargo  hoy en día se busca la innovación de elementos constructivos prefabricados desde la reinterpretación de los elementos y sistemas vernáculos y así obtener mayores beneficios que los que actualmente ofrecidos por los materiales convencionales.   
López Díaz Victoria, Universidad Autónoma de Occidente
Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente

LOGíSTICA INVERSA EN EMPRESAS DEL SECTOR MANUFACTURERO AGRíCOLA DEL MUNICIPIO DE AHOME. PLANTEAMIENTO DE UN MODELO.


LOGíSTICA INVERSA EN EMPRESAS DEL SECTOR MANUFACTURERO AGRíCOLA DEL MUNICIPIO DE AHOME. PLANTEAMIENTO DE UN MODELO.

Carreón Rodríguez María Isabel, Instituto Tecnológico de Culiacán. López Díaz Victoria, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la principal actividad económica en el estado de Sinaloa es la industria de manufactura agrícola. De acuerdo con información generada por el Sistema de Información Agroalimentaria y Pesquera, organismo dependiente de SAGARPA (ahora SADER), en el año 2017, Sinaloa cultivó 1 millón 149 mil 320 hectáreas, las cuales produjeron 12 millones 165 mil 950 toneladas de alimentos con un valor de producción de 48 mil 448 millones de pesos. A su vez para la producción de estos cultivos se involucró el uso de maquinaria agrícola, la cual al final de su vida útil no se le dio una disposición adecuada, desaprovechando así el valor que se puede recuperar. En consecuencia, se generaron una gran cantidad de residuos los cuales algunas empresas no llevan a cabo acciones para su manejo y control. Por lo que no hay una disposición adecuada de los desechos generados y en la mayoría de los casos tienen como destino final vertederos ocasionando un deterioro al medio ambiente. Por tales razones, es necesario la implementación de un modelo de logística inversa que incorpore a la empresa actividades y procesos sustentables que incluyan el correcto manejo y control de los productos y residuos generados una vez finalizada su vida útil. Se pretende que la implementación de un modelo de logística inversa ayudará a las empresas a realizar correctamente el retorno de los productos y residuos y que a su vez se reduzca el impacto ambiental generado.



METODOLOGÍA

La presente investigación es de carácter teórico, en la que se tomó como referencia artículos e informes de divulgación científica publicados en las bases de datos Ebsco, Redalyc, Scielo, Google Académico y Worldwidescience, así como libros de texto disponibles en la biblioteca de la Universidad Autónoma de Occidente Unidad Regional Los Mochis. El período de tiempo de consulta fue de 2000 a 2019, en los cuales se lograron conseguir 20 artículos relacionados a la logística inversa y su gestión en las empresas de manufactura agrícola. La investigación teórica abarca los temas de logística y logística inversa, los cuales fueron de utilidad para la elaboración de un modelo de logística inversa. Además, se analizó la clasificación de los residuos y su disposición final. La investigación está orientada a las empresas de manufactura agrícola del municipio de Ahome, que según el Directorio Estadístico Nacional de Unidades Económicas (DENUE), se encuentran: Molinos Siglo XX Procesos Industriales Mochis, S.A. de C.V. Fundidora de Los Mochis Industrial Agrícola Industrial Vazquez S.A. de C.V. Iosa de Los Mochis JAR Maquinaria para papas Blanchet Mecanizaciones y Proyectos S.A. de C.V. Reconstrucciones Agrícolas Gaxiola Servicios de Fundición de Los Mochis Taller Agrícola El Carrizo Taller de Torno Agrícola Industrial Díaz Taller Unión de Los Mochis, S.A. de C.V.  


CONCLUSIONES

Actualmente, es innegable la estrecha relación que existe relación entre los procesos de una empresa y el impacto que éstos generan al medio ambiente.  Por tal razón, las empresas a nivel internacional han comenzado a comprometerse directamente como agentes de la sociedad con el cuidado y la preservación del medio ambiente diseñando estrategias, procesos y productos sustentables.  Sin embargo, a nivel nacional, y en el estado de Sinaloa en particular, las empresas aún no se comprometen a llevar a cabo prácticas sustentables, ya sea por no estar informados o por falta de interés en la implementación de la logística inversa. Además, las legislaciones y la normatividad relacionada con la logística inversa en México no exigen a las empresas en general gestionar y controlar su impacto al medio ambiente. El sector con mayor impacto al medio ambiente en el estado de Sinaloa es el de manufactura agrícola y, por tanto, es necesario implementar un modelo de logística inversa que se adapte a las actividades y necesidades de las de forma que se reduzcan los residuos generados de sus procesos. Ante un mercado cada vez más exigente la logística inversa proporciona a las empresas una ventaja competitiva que beneficia no sólo a nivel económico, sino también a nivel social y ambiental. Se pretende que el modelo propuesto sea de utilidad para futuras investigaciones relacionadas y para la implementación y análisis de la logística inversa en las empresas de la región.
Lopez Espinoza Maria Fernanda, Universidad Politécnica de Sinaloa
Asesor: Dr. Alejandro Lizárraga Lizárraga, Universidad Politécnica de Sinaloa

PROGRAMACION DE PERIFERICOS EXTERNOS PARA UN SISTEMA EMBEBIDO BASADO EN PIC32MM PARA APLICACIONES INDUSTRIALES


PROGRAMACION DE PERIFERICOS EXTERNOS PARA UN SISTEMA EMBEBIDO BASADO EN PIC32MM PARA APLICACIONES INDUSTRIALES

Lopez Espinoza Maria Fernanda, Universidad Politécnica de Sinaloa. Ramirez Lugo Arturo, Universidad Politécnica de Sinaloa. Asesor: Dr. Alejandro Lizárraga Lizárraga, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La investigacion surge de la necesidad de manejar perifericos internos o externos de un sistema embebido mediante un protocolo de comunicacion confiable y robusto. Los datos deben fluir entre dispositivos maestro/esclavo sin tener interferencias y funcionar en ambientes de ruido industrial.  El dispositivo maestro constara de un microcontrolador PIC de 32 bits y los perifericos seran un conversor analogo/digital (ADC) y un conversor digital/analogo (DAC).  El uso de estos perifericos sera con el fin de tratar la informacion del mundo real y procesarla para generar acciones adecuadas a las necesidades del sistema a controlar.



METODOLOGÍA

Para la realización de este trabajo se analizó las hojas de datos de los dispositivos periféricos y el microcontrolador utilizados en el sistema embebido ya prestablecido para conocer su funcionamiento interno, así como los registros que se requieren configurar para su correcto funcionamiento mediante el protocolo de comunicación SPI, el cual nos permite un flujo de transmisión continua entre los dispositivos periféricos y el microcontrolador. Con el conocimiento de los registros del DAC y ADS, y el manejo del SPI en el PIC de 32 bits, se genera un programa para el control de la transmisión de datos entre el ADS, el microcontrolador y el DAC para aplicaciones generales en la industrial.


CONCLUSIONES

Los resultados de la investigación nos proporcionaron los conocimientos  necesarios para la obtención y manipulación de la información entre distintos dispositivos por medio del protocolo SPI. El tratamiento de dicha información sera valioso para el manejo de datos y control de actuadores en ambientes industriales, así como también para aplicaciones que requieran menos robustez.
López García Hilary Montserrath, Instituto Tecnológico de Jiquilpan
Asesor: Dr. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCIóN Y CARACTERIZACIóN DE NANOPARTíCULAS A BASE DE QUITOSANO


OBTENCIóN Y CARACTERIZACIóN DE NANOPARTíCULAS A BASE DE QUITOSANO

López García Hilary Montserrath, Instituto Tecnológico de Jiquilpan. Asesor: Dr. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los polisacáridos son los polímeros naturales más versátiles debido al amplio espectro de propiedades químicas, físicas y funcionales que coinciden en los organismos vivos. A pesar del elevado tonelaje de polisacáridos que se utilizan como materias primas en las industrias de fibras, textil, papel y alimentos, cada vez existe una mayor evidencia que sugiere que ciertas familias de polisacáridos poseen propiedades funcionales, tales que pueden ser explotadas en otros sectores industriales especializados como el biomédico, cosmético y farmacéutico. Es especialmente relevante que algunos de estos biopolímeros combinan propiedades fisicoquímicas como la capacidad de formar micro y nanopartículas, con propiedades biológicas que en su conjunto los hacen particularmente atractivos en la ingeniería y diseño de materiales empleados en ciencias de la salud. El quitosano es un biopolímero natural que, debido a sus características útiles, como la biocompatibilidad, la biodegradabilidad y la falta de toxicidad, ha recibido una atención considerable en productos farmacéuticos, productos alimenticios, agricultura textil, cosmética y medio ambiente. Siempre se está en constante investigación de nuevos materiales que puedan adoptar nuevas y mejores características para los diferentes campos de aplicación, además, se trata de que estos tengan un impacto ambiental y social beneficioso para mantener una calidad de vida adecuada para una persona, por lo que durante el verano de investigación se estudia la formación de nanopartículas a base de quitosano que puedan emplearse en diversos campos con las anteriores características.



METODOLOGÍA

Se pesó, se colocó una cantidad de 0.5 g de quitosano de bajo peso molecular y con ayuda de un agitador magnético se disolvió, en 50 ml de ácido acético al 1%, v/v, se ajustó el pH entre 4.7 - 4.5 con hidróxido de sodio (NaOH), con la ayuda de un potenciómetro. Para realizar la emulsión w/o, como fase acuosa se utilizó la solución de 50 ml quitosano y como fase oleosa se usaron 50 ml de hexano, agregado gota a gota durante 3 horas con agitación constante a una temperatura de 50°C (55± 2° C). Después del tiempo preestablecido para estabilizar la emulsión, se midió 0.12 ml del Span 80, que fue nuestro agente surfactante y como agente de entrecruzamiento, en una balanza analítica se pesó y se añadió 0.05g de sulfato de sodio (Na2SO4, 5% w/w) con agitación de 1 hora a 50°C, después, a la mezcla de reacción se le aplicaron 2 lavados con acetona y agua para eliminar los surfactantes y demás agentes ácidos, esa mezcla se transfirió a una centrifuga a 1,500 rpm x 10 min y finalmente, se cambiaron de recipiente a un vaso de precipitado para secarse al vacío a 80ºC durante 12 horas. Una vez que pasó el tiempo necesario para que las muestras se secaran, con ayuda de una espátula se raspó el producto final del vaso de precipitado para obtener el producto que contendría las nanopartículas y proceder a realizar las pruebas que permitiría hacer la caracterización de estas como son análisis morfológico por microscopia electrónica de barrido (SEM) y análisis estructural por espectroscopia infrarroja por transformada de Fourier (FTIR).


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de algunos de los diferentes métodos que existen para la obtención de nanopartículas y la utilidad que se le pueden dar para diferentes campos de aplicación. También se conoció el material de trabajo y el uso correcto que debe de dársele a este para evitar accidentes. La prueba SEM (Microscopía Electrónica de Barrido), que a través de un microscopio electrónico nos aporta las características morfológicas, nos permitió darnos cuenta de que nuestro proceso sí había dado de resultado las nanopartículas que se esperaban. La prueba FTIR (Espectroscopía Infrarroja por Transformada de Fourier) por la cual es posible realizar una identificación de los materiales, calidad de una muestra, nos mostró que sí existió el entrecruzamiento que se buscaba y la presencia de los grupos funcionales esperados.  Este trabajo puede llegar a ser mucho más extenso, por lo que aún se encuentra en la fase de la formación de nanopartículas sin implementarlas a nada especifico. Cabe mencionar que todo el material que fue utilizado fue donado y/o prestado por los laboratorios de la Universidad Michoacana de San Nicolás de Hidalgo, sin ningún obstáculo para su obtención.
López Gómez Diego Alberto, Universidad de Guadalajara
Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca

CARACTERIZACIóN MECáNICA DE ESPECíMENES DE CONCRETO ALIGERADO ELABORADOS CON ARCILLA TERMO-EXPANDIDA RECICLADA


CARACTERIZACIóN MECáNICA DE ESPECíMENES DE CONCRETO ALIGERADO ELABORADOS CON ARCILLA TERMO-EXPANDIDA RECICLADA

López Gómez Diego Alberto, Universidad de Guadalajara. Asesor: Dr. Herwing Zeth López Calvo, Universidad Autónoma Benito Juárez de Oaxaca



PLANTEAMIENTO DEL PROBLEMA

            El concreto aligerado es una mezcla heterogénea de agua, arena, cemento y grava, en la cual el aire representa al menos el 20% del total de su volumen y cuya densidad varía entre los 1440 y los 1850  kg/m³, de acuerdo con el Manual Práctico del Concreto del Instituto Americano del Concreto (ACI). La utilización de concretos aligerados en miembros estructurales proporciona una relación más eficiente de resistencia mecánica con respecto al peso total de la estructura. Aunque su precio unitario es marginalmente mayor al de los concretos tradicionales, los concretos aligerados contribuyen a la reducción del tamaño de los elementos estructurales, a la disminución en la utilización del volumen de mezcla y al total  del acero de refuerzo. A su vez, los concretos estructurales aligerados mejoran la conservación de energía calorífica gracias a sus propiedades de insolación. Estos beneficios se obtienen al utilizar agregados que contribuyan  a la reducción de la densidad y al incremento de sus capacidades de absorción, como lo es la arcilla termo-expandida (montmorillonita). Ésta resulta cuando la cocción del ladrillo de lama supera temperaturas de 1 200° C. Al provocar la expansión molecular de la arcilla, los ladrillos quedan inhabilitados para su uso como material de construcción, ya que pierden la forma de prisma rectangular.Debido a su elaboración artesanal, se vuelve muy complicado controlar la temperatura en los hornos convencionales, lo que ocasiona un desperdicio cercano al 15% de la producción. El presente trabajo de investigación consiste en analizar las relaciones volumétricas y gravimétricas de la arcilla termo-expandida, así como la caracterización mecánica de los especímenes de concreto aligerado elaborados del mismo material. Se desarrollarán a su vez distintos diseños de mezclas variando las relaciones agua cemento (a/c), proporciones de agregados convencionales con respecto a la arcilla termo-expandida y variando el tipo de cementantes.        



METODOLOGÍA

Análisis N°1.- Densidad específica en gravas. Objetivos: Determinar el peso de la unidad de volumen de ese material, sin considerar los vacíos que existen entre partícula y partícula. las partículas se consideran saturadas en agua y superficialmente secas. Se utilizarán tres muestras de arcilla termo expandida, tomando como base la norma ASTM C 127- 01. Análisis N°2.- Determinación de la Masa Volumétrica Seca y Suelta en gravas (MVSS). Determinar la masa por unidad de volumen de una grava cuando el acomodo de sus partículas es en forma libre o natural. Se utilizarán dos muestras de arcilla termo expandida, tomando como base la norma ASTM C 29. Análisis N°3.- Determinación de la Masa Volumétrica Seca Varillada de grava (MVSV). Obtener la masa por unidad de volumen de una grava cuando el material tiene una determinada compactación. Se utilizarán dos muestras de arcilla termo expandida, tomando como base la norma ASTM C 29. Análisis N°4 .- Porcentaje de absorción en gravas. Determinar la capacidad máxima de absorción de una grava expresándola en porcentaje respecto a su peso seco. Se utilizarán tres muestras de arcilla termo expandida, tomando como base la norma ASTM C 70, C 127, C 128 y C 56. Análisis N°5.- Análisis granulométrico en gravas. Obtener la distribución de los tamaños de las partículas de la grava así, como el tamaño (T.M.) de la grava, valor que se utiliza para el cálculo del diseño de mezclas. Se utilizarán nueve kilogramos de arcilla termo expandida, tomando como base la norma ASTM C 33. Prueba N°1.- Compresión. Los resultados de las pruebas de resistencia a la compresión se usan fundamentalmente para determinar que la mezcla de concreto suministrada cumpla con los requerimientos de la resistencia especificada, ƒ´c, del proyecto.  


CONCLUSIONES

Resultados del Análisis N°1.- Densidad específica en gravas. Después de obtener los resultados de tres muestras, se obtuvo una media de 1.63 g/cm³. Resultados del Análisis N°2.- Masa Volumétrica Seca y Suelta en gravas (MVSS). Se determinó, después de dos ensayos, que la masa volumétrica seca y suelta es de 0.72 y 0.71 g/cm³.  Resultados del Análisis N°3.- Masa Volumétrica Seca Varillada de la grava. Se determinó, después de dos ensayos, que la masa volumétrica seca y suelta es 0.865 y 0.856 g/cm³. Resultados del Análisis N°4.- Porcentaje de absorción en gravas. Se determinó, después de tres ensayos, que el promedio del porcentaje de absorción de la arcilla termo-expandida es de 12.7094%. Resultados del Análisis N°5.- Análisis granulométrico en gravas. El análisis granulométrico se realiza para obtener el tamaño máximo del agregado que será usado para el diseño de mezcla (arcilla termo expandida). En este caso, será el retenido en la malla de ¾, ya que se retuvo el 40.93% siendo mayor al 5% indicado por la norma. Resultados de la Prueba N°1.- Compresión. Se observó que la máxima resistencia fue la de los testigos de 14 días, con 330.61 kg/cm² Las pruebas realizadas nos sirvieron para poder determinar algunas cualidades de nuestros especímenes sin embargo una de las más importantes  fue la prueba de compresión puesto que obtuvimos la resistencia de nuestros especímenes con arcilla termo expandida: Las resistencias obtenidas de los especímenes, se incrementa de forma notable en el periodo que comprende de 7 y 14 días, siendo la resistencia de 330.61 kg/cm². La resistencia a compresión de los especímenes, es notablemente alta, ya que para que pueda ser un concreto estructural, por reglamento el f’c mínimo es de 200 kg/cm².
Lopez Gomez Maria Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

SEGURIDAD HíDRICA EN MéXICO


SEGURIDAD HíDRICA EN MéXICO

Lopez Gomez Maria Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El agua es un elemento único en la Naturaleza. Es la sustancia más abundante que existe en la tierra y es el principal constituyente de todos los seres vivos. Constituye un factor decisivo en la climatización del planeta para la existencia humana, en la formación de paisajes y la influencia en el progreso de los pueblos. Es un bien esencial para la vida y el desarrollo económico social de las naciones. Sin embargo, cada vez son más frecuentes los problemas y conflictos por el agua. Es importante destacar que en muchos países no se ha alcanzado la seguridad hídrica y, de hecho, ésta se encuentra cada vez más amenazada. El crecimiento poblacional, el desarrollo económico, la urbanización, la variabilidad climática resultado del cambio climático global y el propio deterioro ambiental continúan aumentando la presión sobre los recursos hídricos, de tal manera que se registran ya condiciones de escasez, permanente o recurrente, en algunas regiones. La inadecuada gestión del agua, con frecuencia, agrava esta problemática. La mayor problemática es la falta de conciencia sobre los recursos hídricos por parte de las personas, pues esto ha producido en el agua una grave contaminación, debido a que el agua no puede purificarse por tantos desechos que se le han arrojado.



METODOLOGÍA

Para llevar a cabo dicha investigación sobre la seguridad hídrica del agua se consultaron diferentes fuentes bibliográficas, datos en fuentes de información geográfica las cuales nos proporcionan datos como delimitaciones y condición de acuíferos, así como la consulta de diferentes paginas como CONAGUA, Servicio Meteorológico Nacional, etc., para datos relevantes del agua. Dicha información recabada se utilizó para la redacción del primer capítulo del libro Seguridad Hídrica el cual publicara el Instituto Mexicano de Tecnología del Agua (IMTA), además de realizar investigación sobre este tema, se ayudó en la elaboración de otros dos capítulos del libro entre ellos están Participación del IMTA en el Grupo de Acción Ctrl+SWAN de la Comunidad Europea y Redes inteligentes de agua potablePara llevar a cabo dicha investigación sobre la seguridad hídrica del agua se consultaron diferentes fuentes bibliográficas, datos en fuentes de información geográfica las cuales nos proporcionan datos como delimitaciones y condición de acuíferos, así como la consulta de diferentes paginas como CONAGUA, Servicio Meteorológico Nacional, etc., para datos relevantes del agua. Dicha información recabada se utilizó para la redacción del primer capítulo del libro Seguridad Hídrica el cual publicara el Instituto Mexicano de Tecnología del Agua (IMTA), además de realizar investigación sobre este tema, se ayudó en la elaboración de otros dos capítulos del libro entre ellos están Participación del IMTA en el Grupo de Acción Ctrl+SWAN de la Comunidad Europea y Redes inteligentes de agua potable.


CONCLUSIONES

Durante el periodo de estancia del verano se logró adquirir diferentes conocimientos teóricos sobre la importancia de los recursos hídricos, así como la obtención de datos estadísticos de los recursos hídricos. Se pretende que, con la realización de los capítulos de este libro, les llegue información a los receptores de que los recursos hídricos son de gran importancia y que deben cuidarse, además da soluciones para que la seguridad hídrica trabaje ante los fenómenos hidrometeorológicos
López González Karenina, Universidad de La Salle Bajío
Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)

DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.


DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.

López González Karenina, Universidad de La Salle Bajío. Martínez González Diana Carolina, Universidad de La Salle Bajío. Santiago Hernández Jorge, Universidad Veracruzana. Vazquez Gonzalez Yaznay, Universidad Veracruzana. Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La carne de cerdo es la tercera más consumida en Colombia, por eso en los últimos años el sector porcicultor ha presentado un desarrollo relativo que le ha permitido crecer de forma constante, fortalecerse en su gestión gremial y consolidar su estructura empresarial. El sector porcicultor en Colombia está evolucionando gracias a la demanda del porcino, queriendo ésta lograr tener sus mayores productores. Sin embargo, el productor porcicultor colombiano se encuentra con diversas problemáticas debido a las deficiencias en la cadena de suministros porcícola colombiana (CSPC), como, por ejemplo, empresas que aún utilizan métodos no tecnificados para la gestión de sus granjas, haciendo que estas prácticas propicien una afectación en la productividad de los procesos dentro la porcicultura ya que impactan en los estándares del producto final. Dada las dificultades presentadas, el objetivo de esta investigación es describir y analizar los indicadores de la CSPC, que influyen en el desarrollo óptimo del proceso de cría, con el propósito de obtener las mejores prácticas en las fases productivas para presentar al sector porcino un sistema de apoyo que facilite y favorezca la inspección y el manejo de los cerdos desde la gestación hasta la ceba.



METODOLOGÍA

La investigación se desarrolló por medio del análisis de observación, bajo la metodología de tipo cualitativa, iniciando con una revisión de literatura en bases de datos científicas, libros, revistas indexadas, reglamentaciones nacionales y tesis, entre otras. Las etapas fueron caracterizadas por medio de diagramas de flujo, con sus entradas y salidas e identificando los correspondientes indicadores de gestión.


CONCLUSIONES

En los resultados se logró identificar algunos indicadores de gestión para cada fase. Adicionalmente, se pudo establecer la necesidad que tiene el gremio de contar con herramientas técnicas y tecnológicas para toma de decisiones efectivas y oportunas, que les permita mayores índices de productividad y desarrollo en el transcurrir del ciclo de vida útil de la cadena. En conclusión, se pudo establecer que el factor más importante del proceso se evidencia en la fase de ceba, ya que aquí se obtiene el mayor consumo de alimento, porque el porcino necesita alcanzar 110 kg de peso vivo, para enviarlo al frigorífico. Se recomienda, continuar con la investigación, para detallar y articular las demás fases del ciclo de vida de la cadena de suministro porcícola colombiana, como son, comercio de cerdos en pie por parte de los acopiadores, sacrificio o plantas de sacrificio porcino formal e informal, desposte (mayoristas y minoristas), plantas de procesamiento de embutidos, comercio al por mayor y comercio al por menor abarcando desde canales hasta restaurantes, proveyendo a la industria porcícola colombiana con una herramienta de gestión que le permita fortalecer sus procesos de toma de decisión, los cuales mejorarán la productividad y niveles de competitividad en los entornos nacionales e internacionales.
Lopez Hernandez Jose Luis, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.


ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.

Lopez Hernandez Jose Luis, Universidad Autónoma de Tamaulipas. Silva Estrada Perseo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el número de usuarios con acceso a internet y dispositivos móviles tales como teléfonos inteligentes y tabletas electrónicas va en aumento por lo que la brecha digital entre las áreas urbanas y rurales se reduce. Estos dispositivos se presentan como una herramienta idea para la consulta de información casi de forma instantánea y de un fácil acceso. Según datos del INEGI en 2017 el 63.9 por ciento de la población de seis años o más en México usuaria internet y el 17.4 millones de hogares (50.9 por ciento del total nacional) disponen de conexión a internet. Por tanto la forma en que las personas se conectan entre si, acceden a la información y se comparte, brinda unas herramientas tecnológicas de gran potencial para solucionar problemas que requieren un alto poder computacional. Ante lo anterior, nos preguntamos ¿estas tecnologías pueden ayudarnos a solucionar problemas de la vida cotidiana? Por ejemplo recordar el nombre de un objeto; y si es que queremos indagar más sobre este pero al desconocer su nombre o solo con el hecho de no recordarlo se nos hace imposible identificarlo. Debido a esto buscamos desarrollar una aplicación móvil, la cual a través de imágenes captadas por el dispositivo detecte y enfoque al objeto para posteriormente obtener información de este. Un algoritmo de aprendizaje profundo ayudará servidores remotos se encargará de los procesos de nuestro teléfono inteligente; por tanto, el aprovechamiento del Hosting como medio de almacenamiento y comunicación entre el teléfono con el servidor optimizará el trabajo en el servidor y el ahorro del consumo de datos en el dispositivo móvil. .



METODOLOGÍA

La metodología empleada se enfoca en el desarrollo de una aplicación móvil, con la herramienta de Android Studio. · Inicialmente se procedió a la recolección de materia bibliográfico. · Estudio de la sintaxis del lenguaje Java · Instalación de Android Studio · Conceptos y términos de programación móvil y servicios web Posterior a la recopilación de información se realiza en estudio y análisis de la Cámara para la programación móvil, más detalladamente: · Estudio y análisis de la configuración de la cámara · Estudio y establecimiento de librerías para aplicaciones móviles Una vez teniendo las fuentes y estudio del funcionamiento del Hardware, así como del lenguaje, se realizó un análisis y revisión de la herramienta Android Studio realizando lo siguiente: · Instalación · Su funcionamiento · Interacción con el usuario · Estudio del lenguaje Java · Compilación · Generación de APK´s Esto último con la finalidad de la aplicación móvil para posteriormente hacer el análisis y revisión del almacenamiento con la herramienta MySQL en donde se revisa: · Instalación · Su funcionamiento · Interacción con el usuario · Estudio del lenguaje TRANSACT · Gestión de base de datos Conociendo las herramientas a utilizar se procede al inicio del desarrollo de la aplicación en donde se hacen llamadas al Hardware de la cámara para la captura de la imagen y se implementa lo siguiente: · Estudio de los componentes de Android Studio · Implementación de la base de datos en la aplicación móvil · Captura de la imagen y almacenamiento en el dispositivo móvil · Manipulación de la imagen (Dimensión, y densidad de pixeles). Para el funcionamiento adecuado de la aplicación móvil orientada al Hosting se requirieron de las siguientes herramientas · Creación de un Hosting el cual sea capaz de alojar una base de datos, con el fin de almacenar las imágenes recibidas por el usuario. · Se utilizó el lenguaje de MySql y PHP así como también todo el estudio de los protocolos de red TCP/UDP, esto nos facilitó el entendimiento de la Arquitectura Cliente/Servidor. En el lado del Servidor se implementó la herramienta por defecto del Sistema Operativo de Windows para agregar unidades de red usando el protocolo de transferencia FTP. · Con la siguiente herramienta se establece la conexión al Hosting, de esta forma se puede acceder a los recursos almacenados. · Una vez realizada la unidad de red esta permite copiar y reemplazar archivos en tiempo real agilizando la subida de imágenes por parte del servidor.


CONCLUSIONES

Se concluye que la manipulación del Hardware y no de las aplicaciones ya establecidas en el teléfono nos permite tener mayor libertad de establecer que es lo que queremos hacer, como en este caso al principio se utilizó una llamada a la aplicación de la cámara que está en el teléfono, pero nos limitaba a no poder manipular los componentes que requeríamos, simplemente se podría modificar pocos parámetros, en cambio al utilizar la interacción con el Hardware directamente nos permitió poder establecer parámetros específicos y concretos que requeríamos con la finalidad de una optimización y libertad en el uso de los componentes, claro está, estos se limitaban a cada dispositivo y los recursos que tuviese. Durante la instancia de verano se cumplió satisfactoriamente con la investigación, por lo cual expreso mi mayor gratitud al DR. Hugo Eduardo Camacho Cruz destacando su disponibilidad y generosidad para compartir su experiencia la cual fue de gran ayuda durante este periodo de investigación. El uso de un Hosting agiliza él envió y almacenamiento de las imágenes captadas por la aplicación móvil, gracias a esto nos permitió optimizar y ahorrar recursos de nuestros dispositivos, para después ser procesadas en servidores de alto rendimiento.
López Hernández Juan, Instituto Tecnológico de Pachuca
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

FOG COMPUTING: ARQUITECTURA, APLICACIONES Y SEGURIDAD.


FOG COMPUTING: ARQUITECTURA, APLICACIONES Y SEGURIDAD.

López Hernández Juan, Instituto Tecnológico de Pachuca. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

Al estudiar a fondo este paradigma llamado computación en la nube nos hace reflexionar en como ayudará esto a nuestra vida cotidiana, actualmente con el crecimiento de la tecnología y el internet de las cosas, se ha creado una hiperconectividad a la nube, la cual cada minuto recibe cientos de miles de datos, los cuales debe procesar y almacenar, pero entre más aparatos estén conectados es posible que en un momento la nube no pueda satisfacer las necesidades futuras.



METODOLOGÍA

Para satisfacer las futuras necesidades de conectividad se ha desarrollado el concepto de computación en la niebla que surge del mismo concepto de la nube, aun refiriéndonos en el mismo contexto geográfico, la niebla es una parte de la nube más cerca de nosotros, nuestros dispositivos conectados a internet y sensores. Este nuevo paradigma funciona con una arquitectura sencilla y de bajo consumo energético comparado con los grandes centros de datos de la nube, esta estructura funciona gracias a enrutadores, conmutadores estaciones bases y Gateway entre otros, los cuales deben ser distribuidos geográficamente descentralizados para un óptimo funcionamiento, al igual que estos dispositivos existen los nodos de niebla los cuales cumplen una función primordial para una baja latencia y ancho de banda.


CONCLUSIONES

En un futuro se esperan diferentes aplicaciones, las cuales están enfocadas principalmente al internet de las cosas, redes de quinta generación y hasta el cuidado de la salud, buscando como principal objetivo mejorar el servicio de la red y no saturar la nube con datos que se pueden procesar de manera local. Finalmente, la computación en la niebla en una realidad que cada vez está más presente en nuestro entorno, y no precisamente para competir con la nube, si no como una extensión de esta.
López Hernández Omar, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT


CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT

Alemón Pérez Alejandro, Instituto Politécnico Nacional. de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. López Hernández Omar, Instituto Tecnológico de Estudios Superiores de Zamora. Saavedra González David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial está cada vez más acercado hacia nuestra realidad, como parte de los próximos sistemas que interactúen con nuestro mundo. Como parte de estos sistemas se encuentran los chatbots, que son sistemas con los que podemos llevar una conversación e interactuar. No obstante, el desarrollo actual de los chatbots no llega a permitir una interacción más natural ya que no cuenta con el suficiente procesamiento del lenguaje natural con el usuario que necesita de ellos, además de que en el país se cuentan con pocos que cubran necesidades y las hagan más sencillas. Por lo que se pretende crear un sistema conversacional el cual sea inteligente y que ayude en ciertas tareas cotidianas donde pueda comunicarse de manera hablada para mejorar la manera en la que se relaciona el usuario y el sistema, para introducir cada vez más con tecnología de este tipo y sentar las bases para otros nuevos proyectos.



METODOLOGÍA

Para poder comenzar a trabajar con un chatbot los elementos de un chatbot, nos familiarizamos con el tema e interactuamos con chatbots ya creados para conocer su funcionamiento. Como primer punto de partida en programación trabajamos en realizar ejemplos de chatbots en servicio web, creando nuestra propia inteligencia usando el lenguaje AIML y fueron puestos a prueba por varios usuarios, la temática fue muy fácil para el usuario donde el objetivo principal era comprar frutas. Posteriormente realizamos ejemplos de chatbots usando chatvoice, decidimos programar varios temas de chatbot, después de una evaluación de 30 ideas iniciales solo elegimos dos los cuales se describirán a continuación: HAUNTER Haunter es un Chatbot diseñado en las personas que buscan una herramienta que les facilite conseguir un empleo, pero que aun tengan dudas de como realizar su currículum vitae, Haunter le realiza una serie de preguntas en cuanto a sus datos personales, historial académico, historial de empleos, aptitudes y habilidades técnicas. Cuando termina la conversación Haunter genera el documento dando un diseño del currículum donde el usuario solo tiene que introducir su fotografiá. Haunter también pregunta si desea realizar una simulación sobre una entrevista de trabajo, en esta simulación Haunter tiene una charla con el usuario como si fuera cuestionado por un reclutador, es por ello que fue diseñado para adquirir experiencia en cuanto realice una entrevista real. DenunciaBot La inseguridad cada vez es mas común para muchas personas en la ciudad de México y la mayoría de los robos realizados no tienen ninguna denuncia es por ello y estando consciente de ello se decidió realizar un chatbot para ayudar a las personas a realizar una denuncia. DenunciaBot a través de un pequeño cuestionario donde el usuario narra los hechos y dependiendo lo robado da recomendaciones para que el usuario este informado de lo que tiene que hacer en caso de un asalto o robo. Fueron desarrollados en el lenguaje de programación Python ya que es un lenguaje de programación procedural con una sintaxis muy limpia. Además tiene una gran cantidad de recursos que lo han convertido en uno de los lenguajes de programación predilecto entre programadores. También esta desarrollado YAML que contiene un formato para guardar objetos con estructura de árbol; nos familiarizamos con el lenguaje de programación conociendo primeramente aspectos generales como tipos de datos, declaración de variables, estructuras de datos, ejecución, formas de control, módulos, funciones, archivos de texto para lectura y escritura, excepciones y algunas funciones extras. Los chatbots estan funcionando en Linux y Anaconda como entorno de desarrollo en Windows.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del chatbot y chatvoice. Se cumplieron los objetivos propuestos al iniciar la estancia de investigación. Se administró correctamente el tiempo para su realización. El material de apoyo proporcionado por el profesor fueron de gran utilidad. Se aplicaron y reafirmaron los conocimientos adquiridos en nuestras respectivas universidades.
López Inzunza Michelle Iracema, Instituto Tecnológico de Culiacán
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

MODELO DE SIMULACIóN DE PUERTAS DE ACERO EN SU PROCESO DE MANUFACTURA MEDIANTE EL SOFTWARE DELMIA QUEST®


MODELO DE SIMULACIóN DE PUERTAS DE ACERO EN SU PROCESO DE MANUFACTURA MEDIANTE EL SOFTWARE DELMIA QUEST®

López Inzunza Michelle Iracema, Instituto Tecnológico de Culiacán. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En el estudio de caso de una empresa mexicana, la creación de puertas de acero que cuenta con una diversidad de productos fabricados mediante un gran número de procesos. La utilización del software DELMIA QUEST® (Digital Enterprise Lean Manufacturing Interactive Application) creando el modelo donde la flexibilidad e integración visual 3D de los procesos de fabricación y las características que la plataforma nos ofrece, integrando los tiempos de operación y flujos de trabajo. Con el propósito que los ingenieros cuenten con una herramienta que les permita tomar mejores decisiones en temas relacionados de ubicación en la planta de maquinaria, suministros, herramientas y hasta de los operarios, todo con el fin de optimizar tiempos, costos, disminuir errores, prevenir accidentes y obviamente mejorar la calidad de la producción. Es la importancia de los costos operativos, que han sido considerado clave para alcanzar la ventaja competitiva frente a la competencia en cualquiera industria. Precisamente los esfuerzos están enfocados en disminuir estos costos, con el fin de aumentar la rentabilidad y aprovechar los recursos disponibles. Por eso, herramientas que permitan optimizar costos, enfocar recursos y disminuir las inversiones innecesarias en la producción, son claves en el éxito de la mayoría de las empresas.



METODOLOGÍA

La simulación es la representación vía computadora de un conjunto de eventos reales tomando como base información disponible o generada a través de distribuciones de probabilidad. En una fábrica mexicana de puertas de acero (MAVISA) se creó un modelo mediante el uso de la plataforma Quest® sus ventajas es la integración visual en 3D. Esto implica notar la diferencia entre el modelo construido y la línea de fabricación real. Integrando los tiempos de operación y los flujos de trabajo en el modelo. La construcción de la planta en el modelo mediante las indicaciones correspondientes a la empresa real con las áreas de trabajo establecidas fue representada por un Lay-Out es decir la vista a escala de toda planta. Como la creación de las partes en la misma plataforma con la opción de dibujar los objetos necesarios en AutoCAD a utilizar como: maquinas, partes, accesorios que nos ayuda a una representación más realista.   La creación de los tiempos de operación de los procesos para el simulador se saca de las distribuciones de acuerdo con los registros de la empresa para las estimaciones estadísticas de cada proceso realizado. Realizamos el armado de cada área de la planta de trabajo de acuerdo con la información dada de la empresa con sus características específicas de cada departamento. Creando los procesos con ayuda de las operaciones del software Quest®, para una representación 3D de toda la planta contemplando al personal de la planta. La verificación del modelo es el resultado de realizar un lote de 510 de puertas con los tiempos de las distribuciones correctamente establecidos. Con la validación de 30 corridas de semilla diferente para lograr el resultado de que el modelo es válido. En parte de la experimentación del modelo es como lograr una mejora para la empresa optimizar costos, tiempos en la planta. El resultado de la optimización fue lograr una reducción de las facilidades totales de toda la planta para una reducción de costos alcanzando el numero optima de necesarias para lograr el trabajo a realizar.


CONCLUSIONES

La simulación es útil para valuar y mejorar el desempeño de un sistema si intervenir directamente en el mismo. Gracias a las herramientas ofrecidas en la actualidad nos permiten lograr trabajar con mayor exactitud a los resultados esperados, en este caso fue la plataforma de Delmia Quest® que con su ambiente te trabajo permitió visualizar en 3D la forma y funcionamiento de una planta completa dándonos oportunidad de la experimentación para lograr una optimización de mejora a la empresa de este caso.  
Lopez Juarez Nestor, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

PROCESAMIENTO DE SEñALES EEG PARA EL CONTROL DE ELEMENTOS ROBOTICOS


PROCESAMIENTO DE SEñALES EEG PARA EL CONTROL DE ELEMENTOS ROBOTICOS

Lopez Juarez Nestor, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de este proyecto es el diseño y control de un robot a través de una interfaz cerebro-máquina basada en estimulación visual que sea capaz de adaptarse al usuario logrando de esta manera un control personalizado y eficiente del robot mediante la inteligencia artificial se busca desarrollar un sistema autónomo aplicando algoritmos de programación en donde existen diferentes  casos de comunicación para el aprendizaje a partir de información estructurada o no estructurada capaces de mejorar su eficiencia a través de la experiencia este tipo de metodologías de aprendizaje automático se aplica en campos tan diversos como la informática, la estadística, la robótica, la medicina, para su aplicación.



METODOLOGÍA

La magnetoencefalografía o MEG es una técnica de monitoreo no invasiva que registra la actividad magnética del cerebro por medio de inducción magnética. Las corrientes intracelulares que fluyen a través de la morfología de las neuronas producen campos magnéticos que son medibles a través de magnetoencefalografía fuera de la cabeza. Podríamos decir que los procesos neurofisiológicos que producen señales de tipo MEG son iguales a los que producen señales EEG. Esta actividad cerebral es producida por el flujo de corrientes eléctricas durante las excitaciones sinápticas en las neuronas. Las señales atraviesan el cuero cabelludo y el cráneo, lo que resulta en una pobre calidad de señal en los electrodos de registro. Además, estas señales se suelen ver afectadas por el ruido de fondo generado en él. La actividad electrofisiológica es generada por neuronas y suele ser medida a través de la electroencefalografía (EEG), electrocorticografía (ECoG) o magnetoencefalografía (MEG). Método más usado de los citados sea el de la electroencefalografía debido a su gran resolución temporal, bajo coste y conllevar menos riesgos para los usuarios. Se realiza un estudio del estado de informándonos acerca de las tecnologías existentes y los métodos de análisis para la adquisición de las señales cerebrales. Este estudio nos ha proporcionado una visión actual del ámbito en el que se desarrolla el proyecto para tomar las decisiones oportunas para el diseño. Los métodos para el desarrollo del proyecto, consiste en extracción de caracteres mediante imágenes  aplicando de esta manera diferentes  filtros de extracción  de texturas, extracción de momentos de hu,  filtrados de la transformada de Fourier, transformada de wavelet, así como la agrupación de datos mediante clustering clasificando  la extracción de señales, presentando diferentes parámetros de estado  y aprendizaje automático para el desarrollo de redes de comunicación. En las técnicas de agrupamiento consiste en la clasificación de datos, observaciones o vectores de características  en agrupaciones de la clasificación de datos.


CONCLUSIONES

El objetivo principal del proyecto es el desarrollo de sistemas de control para robots inteligentes a través de una interfaz mediante señales eeg para posteriormente generar factores que permitan obtener la mejor presentación el sistema en la adaptación  consiste en un proceso de selección de señales con una fase inicial binaria seleccionando las mejores relaciones de comunicación o compatibilidad eliminando el ruido que se encuentre en el registro, mediante filtros que se le aplicación para un mejor rendimiento al igual de estímulos cuando él se encuentre enviando información o detectando información atraves de sensores que son controlados con  algoritmos implementados en el sistema, ya que no está exento de un nivel de error en detección de características así como de comunicación de interfaz.
Lopez Justo Carolina, Universidad Autónoma del Estado de México
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

COMPARACIóN DE NIVELES DE ATENCIóN ENTRE PERSONAS CIEGAS Y NORMOVISUALES EN UN ENTORNO DE APRENDIZAJE MEDIANTE ANáLISIS DE EEG.


COMPARACIóN DE NIVELES DE ATENCIóN ENTRE PERSONAS CIEGAS Y NORMOVISUALES EN UN ENTORNO DE APRENDIZAJE MEDIANTE ANáLISIS DE EEG.

Lopez Justo Carolina, Universidad Autónoma del Estado de México. Morales Vidal Ana María, Instituto Tecnológico de Cuautla. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Debido a la falta de inclusividad en las aulas educativas, se pretende evaluar a diferentes grupos de personas (con ceguera y normovisuales) para encontrar diferencias y similitudes mediante el análisis de EEG, bajo la intención de ayudar a construir aprendizaje equitativo para todos. El proyecto es la etapa de validación de pruebas de un proyecto más grande que dirige el Dr Álvarez en el cual se busca el aprendizaje inclusivo.



METODOLOGÍA

Para llevar a cabo el presente estudio de investigación, se seleccionaron diez personas normovisuales. Puesto que en estudios similares se utiliza este mismo número de muestras o menos. De las cuales, cinco de ellas fueron mujeres con un rango de edad de entre 20- 45 años, así como también cinco hombres con las mismas características de edad. Las diez personas fueron seleccionadas en la Universidad Autónoma de Aguascalientes debido a que fue el lugar de experimentación, teniendo en su mayoría estudiantes de la universidad mencionada.   Mientras que, para la selección de personas ciegas sólo se tomaron registros de cinco personas que se prestaron a colaborar con la experimentación. Tres de ellas fueron hombres con un rango de edad de entre 22 - 45 años, y el resto de las personas fueron mujeres con las mismas características de edad.  Para la selección de personas ciegas, se asistió al Centro de Desarrollo Integral de la Familia (DIF) del municipio de Aguascalientes. La facilidad de trabajar con personas del DIF fue gracias al convenio de trabajo DG042_18.  El modelo de experimentación utilizado constó de tres fases. La primera fase consistió en la preparación técnica y del participante. Es decir, se le explicó a cada participante en qué consistía el experimento, se les pidió que leyeran o escucharan atentamente (de acuerdo con las condiciones del participante) y firmaran la Carta de Consentimiento Informado en donde se encontraban detalladamente las instrucciones a seguir para realizar el experimento y la especificación de la confidencialidad de los datos. Posterior a esto, se les preguntó sobre posibles dudas. Una vez aclaradas las dudas e informado el participante, se le colocó la diadema MindWave Mobile y los auriculares. En cuanto a los aspectos técnicos, se preparó el video y se les pidió ajustaran el volumen a su preferencia, además se estableció la conexión entre la diadema y la laptop en donde se adquirió el registro del EEG. El tiempo empleado en esta primera fase fue de un aproximado de cinco minutos.   La segunda fase constó de la reproducción del material audiovisual elegido de acuerdo con la preferencia del participante. Una vez establecida la conexión entre la diadema MindWave Mobile con la segunda computadora, se le pidió al participante que mantuviera los ojos cerrados y tratara de relajarse durante treinta segundos, con la finalidad de obtener un registro del estado basal del sujeto en periodo de relajación. Concluido este tiempo, el sujeto oprimió la tecla espaciadora para reproducir el video. Durante esta fase, se inició con la adquisición datos del EEG del sujeto. El procedimiento dura un aproximado de siete minutos.    En la tercera fase el participante procedió a resolver de manera verbal un cuestionario que constaba de cinco preguntas pregrabadas, relativas al video previamente visto o escuchado según fuera el caso. El registro de datos del EEG terminó cuando el participante finalizó con la respuesta del cuestionario. 


CONCLUSIONES

Bajo este entorno de experimentación, se puede concluir que tanto ciegos como normovisuales presentan características similares en su análisis de EEG presentando señales Delta, Theta y Attention, con la diferencia de que las personas normovisuales además de presentar las ya mencionadas señales, también presentan potencias de ondas High Beta por lo que sugiere que los algoritmos para evaluar la atención en entornos de aprendizaje podrían funcionar tanto en personas normovisuales como ciegas.   Sin embargo, es necesario realizar estudios con un mayor número de participantes, puesto que no es una conclusión contundente. Es por ello por lo que se pretende en un futuro, trabajar con un número de participantes mayor y seguir analizando dichos patrones además de mejorar el entorno de experimentación, buscando entornos más próximos a la cotidianidad.  
Lopez Lopez María Fernanda, Instituto Tecnológico de La Piedad
Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima

PROCESAMIENTO DE SEÑALES ECG QUE PRESENTAN LA PATOLOGIA ARRITMIAS MEDIANTE LA SEGMENTACION REGRESION LINEAL


PROCESAMIENTO DE SEÑALES ECG QUE PRESENTAN LA PATOLOGIA ARRITMIAS MEDIANTE LA SEGMENTACION REGRESION LINEAL

Lopez Lopez María Fernanda, Instituto Tecnológico de La Piedad. Murillo Mendoza Ana Maria, Instituto Tecnológico de La Piedad. Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a información de 2015 recabada por INEGI, al año se registran 650 mil decesos en el país, de los cuales 128 mil se debieron a enfermedades cardiovasculares; de éstos, 20 por ciento -alrededor de 24 mil- fueron personas que tuvieron muerte súbita. La arritmia es un padecimiento cardiaco común entre la población, la cual se caracteriza por la variación del ritmo de los latidos del corazón provocada por la generación de señales eléctricas anormales,  si no se detecta de manera oportuna esta alteración puede ocasionar muerte súbita. Para poder detectar estas afecciones es necesario analizar las señales ECG del paciente, debido a que la conversión de una señal analógica a digital puede generar diversos tipos de ruido interfiriendo en la calidad de la señal, se pretende mejorar un algoritmo de regresión lineal para filtrar estas señales y encontrar elementos de sumo interés para la detección de anomalías cardiacas. 



METODOLOGÍA

El análisis se señales de ECG con presencia de arritmia es realizado mediante un algoritmo de regresión lineal basado en técnicas de segmentación que emplea métodos como la regresión lineal, para la detección de puntos de interés de la señal de ECG, los complejos QRS, ondas P y T, que son distinguidos del ruido, línea base y artefactos, intervalo R-R, así como la obtención del periodo y frecuencia de dicho intervalo. El algoritmo es probado con señales ECG extraídas de la base de datos de la physionet.org, llamada Arrhythmia DataBase del MIT-BIT,  las cuales cuentan con 31 registros, cada uno con una frecuencia de 360 Hz, con una duración de 1 minuto y una resolución de 11 bits en un rango de voltaje nominal de 10mV.


CONCLUSIONES

Con la aplicación de este algoritmo de regresión lineal se logró identificar la patología de arritmia presente en las señales ECG, obtenidas de la base de datos Arrhythmia DataBase, del MIT - BIH. Teniendo una sensibilidad 97.26 %.
López Lozano Martin Alejandro, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

PELíCULAS SEMICONDUCTORAS


PELíCULAS SEMICONDUCTORAS

Hernandez Amezcua Andrea Viridiana, Universidad de Guadalajara. López Lozano Martin Alejandro, Universidad de Guadalajara. Orozco González Ileana Monserrat, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas de oro se caracterizan por tener un tamaño de partícula muy pequeño, actualmente considerado, en el orden de 1 a 300 nm. Existen diversos tipos de materiales nanoestructurados como nanopartículas, nanocristales, nanotubos, nanoalambres, etc. de composiciones diversas, obteniendo nanomateriales orgánicos e inorgánicos en distintas dimensiones con aplicabilidad multifuncional, que van desde la medicina hasta la electrónica moderna. Se puede utilizar este proceso para la realizacion, por ejemplo, de baterias, para optimizar tanto en la duracion como la contaminacion de cuando se desechan, puesto que el oro mejoraria las propiedades de ese tipo de baterias.



METODOLOGÍA

Para la realización de películas de nanopartículas de oro y alcohol polivinilico se prepararon soluciones de HAuCl4 a distintas concentraciones (0.4 mM, 0.7 mM , 1.0 mM , 1.3 mM). Para la síntesis se preparó en viales una disolución de 0.02 g de quitosan en 5 ml de CH3COOH al 1%. Enseguida con el fin de homogeneizar la disolución se somete a una sonicación durante 30 min entre rango de temperatura de 30-35°C dejándolo reposar durante un día. Posteriormente se agregan 4g de la solución de HAuCl4, después se sonicó por un lapso de 2 horas a la temperatura antes mencionada. Éstas soluciones se dejan reposar unos días. Enseguida se preparó una solución de ZnO a 0.245 mM y se le agrega una determinada cantidad calculada (ésta depende de la concentración de HAuCl4) a cada uno de los viales y se vuelve a sonicar por 30 minutos a temperatura ambiente. Se preparó una solución de alcohol polivinilico (PVA) al 5%, se adiciona el 4% en peso de las muestras y se sonica 10 minutos. Y para concluir se le agrega el 2% de la masa total de la solución de líquido iónico, lo cual se vuelve a meter al sonicador por 10 minutos, el resultado de esto se vierte en una caja Petri de vidrio de 1.2cm de grosor y se introducen en el horno de secado a 45 °C hasta que se logre la consistencia deseada.


CONCLUSIONES

El líquido iónico es de suma importancia en la elaboración de películas, ya que ayuda a la interacción del flujo de electrones en el material, lo que permite que exista una resistencia en cada una de las películas, lo cual sirvió para calcular la conductividad presentada en las mismas; gracias a esto es posible emplearse en aplicaciones electroconductoras, como serían en sensores, celdas fotovoltaicas, diodos, entre otras. Las soluciones con 0.7 mM de concentracion mostraron una mayor conductividad que las demas, y las de 1 mM presentaron una mayor uniformidad en el tamaño de sus partículas.
Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara

OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES


OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES

Hernández Ramírez María Goretti, Universidad de Guadalajara. Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan. Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan. Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango. Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las micro, pequeñas y medianas empresas en México se enfrentan a un proceso de cambio a la cuarta revolución industrial tecnológica, también conocida como Industria 4.0, considerándose un gran reto debido a la falta de conocimiento, aplicación y difusión del tema. En consecuencia, las empresas deben adoptar nuevos conceptos que engloban una gran variedad de tecnologías que digitalicen los procesos. La digitalización ocurre cada vez más rápido, por lo tanto las empresas cambian la forma de hacer negocios y modifican procesos, aquel que no reinventa o innova, es dejado atrás por los competidores y el mercado, considerándose éste el problema. Es por la rápida digitalización que la resolución a nuestra problemática se enfoca en elaborar un instrumento para estimar el grado de madurez tecnológica que tiene una empresa y así saber cuáles son las áreas de oportunidad en las que se pueden implementar nuevas técnicas que aumenten la eficiencia, mejoren la calidad e impulsen la innovación hacia la industria 4.0, además de usar diferentes herramientas correspondientes al Estudio de Métodos con el fin de conocer los procesos para establecer formas de hacerlo mejor.



METODOLOGÍA

La investigación fue la parte fundamental para llevar a cabo este proyecto, realizada en las primeras semanas del programa con el propósito de obtener fundamentos sobre diferentes teorías que serían aplicadas más adelante. A fin de comenzar con el tema de la investigación, se incursionó sobre las revoluciones industriales que anteceden a la cuarta, comprendiendo gracias a las causas de cada revolución que para poder avanzar hacia i4.0, las empresas deben contar con procesos eficientes en su producción, de manera que estos lleguen a producir más con menos. Para lograr lo anterior, utilizamos como apoyo diferentes herramientas de gestión comenzando por el análisis de planta a través de la construcción de un layout, diagramas de proceso, de flujo, de recorrido, de hilo, de relación de actividades y la aplicación de 5’s; además de investigar sobre distintos conceptos como función de la producción, la teoría de las restricciones, teoría de los recursos y las capacidades, la frontera de posibilidades de producción, gestión del conocimiento, entre otros más, con el fin de saber cómo sería la empresa modelo. Teniendo el conocimiento de las distintas teorías mencionadas, comenzamos a elaborar el diagnóstico, como se requería saber el nivel de digitalización y sus áreas de oportunidad, analizamos todos los aspectos posibles en los que se podía preguntar para que los resultados a los reactivos nos arrojaran información precisa y concreta donde existían posibilidades de mejora. Las dimensiones seleccionadas para la herramienta diagnóstico son: administrativo, capital humano, operativo, de control, estrategia y de tecnología y digitalización. El diagnóstico y las diversas metodologías utilizadas fueron las herramientas de trabajo ideales para la investigación con el objetivo de visualizar la trayectoria a seguir por cada empresa en la fusión de la tecnología física con el mundo digital, hablando a futuro, debido a que como primer paso se considera la mejora en la distribución de planta y en sus procesos con el propósito de elevar la productividad, conseguir una mayor producción y al mismo tiempo nos reflejó el estado actual de la empresa y sus áreas de oportunidad.  La digitalización es un gran paso para las empresas y con ayuda de este diagnóstico se espera que se obtengan los resultados que nos indiquen cuales son las carencias de la empresa, para que se pueda actuar y resolverlas, con el objetivo de se tenga una trayectoria a seguir hacia la digitalización, para ofrecer producto de mayor calidad, tener clientes satisfechos y que se siga innovando para estar al día con las tecnologías o necesidades de los clientes.


CONCLUSIONES

Durante la estancia de investigación logramos adquirir nuevos conocimientos respecto a Industria 4.0 y todo lo que conlleva cumplir con los estándares necesarios que ésta requiere para poder alcanzar la digitalización en MiPyMes. Dentro del proyecto se consiguió visitar una pequeña empresa local en la ciudad de Guadalajara, Jalisco, con el fin de analizar y poder aplicar los conocimientos que se obtuvieron en la metodología, aunque al momento sólo se pudieron aplicar las herramientas de Estudio de Métodos, se espera también aplicar el cuestionario. Con ayuda de las herramientas de Estudio de Métodos se analizó el proceso de una empresa dedicada a la producción de válvulas para inyectores diesel; dentro del proceso intervienen distintas máquinas para obtener el producto final; el layout nos brindó información sobre si la distribución de la planta es adecuada; los diagramas se hicieron con el objetivo de mostrarnos si el recorrido del producto desde la llegada al sistema como materia prima hasta la salida en producto terminado es el óptimo, en cuanto a distancias recorridas; se aplicaron 5’s de acuerdo a las condiciones en las que se encontraba la empresa y de acuerdo a lo que nos arrojó el estudio de sus procesos, se considera que no se tiene una buena organización y limpieza del área de trabajo. Obteniendo resultados del análisis previo, se utilizará el cuestionario para lograr analizar las oportunidades, debilidades, fortalezas y amenazas a las que están susceptibles la empresa y se espera generar un nuevo modelo industrial en el que la innovación sea colaborativa, los medios productivos estén conectados y sean completamente flexibles así como que las cadenas de suministro estén integradas. Una vez adquiriendo los resultados de las dimensiones y siendo éstas calificadas conforme a la escala Likert, se vaciaron las respuestas en un formato de Excel hecho sólo con el fin de evaluar cada dimensión y arrojando el nivel o porcentaje de avance que se tiene en la empresa respecto a esa área, para finalmente analizar o determinar cuál es la dimensión en la que más existe un área de oportunidad y avance, pero sobre todo enfocado hacia la i4.0.
López Montes Karla Yukie, Instituto Tecnológico de Culiacán
Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO-MáQUINA RECONFIGURABLE


MICRO-MáQUINA RECONFIGURABLE

Alarcón Ortíz Oscar Amauri, Instituto Tecnológico de Pachuca. López Montes Karla Yukie, Instituto Tecnológico de Culiacán. Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En una era de mayor competencia global, las tendencias sugieren que las ventajas competitivas en la nueva economía global pertenecerán a empresas capaces de desarrollar productos altamente personalizados. Para competir, las compañías requieren el desarrollo de Programas de Desarrollo de Nuevos Productos con una fuerza laboral capacitada y con conocimientos, y estructuras de gestión flexibles que estimulen las iniciativas cooperativas dentro y entre las empresas. La incorporación de los conceptos de Desarrollo de Nuevo Producto (NPD) contribuirá al crecimiento de la empresa y su impacto y beneficios esperados crearán una industria más competitiva y empleos de mayor valor agregado.



METODOLOGÍA

El proyecto micro-máquina reconfigurable ha sido una herramienta utilizada en el Tecnológico de Monterrey en años recientes, con el propósito de crear prácticas interactivas y llevar a la realidad proyectos que involucran principalmente la conceptualización de sistemas de manufactura. Se ha utilizado como estudio de caso para observar el comportamiento de equipos multidisciplinarios y responde tanto a la educación colaborativa como educación activa; dónde el docente provee las herramientas y guías para canalizar el aprendizaje de los estudiantes, quiénes a través de investigación y posteriormente aplicación del conocimiento pueden diseñar sus productos, procesos y sistemas de manufactura. Por lo tanto, la micro-máquina reconfigurable es un sistema de manufactura capaz de ser adaptado a diferentes configuraciones para efectuar distintos procesos, involucra la participación de equipos multidisciplinarios y da cabida a la generación de productos novedosos. Durante el tiempo de estancia se otorgaron como objetivos particulares para la estancia de investigación: • Proveer una metodología a los candidatos para el desarrollo de productos, procesos y sistemas de manufactura. • Desarrollar módulos funcionales de la micro-máquina reconfigurable Para el desarrollo del proyecto, los siguientes marcos de referencia fueron utilizados: Integrated Product, Process and Manufacturing System Development (IPPMD) Smart, Sensing and Sustainable (S3) approach Para el desarrollo del proyecto, se llevaron cabo las siguientes actividades: Definir el módulo a desarrollar. Introducción a la metodología de trabajo por medio del curso en línea Desarrollo rápido de productos innovadores para mercados emergentes en la plataforma de Coursera. https://www.coursera.org/learn/innovacion Realizar el prototipo funcional del módulo definido.  Plan de mediciones del proyecto  Fase de construcción 1. Concepción: la fase de concepción del producto, así como las actividades de diseño serán previas a la estancia del Verano de Investigación. 2. Desarrollo: El desarrollo del prototipo funcional del módulo para la máquina reconfigurable se llevará a cabo durante la estancia de los candidatos en los laboratorios del Tecnológico de Monterrey, Campus Ciudad de México. Para la elaboración de los prototipos funcionales se dispone de instalaciones en CEDETEC dónde podrán llevar a cabo las actividades necesarias para su desarrollo.  Conformidad 1. Pruebas: El desarrollo del módulo será evaluado directamente con la micromáquina reconfigurable, por lo tanto, deberán realizarse pruebas de funcionamiento en la misma. 2. Entregable: En el periodo de tiempo que comprende la estancia deberá desarrollarse el prototipo funcional, siguiendo la metodología antes expuesta, y con un enfoque S3.


CONCLUSIONES

Ofrecer una solución como la micro máquina reconfigurable al problema de capacitación práctica de máquinas para los estudiantes de las carreras de ingeniería debe ser complementada con la adecuada inducción ya que por sí sola presenta nuevas áreas de oportunidad como el manejo de softwares de uso abierto que limitan en cierto punto la comunicación del lenguaje entre el diseño que se planea con los movimientos que debe realizar la máquina, el mejorable cambio de herramientas para que estas sean más seguras, aprendizaje de Código G exclusivo para los softwares de uso abierto y la limitada área de trabajo con las que cuentan. Que al contrastar las ventajas que posee como la fácil adquisición de piezas en caso de que se estropee por el uso algún componente , al uso de software de uso gratuito, el bajo costo a diferencia de máquinas de uso industrial y a un entorno de aprendizaje más seguro aunado al bajo costo de adquisición para las instituciones de educación hace de la micro máquina micro configurable un elemento de educación beneficiosa en un entorno de práctica para que los estudiantes tengan un primer acercamiento a los conocimientos que deberán requerir para desempeñar una labor más preparada en la industria
López Moreno Edgar Felipe, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

DISPOSITIVO PROGRAMABLE DE ENERGíA ELéCTRICA


DISPOSITIVO PROGRAMABLE DE ENERGíA ELéCTRICA

López Moreno Edgar Felipe, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

El conocimiento y la información correcta sobre el tema es indispensable para esta investigación, por lo tanto, es necesario conocer sobre el tema que será puesto a investigación tomando en cuenta todas las bases necesarias para ello. Requiriendo diversa información como implementación de Arduino, consumo de energía, dispositivos de carga, pruebas a electrónicos, NOM´s y eficiencia eléctrica.



METODOLOGÍA

Se llevó a cabo una serie de indagaciones para la captura de información previa para el entendimiento y desarrollo del Dispositivo Programable de Energía Eléctrica, una vez con los datos necesarios se procedió a un curso básico de Arduino para proceder a la implementación de este mismo a el Dispositivo Programable de Energía Eléctrica, previamente fue sometido a una serie de pruebas para observar se funcionamiento y así capturar la información deseada para posteriormente desarrollar y/o implementar una estrategia que permita la optimización del dispositivo tanto en energía como en utilidad. Gracias a la vasta información y facilidad de indagación que nos ha proporcionado el internet se pudo lograr esta misma de una manera sencilla y constante, tomando en mucha consideración páginas, libros, documentos, revistas, entro otros tipos de fuentes de información que sean confiables para la correcta obtención de datos. Por otra parte, gracias al curso previo ya elaborado del ing. Juan Ángel Ramos Ixta se elaboró de manera correcta el curso de implementación de Arduino al Dispositivo Programable de Energía Eléctrica, así como su funcionamiento, ensamblaje y la elaboración de estrategias para su optimización de energía y funcionamiento. En lo referente a energía, dado que el Dispositivo Programable de Energía Eléctrica es suministrado por energía eléctrica, este mismo fue sometido a una serie de pruebas para la proporción de datos necesarios, de igual forma se comparara con otros dispositivos distintos con las misma función, para su vez observar su comportamiento a los diferentes tipos de condiciones por consiguiente llegar a la implementación de nuevas estrategias para la reducción de energía suministrada al dispositivo(Dispositivo Programable de Energía Eléctrica) y así mismo un ahorro de energía eléctrica a comparación de otros dispositivos con la misma finalidad. Se llevó a cabo pruebas a distintos tipos de cargadores   lo cual realizaron su carga habitual de 0% al 100% para a su vez ir monitoreado la carga consumida del cargador que suministra energía a los distintos celulares de diferente marca (Apple, Samsung y GHIA). Una vez realizada su carga al 100% estos se sometieron a una prueba posterior para nuevamente obtener nuevos datos de lo que ocurría con la alimentación del cargador al llegar a su carga máxima los cual se obtuvo la siguiente información representada a continuación en las tablas y gráficas.


CONCLUSIONES

De acuerdo con la información obtenida por las pruebas se espera que el Dispositivo Programable de Energía Eléctrica sea mayor eficiente y con un mayor ahorro de energía eléctrica a comparación de otros dispositivos, de no ser así, se implementara una nueva estrategia que logre el objetivo ya mencionado.
Lopez Moreno Lorenicela, Universidad Autónoma de Occidente
Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente

ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO


ELABORACIÓN DE MERMELADA DE ELOTE CON ARÁNDANO (BLUEBERRY) Y AMARANTO

Aguiar Bernal Perla Denise, Universidad Autónoma de Occidente. Garcia Valenzuela Siria Alejandra, Universidad Autónoma de Occidente. Guardado Cano Gloria Paulina, Universidad Autónoma de Occidente. Lopez Moreno Lorenicela, Universidad Autónoma de Occidente. Asesor: M.C. José Luis Valdés Vega, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

El Fuerte es el único municipio en el noroeste de México en producción de arándano y Sinaloa es el principal productor de maíz en el país, registrando una producción anual superior a 6 millones de toneladas en las cosechas. Sin embargo más del 50% de la materia prima se exporta a otros lugares sin ser transformada en otros productos, por lo que se decidió hacer mermelada a base de arándano azul con elote debido al gran número de producción de estos que hay en la región.



METODOLOGÍA

Se elaboró una mermelada nueva, hecha de elote y arándano azul, ya que estos alimentos son considerados originarios de la región, en el estado de Sinaloa. Se realizó una mermelada en el laboratorio de alimentos de la Universidad Autónoma de Occidente unidad Los Mochis, de acuerdo a la norma CODEX para las frutas jaleas y mermeladas (CODEX STAN-296-2009), de acuerdo a la descripción de mermelada de agrios. Para esto se realizó un diseño de mezclas hasta encontrar los parámetros ideales de la mermelada como color, olor, sabor, pH, °Bx, actividad de agua, entre otros.


CONCLUSIONES

RESULTADOS PRUEBA 1  pH:3,°Bx:59, % humedad:2.6 %,temperatura: 28°C,  Actividad de agua: 0.858aw / 25.9°C PRUEBA 2 pH:3,°Bx:64, % humedad:2.8 %,temperatura: 28.2°C,  Actividad de agua: 0.742aw / 25.3°C CONCLUSIÓN Se logró cumplir con el objetivo de la investigación el cual fue elaborar una mermelada a base de elote y arándano (Blueberry) con amaranto. El diseño de mezclas de los parámetros ideales de la mermelada fue la prueba 1. Fue una estancia que nos dejó un aprendizaje significativo ya que conocimos materiales y técnicas en el laboratorio de alimentos, reforzando los conocimientos adquiridos durante la carrera.  
López Nuño Aranza Lizbeth, Universidad Autónoma de Baja California
Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE MESOPOROS DE TITANIA


SíNTESIS DE MESOPOROS DE TITANIA

López Nuño Aranza Lizbeth, Universidad Autónoma de Baja California. Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El objetivo de la investigación es desarrollar un nuevo método para sintetizar mesoporos de titania de una forma fácil, económica y reproducible. Los materiales mesoporosos son aquellos que en su estructura contienen poros de tamaño variante entre 2 y 50 nm. Existen varios métodos para su obtención, en este trabajo se utilizó uno de ellos; además, se realizaron variaciones en ciertos parámetros importantes para ver la influencia que tienen en la mesoporosidad y estructura cristalina del material final. Dichos materiales tienen muchas aplicaciones, por ejemplo, se utilizan para eliminar contaminantes orgánicos en aguas residuales que no pueden ser tratados con métodos convencionales, por ello se evalúa la aplicabilidad de catalizadores basados en TiO₂.



METODOLOGÍA

Los reactivos utilizados fueron: Butóxido de Titanio (Ti(OBu)₄) Hidróxido de Sodio (NaOH) CTAB Agua destilada Peróxido de hidrogeno. El método que se eligió para sintetizar nuestro material es sol-gel con tratamiento hidrotérmico el cual se describe a continuación: Se requirió pesar Butóxido de Titanio (Ti(OBu)₄) en cámara de vacío con un bajo porcentaje de humedad, en un frasco con agitador y tapa (S1). Para preparar solución 2 (S2) se pesó peróxido de hidrogeno (H₂O₂) y CTAButilizando mascarilla especial, se mezclaron ambos reactivos en un vaso de precipitado con agitador y se colocó en la parrilla hasta homogeneizar. Para preparar solución 3 (S3) se pesó el hidróxido de sodio (NaOH) y agua destilada (H₂O), se mezclaron los reactivos en un vaso de precipitado. Se incorporó el S1 y S2 colocando frasco con S1 sobre la parrilla sin agregar temperatura a 50 rpm y se agregó S2 gota a gota cada 10 segundos hasta terminar. Posteriormente se agregó gota a gota S3 a S1 + S2 cada 10 segundos hasta terminar S3 (continua agitación). A continuación se ajustó la temperatura en la parilla a 40 ⁰C y continuó agitación a 50 rpm por 24 horas en frasco cerrado. Después se sometió la solución a tratamiento térmico de 80⁰C por 24 horas en frasco cerrado, se lavó con agua destilada, se realizó centrifugado a 12000 rpm durante 10 minutos (se repitió ambos pasos 3 veces), se vació el agua destilada dejando el polvo al fondo del envase y se sometió a secado  a 80⁰C por 24 horas. Una vez obtenido el material final se calcinó a 560⁰C por una hora con una rampa de 5⁰C por minuto.


CONCLUSIONES

Como se mencionó el procedimiento fue sencillo por lo que se realizaron 10 síntesis con distintas variaciones en parámetros durante la estancia de investigación, a pesar de no poder realizar el análisis de caracterización debido a que los equipos con los que cuenta la universidad se encontraron saturados se calculó la densidad de cada síntesis para tener una idea de cómo afectó la variación de ciertos parámetros en el material final. De igual forma, el trabajo a futuro para estas investigación que se está realizando será la caracterización por microscopía electrónica de barrido, difracción de rayos x y análisis de área superficial. Gracias a esta investigación adquirí conocimientos en química, conocí las aplicaciones de materiales mesoporosos y adquirí experiencia con el trabajo en un laboratorio.
Lopez Ortiz Laura Tatiana, Universidad Antonio Nariño (Colombia)
Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa

BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTóBAL DE LAS CASAS, CHIAPAS


BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTóBAL DE LAS CASAS, CHIAPAS

Lopez Ortiz Laura Tatiana, Universidad Antonio Nariño (Colombia). Pineda Nieto Adriana, Instituto Tecnológico de Tapachula. Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa



PLANTEAMIENTO DEL PROBLEMA

En San Cristóbal de las Casas, Chiapas se identificaron 7 socios del sector llantero los cuales se determinaron como los más competitivos de dicha ciudad, para realizar un estudio con el objetivo de conocer las prácticas de gestión de calidad y procesos   que cada uno realiza, además de los productos y marcas que manejan con el fin de establecer las estrategias que les ayudan a colocarse como los más competitivos en este sector.



METODOLOGÍA

El análisis bibliométrico inicia con la primera fase donde se realiza la técnica del estado del arte con criterios de selección de artículos centrando su temática en Benchmarking, negocio llantero, y metodología benchmarking esto plasmado en una matriz de revisión bibliográfica donde se podrá visualizar cada característica de la información encontrada en cada artículo y dando cumplimiento a la temática ya establecida en la investigación. Dentro de esta primera fase también se encuentra la caracterización de socios del benchmarking empresas llanteras de la ciudad de San Cristóbal de las casas, Chiapas, como criterio que cumplan con el mínimo de especificaciones como venta e instalación de llantas y otros servicios, sin tener en cuenta las microempresas, esto por medio de una entrevista estructurada dirigida al gerente de cada empresa. Después de lo anterior se procedió a agrupar la información de las llanteras y realizando una matriz donde se visualiza los servicios, productos, marcas de llantas y otros aspectos que manejan las mencionadas anteriormente. Posteriormente se define los indicadores de desempeño a evaluar para realizar comparación entre empresas y de acuerdo con los investigadores se establecerá los datos como nivel de confianza y margen de error, para definir el tamaño de la muestra con respecto a una población finita de la cual se realizará las prácticas necesarias para medir el nivel en que se encuentra cada empresa. Para una segunda fase se estructura una serie de encuestas dirigidas a empleados y clientes para evaluar los indicadores a medir, y se aplica el cálculo de fidelidad de las encuestas; además de esto se realizar una identificación de las prácticas de gestión de calidad en cada una de ellas. Como tercera fase se realiza una serie de recomendaciones y mejoras para subir el nivel de competencia entre los socios del Benchmarking y mostrar las fallas actuales en la organización, con esto se establece el alcance de la investigación.


CONCLUSIONES

Durante la estancia se logró poner en práctica los conocimientos del Benchmarking a los 7 socios de la industria llantera de la ciudad de San Cristóbal de las Casas. Obteniendo un promedio general de 80.17% , superando el mínimo esperado del 70%, reflejando este promedio en los indicadores de satisfacción del cliente, calidad del servicio, mejora del proceso, instalaciones y ubicación. Sin embargo, al ser un estudio que se hace un poco extenso de parte de los socios participantes y resistencia al cambio de estos mismos, se queda inconcluso en la fase 3 dando las respectivas recomendaciones para cada socio participante.
Lopez Parra Vanessa, Instituto Tecnológico de Tepic
Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)

FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL


FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL

Hernández Franco Mariana, Universidad Veracruzana. Herrera Fletes Denyce, Instituto Tecnológico de Tepic. Lopez Parra Vanessa, Instituto Tecnológico de Tepic. Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia). Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea. Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este documento se planteará una comparación entre la manufactura tradicional y la manufactura aditiva por impresión en 3D para la fabricación de una prótesis transtibial de modo que se resuelva la cuestión: ¿Por qué el proceso de manufactura aditiva es mejor que el proceso de manufactura tradicional?



METODOLOGÍA

Este documento es un proyecto de investigación de tipo cualitativo en el que se pretende hacer una comparación entre la fabricación de una prótesis de extremidad inferior transtibial a través de manufactura tradicional y manufactura aditiva, con el objetivo de analizar las dos modalidades de la manufactura y determinar el impacto que estas generan desde una perspectiva multi criterio que comprenda el aspecto ambiental, social y económico. Para la identificación del problema se realizará un Value Streaming Map (VSM), con la finalidad de identificar la raíz del problema, las causas y los efectos del problema. Para la recopilación de información se hará una revisión del estado del arte y análisis de la bibliografía encontrada en bases de datos de artículos científicos.


CONCLUSIONES

La manufactura aditiva se ha proyectado para reemplazar a la manufactura tradicional; emplear la impresión en 3D para transformar un modelo digital en un objeto físico presenta ciertas ventajas y se considera como un proceso de manufactura sustentable. Sin embargo, actualmente carece de cierta rigidez necesaria para su introducción total en la industria manufacturera. Esto representa un desafío para la ingeniería y un gran avance para la industria en su objetivo por llegar a la industria de la tecnología y la digitalización.
López Pérez Luis Fidel, Instituto Tecnológico de Pachuca
Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO SERVICIOS DE NOTIFICACIONES PARA LA CALIDAD DEL AIRE EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.


MICRO SERVICIOS DE NOTIFICACIONES PARA LA CALIDAD DEL AIRE EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.

López Pérez Luis Fidel, Instituto Tecnológico de Pachuca. Sánchez Oropeza Francisco Javier, Instituto Tecnológico de Pachuca. Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey Estudiantes: Francisco Javier Sánchez Oropeza, Instituto Tecnológico de Pachuca francisco_tuzo08@hotmail.com Luis Fidel López Pérez, Instituto Tecnológico de Pachuca Luis.f2.10995@gmail.com PLANTEAMIENTO DEL PROBLEMA La ciudad de México es una de las ciudades más habitadas del planeta lo que ha ocasionado un alto índice de contaminación y sobrepoblación, haciendo esta última que la demanda de uso de transporte sea excesiva, dando como resultado la congestión del tráfico terrestre. Asimismo, para 2019 México desplazaría a Japón del décimo lugar en habitantes. La contaminación atmosférica es un problema tanto local como global que se ve muy repercutido en la ciudad de México, la cual es provocada por la emisión de determinadas sustancias resultantes de sus reacciones químicas como la quema de combustibles fósiles, provocan efectos perjudiciales para el medio ambiente y la salud.   



METODOLOGÍA

METODOLOGÍA Se desarrolló un servicio de notificación que le proporcione al usuario mostrar los índices de la calidad del aire en la zona en la que se encuentra, notificaciones para considerar precauciones a partir del nivel de contaminación que hay en dicha zona de la ciudad, y por último, pero no menos importante, recomendaciones para usuario. La implementación de esta aplicación ayudara a evitar que las personas padezcan de enfermedades o malestares por exposición a altos niveles de contaminación, tomar conciencia de la contaminación ambiental, así como el elegir alternativas de modo de traslado más ecológicas. Para dicho desarrollo lo primero que se realizo fue la Selección del crawler y web scraper para el recopilado de información en Twitter de acuerdo a los siguientes criterios de búsqueda y recopilación (Crear tabla comparativa de las herramientas): Geolocalización (regiones o coordenadas) Keywords Tiempo Usuario (cuenta verificada, antigüedad...) Por lo consiguiente se definió la estructura de la base de datos en MongoDB, con la obtención de una pequeña muestra (100 tweets aprox.) de diferentes tiempos, usuarios y localizaciones para modelar. Para dicha muestra fue necesario hacer una limpieza y preparación de dichos datos, para finalmente integrarlos a base de datos. También se realizó un scraping de la página web oficial de la calidad del aire de CDMX para obtener datos en tiempo real de lo que sucede en las estaciones localizadas en cada una de las delegaciones de la ciudad. Se investigaron algoritmos, herramientas y frameworks para el procesamiento de lenguaje natural, análisis de sentimientos y predicciones, en los lenguajes Java, C, C# o Python Por último, se selección de la tecnología para desarrollar el backend y frontend, para la visualización de la información y servicio de notificaciones a través de una aplicación web progresiva que informe y dé recomendaciones a las personas. Esto fue representado en un semáforo de forma gráfica, de tal modo que muestre al usuario el índice de calidad de aire que hay en la zona en que se encuentra el usuario en la Ciudad de México y zona metropolitana.  


CONCLUSIONES

CONCLUSIONES Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la recolección de datos de una red social (Twitter), así como el manejo de ellos en una base de datos no relacional (Big Data), se experimentaron e investigaron nuevas herramientas para el desarrollo del proyecto. En el desarrollo del proyecto se extendió ya que es un tema muy complejo y se tuvieron que usar herramientas previamente no dominadas y conocidas, haciendo esto un obstáculo para la terminación del proyecto.
Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.


MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.

Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango. Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango. Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca. Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca. Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de las tareas mas importantes en robotica es la deteccion de obstaculos, esta tarea ha sido estudiada por decadas, uno de los principales problemas en la misma es considerar la incertidumbre en los sensores, este problema se incrementa considerando los ambientes estructurados en los cuales debe navegar los robots de servicio. Entre las diversas opciones tecnologicas una de las mejores son los sensores ultrasonicos, que, aunque son complicados de modelar, su respuesta es rapida y segura para ser implementados en ambientes no controlados. Sin embargo, en el caso de la medicion con cierto tamaño y orientacion no sean visto por el sensor, o que en general aparezcan mas lejos de lo que realmente estan, para esto se necesita implementar un algoritmo para la cracion de mapas de ocupacion para la deteccion de obstaculos aplicado en un robot movil de servicio. Será diseñado en LabVIEW y mediante un análisis estadístico se construirá un modelo probabilista del sensor para mejor la detección, además de utilizar un modelo logarítmico para crear y fusionar los mapas temporales en un mapa global único.



METODOLOGÍA

Considerando un ambiente estructurado, en el cual navega el robot, es necesario considerar primero un modelo estatico del sensor que permita parametrizar el funcionamiento del sensor bajo incertidumbre. Considerando los parametros estadisticos y mediante una validacion estadistica es posible estimar el funcionamiento del sensor considerando que el valor no siempre es confiable. Extendiendo este analisis a un proceso dinamico, es posible considerar los efectos del movimiento del robot en la deteccion y como esta afecta en la incertidumbre, esto nos permite refinar la deteccion y tener una mejor respuesta en la contruccion del maoa y por lo tanto en la deteccion y despazamiento del robot en el ambiente. El modelo del robot considera diversos aspectos, como, por ejemplo: el espacio donde el robot se desenvolvera y el entorno del cual recibira informacion para establecer las instrucciones de programacion correctas. Fijar el valor de la velocidad a la cual el robot seguira una pared y asi determinara si el programa cumple con las restricciones establecidas.  


CONCLUSIONES

Es un proyecto muy viable que forja los conocimientos de practicantes de robótica, como de estudiantes de ingeniería en electrónica, mecatrónica, sistemas computacionales y en el área de control, por tanto se debe cumplir con ciertos conocimientos de las diversas ramas mencionadas para llevar a cabo éste proyecto. La finalidad de la práctica ha sido poner a prueba los conocimientos adquiridos a lo largo de los pequeños proyectos anteriormente realizados, ya que se necesita saber el manejo del sensor ultrasónico y del control y ajuste de la velocidad de los motores, para elaborar un programa que establece instrucciones al robot para seguir una pared.
López Ramos Ingrid, Instituto Tecnológico de Toluca
Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)

MODELO DE SIMULACIóN CON DINáMICA DE SISTEMAS PARA REPRESENTAR COMPORTAMIENTO DE LA EFICIENCIA ENERGéTICA EN LA INDUSTRIA


MODELO DE SIMULACIóN CON DINáMICA DE SISTEMAS PARA REPRESENTAR COMPORTAMIENTO DE LA EFICIENCIA ENERGéTICA EN LA INDUSTRIA

López Ramos Ingrid, Instituto Tecnológico de Toluca. Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Para las actuales industrias, la eficiencia energética (EE) es un tema de gran importancia debido al constante incremento en los precios de energía, especialmente del petróleo que llegará a ser insostenible, las políticas medioambientalistas que son cada vez más exigentes, reservas de combustibles fósiles que están sujetos a circunstancias políticas que lo hacen poco estables, produciendo incertidumbre y fluctuaciones en el precio. De aquí parte el interés por analizar el comportamiento de la EE en la industria evaluando su consumo energético y la posibilidad de reducirlo a partir del ahorro energético, así como el impacto en la competitividad económica, sustentabilidad, reducción de emisiones de Co2 y retorno de inversión.



METODOLOGÍA

La metodología empleada se basa en la Dinámica de Sistemas la cual nos permite expresar en un lenguaje matemático los modelos verbales y realizar asi la construcción de un modelo de sistema para analizar el comportamiento de la eficiencia energética en la industria, así como relaciones y los conjuntos que a partir de ella emergen. Esto se lleva a cabo a través de la propuesta de una hipótesis dinámica y la presentación de un modelo dinámico, los cuales utilizan una perspectiva de análisis basado en la información de realimentación (feedback) y la causalidad que permitirá obtener importantes conclusiones sobre la utilidad del enfoque sistémico aplicado al sector industrial. En esta investigación se utilizó el programa Vensim para desarrollar la hipótesis y el modelo dinámico.


CONCLUSIONES

Como resultados preliminares de la aplicación del enfoque sistémico para estudiar un fenómeno complejo como es el comportamiento de la eficiencia energética en la industria mediante dinámica de sistemas, se puede consumar que al comparar las siguientes variables en Vensim: Efecto de la disponibilidad, Emisiones de Co2, Potencia disponible, Reducción de demanda, ROI y el crecimiento de innovación tecnológica; se observó que si existe un descenso en la potencia disponible, el efecto de la disponibilidad de los costos se mantiene por un periodo, sin embargo, con el tiempo se observa un aumento drástico, lo que comprueba que a menor disponibilidad los costos por energía aumentan. Estos costos por energía se ver reflejados de igual manera en el ROI, el cual manifiesta una disminución a partir del aumento en los costos. Por otro lado, aún hay incertidumbre en el comportamiento que tienen las emisiones de co2 y demanda en relación con las demás variables debido a que, a menor potencia disponible las emisiones de co2 deberían ser menores o disminuir sin embargo aumentan. De igual manera pasa con el crecimiento de innovación tecnológica, ya que a menor ROI este se debería ver afectado disminuyendo, no obstante, este se mantiene. La razón de estos comportamientos se debe a que faltan elementos que ayuden a complementar la relación entre las variables.
Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
López Romero Gustavo Alfonso, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Ing. Inés Zazueta Gutiérrez, Instituto Tecnológico de Colima

DISEñO DE MUROS VERDES UTILIZANDO RESIDUOS PLáSTICOS INDUSTRIALES CON LA AYUDA PRINCIPAL DE LA ENERGíA FOTOSINTéTICA PARA LA GENERACIóN DE ELECTRICIDAD AUTOSUSTENTABLE.


DISEñO DE MUROS VERDES UTILIZANDO RESIDUOS PLáSTICOS INDUSTRIALES CON LA AYUDA PRINCIPAL DE LA ENERGíA FOTOSINTéTICA PARA LA GENERACIóN DE ELECTRICIDAD AUTOSUSTENTABLE.

López Romero Gustavo Alfonso, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Romero Cordova Marbelly, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Ing. Inés Zazueta Gutiérrez, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo se ha estado acumulando la necesidad incesante de cuidar el planeta, justamente pensando en esta problemática es que la Organización de la Naciones Unidas desarrolló y acordó una solución que se tiene que implementar de manera progresiva y constante.      Los Objetivo de Desarrollo Sostenible fueron concebidos para poner fin a múltiples problemáticas, la pobreza, el hambre, el déficit de educación de calidad, pero si no se erradica la pobreza no abra desarrollo sostenible según la (ONU, 2015).        La agenda 2030 plantea un total de 17 objetivos pensados para un mundo mejor mañana, implementándolos en el hoy. El Proyecto aquí presentado va enfocado a combatir siete objetivos los cuales son: Acción por el clima, Energía asequible y no contaminante, Salud y bienestar, Ciudades y comunidades sostenibles, Agua limpia y saneamiento, Vida de ecosistemas terrestres, Industria innovación e infraestructura.



METODOLOGÍA

Se fundamentó de un estudio de investigación documental que busca la sustentabilidad de los proyectos (The World Bank, 2011) de muros verdes desarrollado con plantas trepadoras para exterior que cuentan con el potencial de generar electricidad.        De acuerdo con Constantino (1993). Define la investigación documental, como una serie de métodos y técnicas de búsqueda, procesamiento y almacenamiento de la información contenida en los documentos, en primera instancia, la presentación sistemática, coherente y suficientemente argumentada de nueva información en un documento científico. en el presente proyecto se acudió a utilizar los siguientes tipos de investigación.       Investigación documental: Para llevar a cabo este tipo de investigación fue necesario indagar en artículos científicos, tesis, informes de investigación, entre otros.        Investigación de campo: Para la implementación de este proyecto fue necesario la toma de muestras reales, para lo cual se recurrió a la medición de la tensión presente en plantas trepadoras.       Investigación experimental: esta etapa consistió en realizar muestras en un espacio controlado con material aislante y espacios a la intemperie, obteniendo de esta manera datos relativamente distintos que se clasificaron para su posterior uso.      De manera general y con el fin de sondear a la población económicamente activa se estipulo una encuesta para conocer la percepción de las personas interesadas en la ayuda del medio ambiente, conocimiento previo de las ODS y muros verdes, así como los beneficios obtención de electricidad de las plantas.


CONCLUSIONES

En el transcurso del XXIV verano de investigación fue posible obtener conocimiento tanto documental, experimental, indagación y conocimiento empírico.      Se recurrió a la investigación documental para obtener una visión panorámica para entrar en contexto y de esta manera tener los fundamentos para llevar a cabo la investigación experimental, para la cual fue necesario la utilización de un multímetro, y un par de placas de distintos materiales. Para la realización de pruebas y las mediciones correspondientes para su posterior análisis; de los datos pudimos constatar que efectivamente se obtuvo una diferencia de potencial.        En cuestión de la investigación de indagación se logró conocer las tendencias nacionales para saber a hacia donde van encaminadas las nuevas tecnologías de muros verdes.      En lo referente a la investigación de la situación actual del fenómeno de Muros Verdes en nuestra sociedad, se recurrió al diseño y distribución de una encuesta, para saber de manera más directa lo que piensan y conocen acerca de las ODS´s y muros verdes, de manera general y a grandes rasgos se concluyó que las personas quieren ayudar al entorno, están de cierta manera conscientes de la problemática del medio ambiente, pero no saben cómo poder ayudar, se analizó también el porcentaje de la muestra de la población a la que nos dirigimos que está dispuesta a pagar más de 1000 pesos. Se alcanzó de manera efectiva el cumplimiento de los objetivos de esta investigación debido a que, si se obtuvo una diferencia de potencial presente en la rizosfera, para la generación de energía de las plantas, y en consecuencia hay una mejora en el medio ambiente.      Otro de los objetivos era aprovechar los residuos plásticos en el muro verde, se cumple debido a que dicho muro está constituido por una estructura de madera plástica de residuos.      Se presentaron grandes hallazgos en las muestras realizadas con las plantas, obteniendo lecturas de tensión significativas, en el sentido de producir su propia electricidad de iluminación, el valor agregado radica en aprovechar la energía renovable y autosustentable producida por la planta que adorna al muro verde. Sin embargo, al ser un extenso trabajo aún se encuentra en proceso de desarrollo.       Con todo esto logramos confirmar nuestra hipótesis de reducir el impacto mediante el aprovechamiento de los residuos plásticos industriales para la formación de estructuras sólidas para muros verdes con plantas trepadoras que tienen potencial para generar energía eléctrica mediante la rizodeposición de las mismas.      De manera significativa no cabe duda, que los conocimientos adquiridos en este verano de investigación servirán para la posterior formación tanto académica como personal.
Lopez Sanchez Juan, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.


ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.

Gómez Abreu José Ángel, Instituto Tecnológico Superior de Los Ríos. Lopez Sanchez Juan, Instituto Tecnológico Superior de Los Ríos. Romero Gudiel Jesus del Carmen, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

El propósito de este proyecto de investigación es la realización de mejoras de seguridad que eliminen riesgos en la empresa “Beneficiadora el Fénix” la cual se encuentra implementando el proyecto de fabricación de hule granulado y es de gran importancia conocer los riesgos laborales a los que están sometidos sus empleados en las largas horas de trabajo, se visualiza que en el proceso de lavado, existe mucha humedad debido al exceso de agua que utilizan para el primer lavado de hule el espacio es muy reducido para los siguientes procesos, por lo que se presenta el riesgo latente , lo que puede afectar la integridad física del trabajador en todos los procesos de la producción, además de eso la empresa no son visibles sus señalamientos de seguridad, ya que los canales de desagüe no cuentan con todas las cubiertas y existe aberturas en los canales de desagüe lo que provoca que existan riesgos latentes, en todos los procesos se logra percibir demasiado ruido ocasionado por el funcionamiento de las maquinas lo que puede provocar daños a la salud de los trabajadores no cuentan con el equipo de protección adecuada para cada área, en el proceso de pesado la salud física se puede ver afectada por los actos inseguros a raíz de la falta de capacitación con medidas de prevención o por las condiciones inadecuadas existentes a través de factores como la alta temperatura que son producidas por el área de trabajo y por las altas temperaturas en esta época del año. Lo anterior se debe posiblemente a la falta de normas de seguridad e higiene, por ejemplo que no hallan suficientes señalamientos de prevención, la falta de equipo de protección personal, la falta de ventilación, los intensos ruidos, esto pone en riesgo la salud de los empleados.



METODOLOGÍA

Enfoque de la investigación. Investigación cuantitativa La investigación tiene este enfoque debido a que se emplea la recolección de datos para verificar los riesgos existentes o posibles riesgos, en base al análisis de la perspectiva del trabajador en relación a su seguridad en sus labores , con el fin de establecer medidas de seguridad, con el objetivo de controlar y/o eliminar posibles riesgos. El tema central de estudio es el análisis de los riesgos a los cuales se encuentran expuestos los trabajadores durante el proceso de deshidratación de hule. Diseño de la investigación. Se considera una investigación de este tipo, debido a que este tipo de estudios se realizan sin la manipulación deliberada de las variables, en los cuales sólo se observan los factores en su ambiente natural para analizarlos y/o reportarlos La recolección de datos, en el análisis de riesgo dentro de todo el proceso, únicamente se realizará una propuesta de mejora a la empresa, es decir, no se modificará el sistema actual con la que ellos operan, ya que, aunque fuera práctico, el tipo del estudio es corto, por lo que la fase implementación se tendría que realizar en una segunda etapa y darle seguimiento para ser aplicada. Alcance de la investigación. Estudio Descriptivo. Busca controlar y eliminar las causas de los riesgos y/o posibles riesgos a los que están expuestos los empleados en su área laboral, a la hora de realizar sus actividades con el manejo de herramientas y maquinarias, lo que pueda causar accidentes.


CONCLUSIONES

De acuerdo al análisis realizado dentro del área de máquinas del proceso de hule granulado se indentificaron riesgos físicos, mecánicos, biológicos, ergonómicos, eléctricos y por temperatura de los cuales el que más se presenta o que más daño causa a los trabajadores son los riesgos físicos, es por ello que se plantea soluciones que ayuden ala eliminación de dichos riesgos, Además de eso una buena gestión de los riesgos traerá como sabemos muchos beneficios ala organización.
Lopez Valdovinos Mario Ivan, Instituto Tecnológico de Tepic
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

IMPLEMENTACIÓN DE REGLAS DE CONOCIMIENTO DEL DOMINIO PARA UN ALGORITMO DE APRENDIZAJE REFORZADO PARA LA OPTIMIZACIÓN DE SECUENCIAS DE SOLDADURA


IMPLEMENTACIÓN DE REGLAS DE CONOCIMIENTO DEL DOMINIO PARA UN ALGORITMO DE APRENDIZAJE REFORZADO PARA LA OPTIMIZACIÓN DE SECUENCIAS DE SOLDADURA

Lopez Valdovinos Mario Ivan, Instituto Tecnológico de Tepic. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

En la industria manufacturera la reducción de costos y mejoras de calidad son factores claves para el aumento de la competitividad. La soldadura es uno de los procesos de fabricación que cuenta con una amplia gama de aplicaciones en la industria de manufactura, los recientes adelantos en la simulación de procesos de manufactura han tomado mayor importancia dentro del diseño y planeación para el desarrollo de nuevos productos. Uno de los grandes adelantos es la implementación de técnicas de inteligencia artificial (IA).  El presente trabajo, propone un sistema inteligente basado en el algoritmo Reinforcement Learning + Domain Knowledge, para determinar la óptima secuencia y dirección de la aplicación de soldadura. Donde la función objetivo es evaluada por un software de simulación de soldadura que utiliza el método de elemento finito (FEM).



METODOLOGÍA

Lo que se realiza para aplicar las técnicas de RL y DK es lo siguiente: Se inicia con la ejecución de todas las posibles combinaciones de cordones de soldadura independientes, y usando ambos sentidos, por ejemplo: si se cuenta con 3 cordones de soldadura en la pieza, se ejecutarán de manera independiente las siguientes combinaciones: 1+, 1-, 2+, 2-, 3+, 3-. Una vez finalizada la ejecución, se obtendrá la deformación máxima, de cada una de las posibles combinaciones. Para esto, el algoritmo seleccionará el cordón de soldadura que causa la menor deformación. En el siguiente paso, el algoritmo mediante la técnica de DK, se calculan las distancias desde el centro de masa de la pieza hasta el punto inicial y final de cada una de las combinaciones, a su vez, calcula una caja térmica de límite por cada una de las distintas combinaciones de los cordones de soldadura. El algoritmo regresa a la ejecución de la técnica RL, la cual lanza un número aleatorio para decidir si hará exploración o explotación. Previamente se define el porcentaje de azar que se tomara en cuenta para el valor del numero aleatorio, en este caso y como ejemplo, se considera 20% exploración, y en consecuencia, 80% explotación. Por lo cual, si el número aleatorio es menor a 0.2 hará exploración, y si se obtiene un valor aleatorio mayor a 0.2 hará explotación. Si el algoritmo ejecuta explotación tomará en cuenta el valor mínimo de la deformación obtenido por la técnica RL. En cambio, si selecciona exploración tomará en cuenta el cordón de soldadura más cercano al centro de masa, y si se tiene una soldadura anterior, entonces, tomara en cuenta los límites de la caja térmica de cada cordón, evitando así soldar el cordón con el que encuentre un cruce en sus cajas térmicas. Para cada nueva combinación de cordones de soldadura se ejecutará el algoritmo completo, esto quiere decir, que se puede tener el primer cordón obtenido por medio de explotación y los siguientes por medio de exploración, todo dependerá del número aleatorio obtenido en cada corrida del algoritmo. Por ejemplo: 2+ (exploración), 3- (explotación), 1- (explotación), de esta manera se tendría la secuencia: 2+,3-,1- aplicando la técnica RL+DK. Para este caso se desarrolló un software en Python que genera las cajas térmicas de límite para cordón de soldadura analizando los puntos de trayectoria que genera el programa Simufact Welding y transformándolos a un archivo STL con las características deseadas de la caja térmica, siendo para este caso particular 30 mm circundantes a cada punto proporcionado, además de también a partir de estos determinar el punto inicial y final de cada cordón de soldadura tomando en cuenta las especificaciones del diseñador y proporcionar un archivo de texto con las coordenadas de los mismos. Se creó además un módulo que mediante los datos proporcionados de punto inicial y final determina la distancia euclidiana a cada una de estas y la asocia con la dirección del cordón en un archivo de texto para que este sea procesado por el algoritmo principal. Una vez desarrollado el software de las cajas térmicas y distancias euclidianas se desarrolló otro, con la finalidad de organizar los datos y archivos necesarios para el algoritmo RL + DK y ejecutar los todos los módulos por primera vez para obtener los datos necesarios para el funcionamiento del mismo como lo es el generador de cajas de limite térmico y la calculadora tanto de centros de masa como la de distancias euclidianas. Ya en orden todos los datos a procesar por el algoritmo principal por último se acoplaron todos los módulos y se programó un último software que procesa las distancias euclidianas y las cajas de limite térmico y toma la decisión del siguiente cordón a soldar, y este pasa a sustituir el dato obtenido mediante simulación el algoritmo principal, fusiona las piezas en formato STL, calcula los centros de masa y distancias euclidianas para finalmente pasar a la siguiente iteración del mismo u tomar la decisión sobre la siguiente rama.


CONCLUSIONES

Del software de cajas de limite térmica se obtiene los datos necesarios para su análisis en el algoritmo principal, pero estos tiende a deformarse levemente si los datos proporcionados por el simulador no conservan una continuidad lógica, pero este se acopla sin problema alguno sin sufrir repercusiones en el análisis de colisión de cajas contra inicio de soldadura, e igualmente es de gran ayuda el organizador de datos ya que permite ubicar todos los archivos y procesos con nombres ordenados y si algún proceso está teniendo resultados anormales se analizan cada archivo para poder encontrar una solución de manera más eficiente. El algoritmo RL+DK obtiene una baja deformación total, pero la verdadera ventaja de la implementación de este algoritmo son sus tiempos de simulación que son menores hasta en un 70% con respecto a otras técnicas de inteligencia artificial implementadas donde se obtuvo una deformación total menor, esto se debe a la eliminación de simulación en cada rama cuando se implementa exploración y se realiza la selección del cordón, por medio del cálculo de la menor distancia euclidiana y cálculo de cajas térmicas, esto elimina significativamente los tiempos de simulación.
López Zavala Luis Fernando, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Loredo Perez Ruben Ivan, Instituto Tecnológico de Matamoros
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

CREACIóN DE UNA BIBLIOTECA DE TERMóMETROS DE áCIDO RIBONUCLEICO (RNAT) MEDIANTE PYTHON


CREACIóN DE UNA BIBLIOTECA DE TERMóMETROS DE áCIDO RIBONUCLEICO (RNAT) MEDIANTE PYTHON

Loredo Perez Ruben Ivan, Instituto Tecnológico de Matamoros. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

  Los termómetros de RNA (o también llamados RNATs) parecen tener un futuro prometedor, estos son secuencias de RNA que forman estructuras secundarias alrededor del sitio de Shine-Delgarno a temperaturas fisiológicas relativamente bajas, impidiendo el inicio de la traducción del RNAm, sin embargo, al irse aumentando la temperatura, estas estructuras se van perdiendo gradualmente. Sin embargo, a pesar que dicho sistema de regulación tiene un futuro prometedor, la información sobre su funcionamiento, estabilidad y bases moleculares son escasas. En este proyecto desarrollaremos una biblioteca in silico de termómetros de RNA, la cual nos ayudaran a darle veracidad estadística a diversos postulados propuestos en la literatura.



METODOLOGÍA

El diseño de la estructura general de los termómetros de RNA, se realizó tomando en cuenta las partes mínimas y elementales necesarias para su funcionamiento. Dicha estructura estaba compuesta por 5 nucleótidos variables, 4 nucleótidos parcialmente complementarias al sitio de unión a ribosoma, 10 adeninas, sitio de unión a ribosoma y 5 nucleótidos variables.  Para el ensamblaje de los termómetros de RNA, primero se crearon todas las posibles secuencias de una longitud de 5 nucleótidos. Esto se logró mediante el uso del código 1.  En la parte 1 de este código, se generaron todas las posibles combinaciones utilizando los números, 1, 2, 3 y 4 en cinco posiciones. Los resultados de estas se utilizaron como input de la parte 2, donde se realizaron todas las posibles permutaciones de cada combinación obtenida. Posteriormente se utilizó la parte 3, para quitar toda secuencia numérica repetida. Por último, se utilizó la parte 4 para sustituir las secuencias numéricas por secuencias nucleotídicas. El código se realizó con ayuda del contenido de documentación de Python (Python Software Foundation, 2019)   Código 1 Parte 1. from itertools import combinations_with_replacement comb = combinations_with_replacement([1, 2, 3, 4], 5) for i in list(comb):     print (i) Parte 2. from itertools import permutations for perm in permutations([/,/,/,/]):     print(perm)   Parte 3. h = [] h2 = set(h)     print (h2)   Parte 4 dna = "" new_dna = dna.replace ('1','A') new_dna_two = new_dna.replace ('2','T') new_dna_three = new_dna_two.replace ('3','C') new_dna_four = new_dna_three.replace ('4','G')    print (new_dna_four)     Posteriormente se utilizó el código 2 para ensamblar nuestros termómetros de RNA, en la parte 1 se definieron las variables a utilizar, en la parte 2 se obtuvo la secuencia complementaria del RBS y la secuencia que se utilizara, en la parte tres, para ensamblar la parte final del termómetro de RNA. En la parte 3 se ordena mostrar en pantalla, el nombre del termómetro de RNA (RNAT 1:), la primera secuencia obtenida del Código 1 (dna_a1), las primeras cuatro pares de bases del reverso complementario del RBS (sdr[:1:-1]), las diez adeninas (loop), el RBS (sd), y por último, el reverso complementario de la última secuencia obtenida en el Código 1 (dna_a1024r[::-1]). Los siguientes termómetros de RNA se ensamblaron siguiendo el mismo patrón, la primera secuencia obtenida en el código uno con el reverso complementario de la última, la segunda con el reverso complementario de la penúltima secuencia y así consecutivamente.   Resumen del código 2 Parte 1 dna_a1="AAATC" dna_a1024="ACGGG" sd="AGGAGG" loop="AAAAAAAAAA"´ Parte 2 new_sd = sd.replace ('A','2') new_sd_two = new_sd.replace ('T','1') new_sd_three = new_sd_two.replace ('C','4') new_sd_four = new_sd_three.replace ('G','3') new_sd_five = new_sd_four.replace ('1','a') new_sd_six = new_sd_five.replace ('2','t') new_sd_seven = new_sd_six.replace ('3','c') new_sd_eigth = new_sd_seven.replace ('4','g') sdr = new_sd_eigth   new_dna=dna_a1024.replace('A','2') new_dna_two=new_dna.replace('T','1') new_dna_three=new_dna_two.replace('C','4') new_dna_four=new_dna_three.replace('G','3') new_dna_five=new_dna_four.replace('1','a') new_dna_six=new_dna_five.replace('2','t') new_dna_seven=new_dna_six.replace('3','c') new_dna_eigth=new_dna_seven.replace('4','g') dna_a1024r=new_dna_eigth Parte 3 print ('RNAT1:', dna_a1, sdr[:1:-1], loop, sd, dna_a1024r[::-1])


CONCLUSIONES

Una vez aplicado el Código 2, este dio como resultado una biblioteca de 1024 termómetros de RNA, los cuales contaban con la misma estructura secuencial, sin embargo, estos son capaces de formar distintas estructuras secundarias, gracias a la variabilidad de los primeros y últimos 5 nucleótidos.
Loya Ayala Yazmin Monserrat, Universidad Politécnica del Valle de Toluca
Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia

ANALíTICA DE DATOS PARA PRONóSTICO DE ROBO DE ENERGíA USANDO MEDIDORES INTELIGENTES


ANALíTICA DE DATOS PARA PRONóSTICO DE ROBO DE ENERGíA USANDO MEDIDORES INTELIGENTES

Jiménez Toscano Eréndira del Carmen, Instituto Tecnológico Superior de Los Ríos. Loya Ayala Yazmin Monserrat, Universidad Politécnica del Valle de Toluca. Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El robo de energía es la principal pérdida no técnica de las empresas suministradoras del servicio eléctrico. Con la introducción de medidores inteligentes se registran las lecturas de medición del consumo y producción de energía eléctrica de forma más periódica, lo cual conlleva al posterior uso de esta información. Tradicionalmente, los medidores de electricidad se instalan en los establecimientos del consumidor y la información de consumo se recopila mediante toma de lecturas a los medidores a través de lecturistas en sus visitas mensuales o bimestrales, dichos medidores son analógicos y presentan ciertas desventajas tanto para el consumidor como para la compañía eléctrica. Al contar con estos medidores, no se puede evitar el error humano en la lectura manual del medidor, existen altas posibilidades de robo de energía eléctrica, ya sea mediante el uso de diablitos, alteración de componentes mecánicos, eléctricos y electrónicos del medidor para cambios de lecturas de los medidores, entre otros.  En este trabajo se propone una implementación de un método de detección de robos de energía usando datos de medidores inteligentes y realizando el pronóstico dentro del mismo medidor para ello se determina en primera instancia el modelo de comportamiento de consumo/producción de energía eléctrica del medidor para tener una línea base que ayude a determinar si los nuevos valores de consumo/producción pueden ser considerados como robo de energía.



METODOLOGÍA

Para la realización del presente proyecto de investigación se llevó a cabo una metodología relacionada con minería de datos. Donde se realizaron distintas etapas para obtener conocimiento de dos bases de datos para poder identificar patrones de consumo/producción. El objetivo principal de la minería de datos consiste en la extracción de información oculta de un conjunto de datos. Esto puede ser alcanzado por el análisis automático o semiautomático de gran cantidad de datos, lo que permite la extracción de patrones desconocidos. Selección de los datos: Se obtuvieron los repositorios de los datos. Se seleccionaron dos bases de datos que contenían información energética relevante para el estudio. La primera de ellas fue una base de datos que incluía lecturas que registraban los medidores inteligentes que se instalaron en el Instituto Tecnológico de Morelia durante el periodo de octubre de 2018 a mayo de 2019, se obtuvieron un total de 547,864 lecturas. La segunda base de datos fue obtenida de UCI Machine Learning Repository. Esta base de datos contiene 2,075,259 mediciones reunidas en una casa ubicada en Sceaux (a 7 km de París, Francia) entre diciembre de 2006 y noviembre de 2010. Pre-procesamiento de datos:  En esta etapa se obtuvieron las medidas de dispersión y de tendencia central de los datos, así como los máximos y los mínimos de los datos para poder identificar el cómo venían los datos. Limpieza de datos: En esta etapa se identificaron aquellos datos que presentaban una mayor relevancia en el estudio para poder omitir aquella información de la base de datos que no agregaba valor. Se eliminaron aquellas columnas que presentaban datos que no eran necesarios dejando solamente información valiosa como las lecturas del consumo de energía, producción de energía, voltaje y frecuencia, para realizar este tratamiento en los datos se utilizó el sistema de gestión de bases de datos SQLite. Una vez que se tenía esta información, se realizó un análisis exploratorio a los datos para identificar valores perdidos en las bases de datos. Como siguiente paso se identificaron los valores atípicos de las bases de datos, estos son valores que no coinciden con el resto de las series y pueden influir considerablemente en el análisis y, por lo tanto, afectar a la capacidad de previsión del modelo de serie temporal. Transformación de datos: Una vez que se quitaron los valores atípicos de las bases de datos, se completó la base de datos de los medidores inteligentes que se encontraban en el Instituto de Tecnológico de Morelia, agregando datos hasta que las dos bases de datos fueran homogéneas y tuvieran la misma cantidad de lecturas. Esto se realizó mediante un programa realizado en Python. Reducción de datos: Se realizó la fragmentación de las bases de datos en archivos más pequeños para una mayor facilidad al momento de trabajar. Se agruparon las lecturas generando conjuntos de lecturas por día, semana, mes y año de las variables de consumo y producción. Discretización de datos: Se sustituyen atributos numéricos con valores nominales. En la columna donde se encontraban las fechas se sustituyó la información por valores consecutivos. Una vez que se tenían de esa manera los datos, se prosiguió a utilizar el método de series de tiempo para identificar el modelo adecuado para los datos. Se realizaron análisis mediante promedios móviles, autorregresión, modelos ARMA y modelos ARIMA para seleccionar el mejor modelo para los datos. Se realizaron distintas pruebas para la identificación de los patrones de consumo/producción de energía.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del uso de técnicas de minera de datos para poder extraer conocimiento de grandes bases de datos. Se realizó el análisis de sos bases de datos para poder identificar patrones de consumo/producción de energía y poder identificar posibles robos de energía que se prsenten. Los resultados obtenidos de la selección del modelo más adecuado para realizar los pronósticos será programado en el medidor inteligente y así poder detectar esta anomalías que se presenten. Este trabajo muestra que es posible detectar robos de energía utilizando datos y procesamiento del medidor inteligente. Los resultados indican que la detección de anomalías de consumos/producción de energía eléctrica es adecuada pero que como todo modelo de pronóstico la intervención humana juega un papel relevante en la toma de decisiones.
Loza Alvarado Israel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Donato Hernández Fusilier, Universidad de Guanajuato

INTERFACES DE COMPUTADORA Y ANáLISIS DE OPINIONES.


INTERFACES DE COMPUTADORA Y ANáLISIS DE OPINIONES.

Loza Alvarado Israel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Donato Hernández Fusilier, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desarrollar software, el cual permita analizar una carpeta con información específica, y a su vez sea capaz de dividir el texto en n-gramas, ya sea en unigramas, bigramas, trigramas y/o en 3, 4, 5 caracteres, generando así un numero de atributos lo cual es guardado en un archivo arff, que será interpretado por un software específico: weka, para la implementación de métodos y obtención de resultados.



METODOLOGÍA

Mediante la descomposición de las opiniones en n-gramas, ya sea unigramas, bigramas. trigramas, o bien haciendo la descomposición en 3, 4, 5 caracteres; estos toman en cuenta tanto espacios como ciertos signos, mientras que los n-gramas solo se basan en las palabras, omitiendo los espacios, y/o la combinación de estos, mediante el software desarrollado. Se obtuvieron archivos arff que contienen los atributos de la descomposición de las opiniones, los cuales son interpretados en el software weka, el cual permite el análisis de los atributos y los métodos de clasificación, en este caso: SMO (sequential minimal optimization), IBK (K-nearest neighbours classifier), NB (NaiveBayes), NBM (NaiveBayesMultinominal), MultilayerPerceptron (RedesNeuronales). Arrojando resultados de diferentes formas del ordenamiento de las opiniones: Opiniones Verdaderas (Truthful) tanto positivas como negativas, Polaridad Negativa; Opiniones Verdaderas (Truthful) y Spam (Deceptive) y la unión de las opiniones tanto positivas como negativas (Truthful y Deceptive).


CONCLUSIONES

Tras el análisis de la información, se corroboro que el software desarrollado realizó de manera satisfactoria el descomponimiento de la información para así dar paso a la siguiente fase, la cual fue la ampliación de los métodos en weka.Sin embargo, no se lograron realizar todos los métodos de clasificación gracias a las limitaciones de hardware en el ordenador. Resultados obtenidos de Opiniones Verdaderas(truthful) Positivas y Negativas. 400 Truthful-Positive 400 Truthful-Negative En la parte de las opiniones positivas y negativas analizadas con Unigramas-Trigramas-4 caracteres (136243 atributos) se obtuvo el mejor resultado mediante el método de clasificación NBM, del cual se obtuvo los siguientes resultados: Precision: 0.942 Recall: 0.935 F-Measure: 0.939 Resultados obtenidos de Opiniones Negativas (Truthful, Deceptive). 400 Truthful 400 Deceptive De las opiniones truthful y deceptive analizadas con Unigramas-Bigramas- 5 Caracteres (143588 atributos) se obtuvo el mejor resultado mediante el método de clasificación SMO, del cual se obtuvo los siguientes resultados: Precision: 0.895 Recall: 0.895 F-Measure: 0.895 Resultados obtenidos de Opiniones Positivas y Negativas (Truthful, Deceptive). En la parte de las opiniones positivas (Deceptive) analizadas con Unigramas-Bigramas-4 Caracteres (132382 atributos) se obtuvo el mejor resultado mediante el método de clasificación NBM, del cual se obtuvo los siguientes resultados: Precision: 0.873 Recall: 0.908 F-Measure: 0.890 En la parte de las opiniones positivas (Truthful) analizadas con Unigramas- 5 Caracteres (109975 atributos) se obtuvo el mejor resultado mediante el método de clasificación NBM, del cual se obtuvo los siguientes resultados: Precision: 0.895 Recall: 0.793 F-Measure: 0.841 En la parte de las opiniones negativas (Deceptive y truthful) analizadas con Unigramas-Bigramas-4 Caracteres (132382 atributos) se obtuvo el mejor resultado mediante el método de clasificación NBM, del cual se obtuvo los siguientes resultados: Precision: 0.885 Recall: 0.868 F-Measure: 0.876
Lozada González Daniela, Universidad Veracruzana
Asesor: Dr. Andrea Parga Vázquez, Universitat Politècnica de Catalunya (España)

ATLAS INTERACTIVO. REGISTRO VISUAL DE ARQUITECTURA URBANA 1940 A 1970. DOCUMENTACIóN SOBRE CIUDAD DE MéXICO.


ATLAS INTERACTIVO. REGISTRO VISUAL DE ARQUITECTURA URBANA 1940 A 1970. DOCUMENTACIóN SOBRE CIUDAD DE MéXICO.

Lozada González Daniela, Universidad Veracruzana. Asesor: Dr. Andrea Parga Vázquez, Universitat Politècnica de Catalunya (España)



PLANTEAMIENTO DEL PROBLEMA

El movimiento moderno fue un período en la arquitectura que se hizo presente en todo el mundo. En Latinoamérica, fue producto de dar respuesta a necesidades específicas de cada región. El registro fotográfico de sus obras mas representativas a nivel mundial ha sido una inquietud para muchos teóricos de la arquitectura, pero en el caso específico de Latinoamérica, la información recabada es menor a la de otros continentes. La mayor problemática se encuentra en rescatar el mayor número de datos acerca de estos edificios, incluyendo planos, secciones, fichas técnicas, información sobre los arquitectos, fotografías de época y los dos puntos más importantes: comprobación del estado actual de los edificios y la captura de fotos actuales a través de herramientas tecnológicas, para al final, poder completar e enriquecer la base de datos y página de obras modernas en Latinoamérica del Atlas Interactivo llevado por el grupo de investigación FORM+.



METODOLOGÍA

A la llegada a la Universidad Politécnica de Catalunya, se dio una introducción a la página web Click, en particular el apartado Atlas Interactivo, que es la base de datos en donde se resume la investigación. La plataforma trabaja las ciudades de Bogotá, Buenos Aires, Santiago de Chile, Caracas, San Juan y Ciudad de México. A lo largo de esta estancia se acordó trabajar sobre la Ciudad de México, ya que es en una de las ciudades que aún no están disponibles en la web. Cada ciudad tiene sus propias carpetas de información, en los ordenadores del despacho y en documentos Drive, así es la forma en que las investigadoras organizan el trabajo y hacen llegar la documentación a los informáticos encargados de subir el trabajo a el atlas. Después de conocer la página web, los documentos y el Drive, la primera tarea que se me asignó fue corroborar cual era el estado actual de todos los edificios que comprenden la Ciudad de México, al comenzar el verano el número de edificios era cincuenta. Dentro de todos los archivos, se encuentra el documento Excel que es una hoja que resume casi toda la información, y para corroborar el estado actual fue muy importante esta lista, ya que señalaba la localización de los enclaves específicos de cada obra con las se podía llevar a cabo la verificación desde Google Street View. Al navegar por esta herramienta actual de uso cotidiano, encontré que efectivamente muchos edificios no estaban, y también tomé fotografía de lo que se encuentra en la actualidad. Al tener certeza que ciertos edificios no existían, el siguiente paso era investigar que les había sucedido. Las investigadoras proporcionaron un listado de edificios derrumbados en el sismo de 1985, y después de verificar, la mayoría fue destruido por este siniestro, mientras otros fueron comprados y demolidos por otras razones. Para corroborar todas estas razones, busqué en otros registros, en notas de periódico, páginas de arquitectura y listados oficiales alternos al que ya se tenía. La Ciudad de México es un caso muy particular para la arquitectura, ya que, al estar emplazada en un lago, los movimientos sísmicos son de mayor intensidad y es más difícil la preservación de sus construcciones, ya que está en constante y rápido cambio. Al terminar esta actividad completé la documentación en la hoja Excel, donde, además, se señaló porque no encontraríamos fotografías de estos edificios en la actualidad. Las obras que en la actualidad aún siguen presentes ya tenían una imagen actual de Google Street View, pero la siguiente tarea fue seguir completando las imágenes. Para esto se explicaron encuadres, la forma de guardar la imagen para mayor calidad y como serían guardadas para su identificación. Esta tarea, en lo personal, tomo más de una semana, y en el intermedio se realizaron otras. Casi al finalizar las semanas de trabajo, se realizó una actividad con un colaborador que realizó estos Google Street Views en otras ciudades. Nos explicó formas más fáciles de editar las imágenes en Photoshop, como encuadrar y recortar mejor y ciertos parámetros para buscar la mejor calidad de la foto. El Google Street View abarcó la mayor parte del trabajo, pero también se intervino en el material complementario. Primero, se obtuvieron párrafos a través de artículos que ya se encontraban en los documentos Drive. Estos párrafos serían un resumen del edificio, debían hablar de forma general de su emplazamiento y su programa arquitectónico. En cada párrafo se elaboró su cita correspondiente, la mayor parte de los artículos provino de las revistas Arquitectura México, y Arquitectura Madrid. Muchos artículos faltaban de completar en las carpetas del Drive, por lo tanto, también faltaban párrafos, y para poder completar la información también di un segundo repaso a las revistas ya mencionadas. Al finalizar, los documentos en formato Word se subieron al Drive, y las referencias a la hoja Excel. Los demás documentos de material complementario incluían fotos de maquetas, planos, secciones, dibujos, etc., y también los intervenía editándolos en Photoshop, ya que muchos presentaban manchas, no estaban encuadrados, derechos, ni en blanco y negro como se solicitaba para que pudieran presentarse como información adicional en la página. Estos archivos se trabajaban desde el ordenador, y al estar listos los sustituí en el Drive.  Al finalizar la estancia de investigación, entregué una copia de las carpetas que trabajé con la documentación actualizada a las investigadoras, para ellas tener un respaldo en su ordenador, además de subir todo en el la nube.


CONCLUSIONES

El avance en la obtención de documentación sobre la Ciudad de México fue satisfactorio, así como se fortaleció la búsqueda y edición de información a través de fuentes de información contemporáneas, que, si bien algunas son de uso diario, no ofrecen más opciones que las básicas de siempre utilizamos. El análisis de edificios se vio enriquecido y la composición fotográfica mejoro notablemente al utilizar todos los recursos aprendidos en el verano.
Lugo Espinoza Clara, Instituto Tecnológico de Toluca
Asesor: M.C. Heyder David Paez Logreira, Corporación Politécnico de la Costa Atlántica (Colombia)

MODELO DE INCUBACIóN PARA EMPRENDIMIENTOS TECNOLóGICOS


MODELO DE INCUBACIóN PARA EMPRENDIMIENTOS TECNOLóGICOS

Lugo Espinoza Clara, Instituto Tecnológico de Toluca. Asesor: M.C. Heyder David Paez Logreira, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente, existe una gran cantidad de conceptos y definiciones de modelo de negocio, todos enfocados al desarrollo de operaciones para entregar al usuario final un producto que satisfaga su necesidad y aporte valor. Sin embargo, los modelos de negocios orientados a la industria tecnológica son insuficientes, e inclusive, desconocidos y no describen todos los actores que deben ser incluidos. El uso de procesos tradicionales para el Modelado del Negocio en el desarrollo de productos tecnológicos es propenso a formulación inadecuada. Para mitigar esta situación, se propone un modelo integrado para el desarrollo del modelo de negocio con el proceso de desarrollo del producto tecnológico que permita monitorear y controlar la trazabilidad entre 3 componentes claves: producto, negocio y empresa. Al conocer las fases e intervenciones de cada componente durante la aplicación del modelo, se tiene un panorama acorde con los objetivos del proyecto, permitiendo mejorar el pronóstico de éxito de la organización.



METODOLOGÍA

METODOLOGÍA TIPO DE INVESTIGACIÓN: El proyecto presentado se clasifica en la categoría Investigación de Innovación Tecnológica, ya que se busca la creación de un modelo de incubación eficaz que permita el desarrollo de los emprendimientos de base tecnológica orientado por el desarrollo del producto. ALCANCE: Descriptivo, en tanto se logra la especificación del modelo de incubación, sus principales componentes y características. Se aproxima a una relación entre los componentes al identificar los puntos en común de los procesos del negocio y del desarrollo del producto. ENFOQUE: Se trata de un enfoque Cualitativo ya que se ha revisado la literatura y el estado del arte sobre el tema, y la indagación de los eventos esta sujeta a su interpretación sin generar aún una hipótesis por comprobar.   BREVE DESCRIPCIÓN DEL PROCESO DE INVESTIGACIÓN: Lectura de artículos de investigación científica relacionados con emprendimiento de base tecnológica, modelos de negocios orientados a innovación tecnológica, etc. Realización de diversas sesiones de preguntas y respuestas entre el estudiante y el investigador acerca de las dudas y problemáticas a abordar durante la pasantía de investigación. Establecimiento del diseño y características generales del modelo, así como entendimiento de las partes que lo conforman. Construcción del artículo de investigación conforme a los conocimientos previamente adquiridos. Revisión del articulo de investigación y realización de correcciones pertinentes. Evaluación final del contenido del artículo.


CONCLUSIONES

Los proyectos de desarrollo tecnológico son la base para nuevas oportunidades de desarrollo social y por esa razón deben ser gestionados con un modelo de incubación adecuado, que permita que el emprendimiento tecnológico se logre con éxito. Se ha podido observar que el emprendimiento en Productos de Desarrollo Tecnológico resulta tener limitaciones como la escasa literatura enfocada a modelos de negocios para productos de innovación tecnológica. Los emprendimientos de base tecnológica presentan una serie de retos particulares que no al ser gestionados desde un modelo de negocios tradicional pueden resultar en un desarrollo con alto nivel de incertidumbre. El modelo de incubación propuesto, al ser orientado desde el desarrollo del producto, fortalece la relación y capacidades de gestión del negocio (modelo de negocio y plan de negocio) y, con el análisis de casos de estudio verificar su aporte a la reducción de la incertidumbre en procesos de emprendimiento tecnológico.
Luna Barrón Sergio Alejandro, Instituto Politécnico Nacional
Asesor: Dr. Leonardo Garrido Luna, Instituto Tecnológico y de Estudios Superiores de Monterrey

DESARROLLO DE UN CHATBOT CON EL USO DE HERRAMIENTAS DE GOOGLE PARA EL APOYO EN ASESORíAS DE ALUMNOS DEL TECNOLóGICO DE MONTERREY


DESARROLLO DE UN CHATBOT CON EL USO DE HERRAMIENTAS DE GOOGLE PARA EL APOYO EN ASESORíAS DE ALUMNOS DEL TECNOLóGICO DE MONTERREY

Gutierrez Longoria Rafael, Instituto Tecnológico de Matamoros. Luna Barrón Sergio Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Leonardo Garrido Luna, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Los bots conversacionales poseen una amplia gama de posibilidades a través de la industria y, en los últimos años, se han desarrollado en un ambiente educacional. La habilidad de otorgar respuestas a preguntas específicas para miles de alumnos al mismo tiempo es una manera perfecta de contrarrestar la escasez de profesores o ponentes en escuelas y universidades alrededor del mundo. Estos chatbots son una gran herramienta con un potencial enorme para cursos en línea. El contenido de cada curso varía dependiendo del contenido que se plantea enseñar y el punto de vista del profesor. Nuestra meta fue elaborar un chatbot capaz de responder a preguntas utilizando una base de datos actualizable por el profesor. Utilizamos el Procesamiento de Lenguaje Natural (PLN) de Dialogflow y la base de datos NoSQL Firebase. Para actualizar ambas plataformas, se desarrolló una app web para que cualquier profesor sea capaz de modificar su propio chatbot. Hoy en día, el estudiante moderno tiene la habilidad de tomar notas en una tableta, donde puede insertar fotografías de las presentaciones del profesor, tiene la habilidad de mandarle un correo electrónico o revisar en una plataforma si existe tarea para la semana. A pesar de que estas tecnologías proporcionen al estudiante con respuestas rápidas a lo que busca, la comunicación estudiante-profesor por este medio se vuelve ineficiente al crecer el número de alumnos.



METODOLOGÍA

Se utilizó una plataforma de desarrollo de Chatbot llamada Dialogflow creada por Google en el Laboratorio de Inteligencia Artificial del Tecnológico de Monterrey. Esta plataforma provee una interfaz gráfica que maneja el flujo de un Chatbot en una conversación, utilizando el NLP (Natural Language Processing) por sus siglas en inglés. Se creó un agente en Dialogflow llamado SistemasInteligentes para que analice las señales de entrada y la respuesta del usuario. Los intents utilizados por default sirven para dar inicio a la conversación, mientras que el intent que se realizó con el nombre de preguntas utilizando declaraciones para preguntar acerca de las definiciones de algoritmos, teoremas o leyes dependiendo de la petición del usuario; dentro de estos intents existen parámetros que sirven para emparejar los intents particulares así como el parámetro any que representa un nombre especifico y topic que es el tema de lo que se esta hablando. El Dialogflow es un sistema muy inteligente que gracias a las entities se puede extraer la información útil y necesaria del NLP. Se crearon dos entities una llamada Materias y la otra Topic para que el chatbot pueda entender el contexto en el que se le esta hablando, es decir si un alumno pide hablar de Matemáticas, el chatbot entenderá que se tratará solamente de matemáticas y no otra materia. Una vez configurado el Dialogflow, se instalaron las funciones de firebaseCLI, actions-on- google, y el Nodejs para poder trabajar con el código y pueda el Dialogflow leerlo sin ningún problema. Al haber completado todos estos pasos fue posible hacer el deploy desde nuestro ordenador utilizando el Command Prompt para que pueda sincronizarse a la base de datos. Se utilizó Firebase para el almacenamiento de datos en la nube de Cloudstore, en donde creamos nuestra base de datos agregando una colección con el nombre de Materias, dentro de esta misma se crearon documentos y cada uno se le agregó un nombre de materia diferente. Con estos documentos pudimos crear subcolecciones para que se pueda redirigir el chatbot a un tipo de mensaje especifico dentro de una de las subcolecciones. Por ejemplo, si se quiere saber la definición de un teorema, debe entender que se trata de un contexto matemático, por lo que se encuentra dentro de la colección Materias, en el documento Matematicas y buscara en la subcoleccion la definición del teorema solicitado. Para compilar los códigos se utilizó Visual Code, donde se guardaron los archivos dentro de una carpeta para que el chatbot pueda responder al cliente desde el servidos y no desde Dialogflow. Utilizamos los modulos de nodejs y firebase para realizar las operaciones con el código, además utilizamos métodos específicos para el modelo de datos de Cloudstore. Con estos modelos se puede leer un mensaje dentro de una colección dentro de otra colección en una carpeta.


CONCLUSIONES

Durante la estancia de verano se entendieron los conocimientos teóricos de la Inteligencia Artificial, agentes racionales, entities, intents para poner en práctica las técnicas para el desarrollo de un Chatbot utilizando Dialogflow y una base de datos en Firebase para almacenar la información y que el propio chatbot fuera capaz de comprender y guardar la información con La finalidad de aportar un apoyo a los alumnos del Tecnológico de Monterrey para las tutorías.
Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Luna Lopez Luz Selene, Universidad Autónoma de Sinaloa
Asesor: Mtro. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE DAñOS AL TEMPLO DE NUESTRA SEñORA DE LA MERCED, PUEBLA, PUE.


ESTUDIO DE DAñOS AL TEMPLO DE NUESTRA SEñORA DE LA MERCED, PUEBLA, PUE.

Luna Lopez Luz Selene, Universidad Autónoma de Sinaloa. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Asesor: Mtro. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estado de Puebla es una ciudad moderna, colonial y desde 1987 declarada como Patrimonio Cultural de la Humanidad por la UNESCO, esto gracias a la riqueza de sus monumentos históricos. El patrimonio cultural sin duda es un tesoro que nos han dejado nuestros antepasados, es por eso la importancia de su estudio, cuidado y preservación.  Los monumentos presentan un alto deficiente en el desempeño de las estructuras y si a esto le añadimos que el estado de Puebla está en una zona de alta sismicidad nos ponemos ante una situación verdaderamente vulnerable, no solo por los altos costos de construcción si no también por las técnicas de rehabilitación adecuadas  a utilizar para seguir otorgándoles el título al monumento de "patrimonio cultural" Es por eso que se decidió estudiar el templo de Nuestra Señora de la Merced, el cual fue dañado por el sismo de 1999 y el último sismo que golpeó al estado en 2017. Ambos sismos dañaron severamente la estructura del templo.  



METODOLOGÍA

1. Investigación de la sismicidad en el estado de Puebla, así como también su riqueza en monumentos históricos, en especial sus templos 2. Localización de los templos viables para su análisis.  3.  Deteccion de daños causados al templo por el sismo 4. Técnicas de rehabilitación estructural , patologías, pruebas destructivas y no destructivas 5. Análisis de resultados y conclusiones. 6. Redacción de informe final.


CONCLUSIONES

Se hicieron visitas al Templo de Nuestra Señora de la Merced e inspeccionando los macroelementos,se enfocó el análisis en el arco más dañado, el arco del coro, ya que presentaba una grieta en la clave. Se realizó el levantamiento topográfico, el modelado se hará en SAP 2000 versión 20 y con la aplicación de un Pushover, el cual consiste en aplicar una fuerza en el punto de control y obtener la curva de capacidad-demanda. De los resultados analizados se propone como técnica de rehabilitación estructural una inyección de mortero tixotropico marca Maxrest El objetivo de esta técnica consiste en inyectar mortero a través de grietas para rellenarlas al interior del elemento. Otra técnica que se propone es la de adición de elementos en este caso un perfil de acero que sirva como refuerzo estructural al arco dañado. Este sería una técnica extrema en caso de que se haga un estudio más detallado de las condiciones y se encuentren hundimientos en las columnas y  no exista otra técnica para poder preservar el arco
Luna Madrigal Fernando Daniel, Instituto Politécnico Nacional
Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México

REGISTRO DE NUBES DE PUNTOS IMPLEMENTADO EN UNA RED NEURONAL DE BASE RADIAL


REGISTRO DE NUBES DE PUNTOS IMPLEMENTADO EN UNA RED NEURONAL DE BASE RADIAL

Luna Madrigal Fernando Daniel, Instituto Politécnico Nacional. Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Una nube de puntos es un conjunto de vértices en un sistema de coordenadas tridimensional. Estos vértices se identifican habitualmente como coordenadas X, Y, y Z y son representaciones de la superficie externa de un objeto.  Cuando se tienen dos nubes de puntos de un mismo objeto y  se quieren empalmar para contrastar información y/o medir diferentes parámetros, se dice que se lleva a cabo el registro de ambas nubes. Las nubes de puntos tienen muchas aplicaciones, entre las que se encuentran la elaboración de modelos tridimensionales en CAD de piezas fabricadas, la inspección de calidad en metrología, y muchas otras en el ámbito de la medicina y el procesamiento de imágenes médicas.  Con el nuevo auge del aprendizaje maquinal, el proyecto de investigación del verano tiene por objeto combinar una de las técnicas más estudiadas de los últimos años de esta rama de la inteligencia artificial (redes neuronales) con dos nubes de puntos de imágenes médicas en 3D para que la red proporcione los parámetros necesarios para hacer el registro correctamente.



METODOLOGÍA

El proyecto se dividió en 3 partes: Investigación del estado del arte. Programar el registro y la red neuronal. Pruebas. Investigación del estado del arte Se llevo a cabo una investigación bibliográfica para entender diferentes metodologías existentes de cómo hacer el registro entre dos nubes de puntos. De la misma manera, se buscaron diversos artículos científicos para conocer en qué tipo de imágenes médicas se está haciendo uso de las nubes de puntos para su estudio y así, tener un panorama general del estado del arte.  Programar el registro y la red neuronal Para corrobar que el método desarrollado durante el verano funcionara se trabajó con una nube de puntos del repositorio de la Universidad de Stanford a la que se le hicieron rotaciones y traslaciones pseudo-aleatorias controladas en rangos igualmente controlados.  Una vez obtenidas la nube de puntos fija y la móviles, se midieron diferentes métricas de distanca (Euclidiana y Manhattan ) entre todos sus puntos. Dichas mediciones se tomaron como entrada de una red neuronal de base radial  en donde la salida de la misma, debería de ser la rotación y traslación debida a cada una de las entradas. Todo esto se hizo con la finalidad de entrar a la red, para después, probarla. Pruebas Una vez entrenada la red, se hicieron pruebas dándole como entrada una serie de distancias con las que se entrenó para corrobar que la salida fuera la esperada, es decir, que devolviera los ángulos que se roto y la distancia que se desplazó la nube de puntos fija. Todo lo anterior fue programado en el software MATLAB.


CONCLUSIONES

Al finalizar la estancia de investigación, se logró programar el método nuevo de registro entre dos nubes de puntos para posteriormente veriicar su funcionamiento.  Como se mencionó anteriormente, se realizó con una nube de puntos mundialmente conocida, sin embargo, un objetivo a futuro es utilizar dicho algoritmo para analizar imágenes médicas relacionadas a un fenómeno llamado brain shift.
Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EVALUACIóN DE ESTíMULOS VISUALES EN BCI BASADA EN P300


EVALUACIóN DE ESTíMULOS VISUALES EN BCI BASADA EN P300

Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Rodriguez Castro Paula Jeanett, Instituto Tecnológico de Culiacán. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Existen enfermedades que afectan la movilidad de las personas, en el año 2014 la discapacidad motriz fue el principal tipo de discapacidad reportado, el cual abarcó 2.6 millones de personas. Uno de estos padecimientos es la esclerosis lateral amiotrófica (ELA), esta es una enfermedad del sistema nervioso en la que se destruyen las células nerviosas que están en la medula espinal y en el cerebro, esto provoca que la persona tenga dificultades al escribir, caminar y hablar hasta que sea incapaz de moverse. Una de cada 20,000 personas en el mundo padece de ELA y se calcula que hay 6,000 casos de ELA en México. Aunque se desconozca la causa principal para este padecimiento, del 5 al 10% de los casos es hereditario. Tampoco existe cura para la ELA, sin embargo, con medicamentos se puede frenar el avance de dicha enfermedad. La ELA afecta a la calidad de vida de las personas, así como otras enfermedades motrices. Por ese motivo, se realizaron experimentos durante este verano científico con el fin de obtener datos que puedan ayudar a mejorar la interfaz que se pretende implementar en futuras aplicaciones, como son órtesis y robots que les faciliten realizar tareas cotidianas.



METODOLOGÍA

Se realizaron 3 experimentos en 15 sujetos, por lo que fueron 45 experimentos los que se hicieron durante la estancia de verano científico. Se implementó un interfaz cerebro-computadora basado en onda P300 en el que se evaluaron estímulos visuales. Para llevar a cabo el experimento se utilizó el equipo de g.tec medical engineering, el cual incluía un regulador, que es un cable conectado directamente a la luz, un amplificador de bioseñales g.USBamp que se conectaba a la computadora y a una placa porta electrodos gammabox a la cual se le conectaron 10 electrodos (9 electrodos y una pinza de referencisa) que se colocan en un casco neuronal ajustado a la configuración P300. El procedimiento previo a la realización del experimento consistió en colocar el casco al sujeto y ajustar la correa en el mentón. Posteriormente se colocan los 9 electrodos en el casco y la pinza de referencia en el lóbulo del oído derecho del sujeto. Se le colocó el gel conductor procurando que este hiciera contacto con la superficie del cuero cabelludo. Después, se procedió a encender la placa porta electrodos y el amplificador de bioseñales para conectarlas al programa g.USBampDataStreamer y poder verificar que la amplitud de las ondas estén dentro del rango y que tengan una forma adecuada. El experimento consistió en presentarle al sujeto diferentes configuraciones de estímulos en la pantalla (de 4 a 9 estímulos), lo que debe hacer el sujeto es mirar fijamente el estímulo que se le indique y contar las caritas felices que pasan aleatoriamente en cada uno de los estímulos. Para esto, se inició con un training de 5 estímulos, es decir, una partida con 5 casillas con flechas acomodadas en forma de cruz en la pantalla (4 direcciones y una casilla de STOP al centro). Al terminar dicho training, se validaron los resultados para obtener 3 valores: Clasification rate, Classification rate of Target Class y Classification rate of Non-Target Class. Si el valor de Clasification rate fue mayor a 0.7, se conservaban los resultados del experimento, registrándose en una tabla de datos personalizada para cada sujeto. Se continuó realizando un Online Test con 5 estímulos, que consiste en que el sujeto elige el estímulo y cuenta las caritas felices que pasan en este, por lo que la interfaz se detiene en el estímulo en el que detecta que el sujeto estaba enfocado visualmente. Se hicieron 4 intentos en este tipo de prueba y se registraron en una bitácora. Continuando con el experimento, se realizó otro training de 5 estímulos, pero con la diferencia de que el tipo de estímulo es parpadeante y no de caritas felices. Después de validar los resultados, se comparó el valor de Clasification rate con el obtenido en el training de 5 estímulos con caritas felices, y se procedía a realizar los demás trainings con el tipo de estímulo con mayor valor. Para esto, si el valor del training con el estímulo de parpadeos fue mayor, se realizaba un Online Test con 4 intentos para este tipo de estímulo. Por último, se realizaban los demás trainings, en donde el orden para los 4, 6, 7, 8 y 9 estímulos fue aleatorio en cada sujeto. Luego de haber realizado los 3 experimentos a cada uno de los 15 sujetos, se procedió a hacer el análisis de varianza ANOVA de dos factores con múltiples muestras para determinar si hubo algún número de estímulos que sea mejor para los sujetos, o si los resultados de las pruebas mejoraban según se iban realizando más experimentos.


CONCLUSIONES

A lo largo de la estancia de verano se adquirieron conocimientos muy importantes respecto a interfaces cerebro-computadora, además de que se realizaron experimentos y sus análisis correspondientes que indican la respuesta de los participantes ante estímulos visuales. Gracias a esto, se demostró que los resultados mejoraron entre más número de pruebas se le aplicaban a cada sujeto y que son indiferentes al número de estímulos.
Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Macuixtle Malpica Jesús Concepción, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES


SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES

Macuixtle Malpica Jesús Concepción, Benemérita Universidad Autónoma de Puebla. Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla. Rojas Baez Rosario Jessica, Instituto Tecnológico de Toluca. Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, el sector textil ocupa el séptimo lugar entre las industrias que originan mayores volúmenes de aguas residuales, los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, sólidos suspendidos y sales disueltas, debido a que los colorantes presentan una compleja estructura química los métodos actuales empleados para el tratamiento de efluentes textiles resultan poco eficientes para su degradación.  El dióxido de titanio (TiO2) es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción directa o indirecta de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm, una fracción por debajo de la radiación solar. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles.



METODOLOGÍA

  a. Síntesis del fotocatalizador TiO2-Au por el método de combustión. Para sintetizar el fotocatalizador se utilizó TiO2 grado analítico y TiO2 Degussa P25. El procedimiento seguido es el mismo para ambos reactivos. Utilizando una balanza analítica se pesa 0.4427 g de TiO2, 0.0070 g de Trihidróxido de Oro [Au(OH)3] y 0.9999 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar la mezcla, la solución se calentó en una parrilla eléctrica a una temperatura de 60°C con el objetivo de evaporar la mayor cantidad de agua. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 4 g de cada fotocatalizador.  b. Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó ácido clorhídrico (HCl), en el caso de pH 3, e hidróxido de potasio (KOH) para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1000 g de fotocatalizador TiO2-Au (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de cuatro horas, tomando cuatro alícuotas con intervalos de una hora. El anterior procedimiento se repitió para el fotocatalizador de TiO2-Au (sintetizado con TiO2 Degussa P25).


CONCLUSIONES

a. Degradación de RM utilizando TiO2-Au sintetizado con TiO2 Degussa P25 Para una solución de RM de 10 ppm con pH 3 se registró una concentración de 8.38 ppm transcurrida la primera hora de reacción, en la segunda hora se obtiene una concentración de 6.82 ppm mientras que en la tercera hora se logró reducir a 6.29 ppm. Para la solución de RM de 20 ppm con pH 3 se registró una concentración de 9.76 ppm transcurrida la primera hora de reacción, mientras que para la segunda y tercer hora se obtiene una concentración de 7.68 y 5.71 ppm respectivamente. En la solución de RM de 30 ppm con pH 3 se obtuvo una concentración de 16.81 ppm pasada la primera hora, en tanto que en la segunda y tercer hora de reacción se registró una concentración de 12.32 y 10.24 ppm respectivamente. La máxima absorción de RM en soluciones ácidas se obtiene hasta la tercera hora de reacción. b. Degradación de AM utilizando TiO2-Au sintetizado con TiO2 grado analítico Se concluyó que a 10 ppm se presentó un mejor resultado en los porcentajes de degradación, debido a que el agua se encuentra menos coloreada lo que facilita el paso de luz a través de la solución activando el fotocatalizador de manera más efectiva en tan solo una hora. Las degradaciones observadas fueron de 35.5%, 39.8% y 38.81% a los pH de 3, 7 y 11, respectivamente. En soluciones a 20 ppm y 30 ppm a pH 3 el rendimiento en la degradación fue bajo debido a que el mayor porcentaje alcanzado de degradación fue de 9.53%. En caso contrario, a 20 ppm para el pH de 7 y 11 la degradación continuó hasta 36.5% y 56.5% de degradación. En soluciones a concentración de 30 ppm los mejores resultados fueron a pH 7 y 11 durante la segunda hora de reacción, llegando un máximo de degradación de 31.43% y 30.25% respectivamente.  c. Degradación de NM utilizando TiO2 -Au sintetizado con TiO2 Degussa P25 Se obtuvo que para el pH 3 durante la primera hora a 10 ppm disminuyó un 20 %, un 20.9 % y 21.81 % para la segunda y tercera hora, respectivamente; en la cuarta hora la absorción disminuye a un 18.18 %, esto debido a la liberación del colorante absorbido por el fotocatalizador. En el caso de la solución a 30 ppm del NM a pH 3 se registraron los siguientes resultados; en la primera hora dentro del sistema disminuyó un 12.28 %, mientras que en la segunda hora disminuyó un alto 36.84 % siendo éste de los valores más elevados, en la tercera y cuarta hora disminuyó un 8.77 % y 5.26 %, respectivamente, lo que nos indica el mismo fenómeno de la concentración anterior. d. Degradación de NM utilizando TiO2-Au sintetizando TiO2 grado analítico La degradación de la soluciones de NM con las diferentes concentraciones y pH utilizando TiO2-Au sintetizado con TiO2 grado analítico ha dado resultado favorables para soluciones ácidas. En la solución de 10 ppm con pH 3 se obtiene una concentración de 8.27 ppm en la primera hora de degradación, una 8.47 ppm para la segunda hora, 8.64 ppm en la tercera hora y 7.88 ppm en la última hora. En el caso de la solución a 30 ppm con pH 3 se registró que, en la primera hora se tiene la concentración de 29.34 ppm, en la segunda hora 28.51 ppm, en la tercera hora 29.02 ppm y en la última hora se obtiene 29.67 ppm.
Madrigal Morales Jacqueline, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

EVALUACIóN DE EFICIENCIA DE COCCIóN DEL PLATO DE BARRO, ADAPTADO CON RESISTENCIA ELéCTRICA.


EVALUACIóN DE EFICIENCIA DE COCCIóN DEL PLATO DE BARRO, ADAPTADO CON RESISTENCIA ELéCTRICA.

Madrigal Morales Jacqueline, Instituto Tecnológico Superior de Los Reyes. Ramos Ixta Jazmín Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

El siguiente trabajo tiene como objetivo divulgar distintas técnicas para el aprovechamiento humano y forestal sustentable que sean apropiadas para las condiciones de las zonas rurales y marginadas de nuestro país. Santamarta (2010) menciona que la grave crisis ambiental, el agotamiento de los recursos y los desequilibrios entre el Norte y el Sur, son factores que obligan a acometer una nueva política energética. A corto plazo la prioridad es incrementar la eficiencia energética, pero ésta tiene unos límites económicos y termodinámicos, por lo que a más largo plazo sólo el desarrollo de las energías renovables permitirá resolver los grandes retos del futuro. Villén Pérez Ma. Araceli (2010) menciona que las energías renovables son la única solución sostenible, y la energía nuclear, de fisión o fusión, sólo agravaría la situación y conduciría a un camino sin salida, de proliferación nuclear y generación de residuos radiactivos. La energía solar absorbida por la Tierra en un año es equivalente a 20 veces la energía almacenada en todas las reservas de combustibles fósiles en el mundo y diez mil veces superior al consumo actual. El sol es la única fuente de materia orgánica y de energía vital de la Tierra, y aunque a veces nos pasa desapercibido, ya hoy estamos utilizando masivamente la energía solar, en forma de alimentos, leña o energía hidroeléctrica. Los mismos combustibles fósiles, cuya quema está en el origen del deterioro ambiental, no son otra cosa que energía solar almacenada a lo largo de millones de años. En México la población usuaria de combustibles sólidos, particularmente leña, tiene un consumo diario promedio nacional de 1.7 kg per cápita, sin embargo, este promedio se modifica dependiendo de la región geográfica, del tipo de leña y estados de los bosques y de las practicas locales de cocinado y de uso del combustible, teniendo efectos que pueden ser de menor a mayor impacto en el ambiente y sociedad. El consumo de energía, incluyendo el transporte, es en la actualidad la principal fuente de emisiones de gases de efecto invernadero y de contaminantes acidificantes. Se caracterizará el diseño y así mismo se buscará un material adecuado para crear un comal ecológico. Se pretende recolectar la energía solar por medio de paneles solares, la energía obtenida se mantendrá por medio de un banco de baterías, para que sea utilizada en el momento que se requiera. Esto generará una disminución en el uso de la leña o biomasa vegetal racionalizando su uso.



METODOLOGÍA

. El diseño y las pruebas se realizarán en el Tecnológico superior de los Reyes en donde se obtendrán los resultados de los análisis de los datos recabados, para determinar si el dispositivo tiene viabilidad y podrá adaptarse a las necesidades básicas de las personas al momento de cocinar sus alimentos. El comal es de barro con una resistencia incrustada en la parte inferior distribuida en forma de espiral, para que el calor se propague de manera uniforme en el comal. En el comal ecológico se demostrará la eficiencia que se genera, comparada con el uso convencional de leña, para demostrar si podemos incrementar la temperatura o disminuye en el dispositivo, de manera que se le pueda dar un uso cotidiano. Se comparará el tiempo que dure en obtener la estufa ecológica la temperatura de 200ºC y observar el tiempo que puede durar estable para la cocción de los alimentos, si es el tiempo adecuado para calentar los alimentos.  La primer prueba se realizará con un recipiente de barro, al cual se le agregará un litro de agua, donde se obtendrán los datos del incremento de la temperatura para determinar si  es constante o genera cambios al igual que la corriente, en esta prueba estará un control de temperatura el cual será utilizado a su máxima potencia, las mediciones se realizaran cada cinco minutos hasta que se mantengan estables los incrementos de la temperatura del comal y del agua, donde se observará si llega a su punto de ebullición.   La segunda prueba se realizará con un recipiente de aluminio, al cual se le agregará un litro de agua, se obtendrán datos del incremento de la temperatura para determinar si es constante o genera cambios al igual que la corriente, en esta prueba estará un control de temperatura el cual será utilizado a su máxima potencia, las mediciones se realizaran cada cinco minutos hasta que se mantengan estables  los incrementos de la temperatura del comal y del agua, donde se observará si llega a su punto de ebullición. La tercera prueba se realizará con un recipiente de aluminio, al cual se le agregará un litro de agua, se obtendrán datos del tiempo que tarda en llegar a su máxima temperatura el comal y agua del recipiente, se tomara lectura cada cinco minutos hasta que se mantenga estable, así mismo verificar si genera cambios en la corriente que requiere el dispositivo, esta prueba será sin un control de temperatura, con el cual verificaremos si genera un incremento o se mantiene estable y si el agua puede llegar a su punto de ebullición.    


CONCLUSIONES

Los resultados que se obtuvieron durante todas las pruebas fueron buenos, así mismo se observo que de alguna manera se pueden mejorar haciendo más pruebas, para determinar que parte del dispositivo se puede modificar e incrementar su eficiencia. Se observa que el comal es eficiente de manera que se puede utilizar para calentar las tortillas como normalmente es utilizado en las comunidades. Se pueden generar algunos arreglos en las resistencias incrustadas en el comal con el objetivo de mejorar transmisión de calor, hasta llegar a tener una mayor propagación uniforme de calor que sea ideal para que el agua pueda llegar al punto de ebullición.
Maldonado Amador Anneth Guadalupe, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.


APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.

Cruz Marquez Diana Jovana, Instituto Tecnológico Superior de Huauchinango. Maldonado Amador Anneth Guadalupe, Instituto Tecnológico Superior de Huauchinango. Montoya Romero Mónica María, Instituto Tecnológico de Los Mochis. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de nuevos materiales de tipo ambiental involucra la utilización de biopolímeros o la combinación de ellos, con el fin de reducir el impacto generado por los polímeros tradicionales, aunque si bien es cierto que estos materiales no pretenden desplazar a los existentes, si se pueden minimizar el uso de estos, colocándolos como una alternativa sustentable para diversas aplicaciones. La investigación de esta problemática se realizó por el interés de reducir el uso de plástico de origen fósil, el cual tiene un proceso de degradación de aproximadamente 1000 años y que aun así no se degrada de manera completa, se sabe que en la época actual, se han fabricado aproximadamente 8.3 mil millones de toneladas de plástico desde el origen de su producción que data del año 1950, lo que equivale al peso de unos mil millones de elefantes, así mismo se estima que alrededor de 10 millones de toneladas de plástico acaban en el océano cada año, de acuerdo con esta problemática el proyecto de investigación a desarrollar tiene como objetivo analizar el tiempo de secado en bioplástico a base de residuos orgánicos, utilizando el diseño de experimentos con un solo factor, con la finalidad de estandarizar su proceso de obtención.



METODOLOGÍA

De acuerdo con la investigación documental realizada, se determinó la ejecución del proyecto de investigación en cinco etapas: planteamiento del problema, planeación del experimento, ejecución de las corridas experimentales, verificación o análisis de resultados e interpretación de los resultados. Planteamiento del problema En primera instancia, se identificaron cuáles son las variables existentes, es decir las  variables de salida (tiempo de secado), las variables de operación (temperatura, método de secado) y las principales entradas (tipos de residuos orgánicos, cantidad). Al establecer las variables o factores que intervienen en el experimento, se pueden unificar los factores que deben investigarse, es decir definir las formas de corroborar cada prueba experimental. Para el análisis de tiempo de secado del bioplástico se utilizó como unidad de medida el minuto, que es el parámetro que nos interesa.  Se tiene que tomar en cuenta los factores que podrían afectar al experimento y que no se pueden controlar. Ejecución de corridas experimentales Se llevaron a cabo un total ocho corridas experimentales en las que se comparó el tiempo de secado, así como las características finales después de ese tiempo. Para llevar a cabo estas corridas se utilizó para cada una las medidas estándar (iguales para cada una) para la obtención de bioplástico, obtenidas previamente al experimento: glicerina, vinagre, almidón (fécula de maíz), agua. El factor de interés en el experimento corresponde a los desechos orgánicos con características propias que podrían permitir la plastificación, por ejemplo el aporte de almidón en su estructura, la cantidad de agua presente, la cantidad de pectina e incluso la resistencia a la degradación, para ello se seleccionaron ocho tipos de residuos orgánicos: sandía, tuna, pepino, naranja, melón, nopal y  mango; de los cuales se tomaron seis muestras para cada uno, teniendo 48 observaciones. Cada corrida fue expuesta a 70º C durante 180 minutos en promedio, con ayuda de un horno eléctrico, consideramos para cada observación 11±1 gramos. Se utilizaron moldes de aluminio de 2.5 gramos en promedio, y para facilitar el desprendimiento del molde se utilizó papel encerado comercial. Los instrumentos de medición que se emplearon para estudiar las observaciones fueron: bascula digital, termómetro de infrarrojo y cronometro, para medir masa, temperatura y tiempo, respectivamente. Se registraron los tiempos de secado para cada observación, así como también las características finales de cada una, por ejemplo apariencia, fracturas en la consistencia, reducción de tamaño, cambio color, desprendimiento del molde y flexibilidad. Verificación o análisis de resultados Al ejecutar las ocho corridas experimentales de acuerdo con el  diseño de experimentos de un solo factor a través del software Minitab 17, se obtuvo  el análisis de la varianza (ANOVA), rechazando la hipótesis nula con un valor P de 0,000 con un  nivel de confianza de 95%, que indica que todos los tratamientos influyen de manera significativa sobre el tiempo de secado para la obtención del bioplástico. Con respecto a las gráficas de la prueba anterior y las pruebas de rangos múltiples se observa una similitud en los resultados en las que las cascaras de mango y de plátano tuvieron un tiempo de secado similar, 180 minutos. Interpretación de los resultados En relación con el análisis anterior, aun cuando todas las corridas experimentales mostraron influencia significativa sobre la variable de respuesta, no todas las corridas experimentales propician la formación del bioplástico, los tratamientos a destacar son los residuos a base de mango, plátano  y penca de nopal, estos mostraron características similares a las del plástico, por otra parte las corridas más desfavorecidas fueron los tratamientos de pepino, sandía, melón, tuna y naranja.  


CONCLUSIONES

Durante la estancia de investigación se lograron adquirir diversos conocimientos relacionados a la estadística inferencial. La planeación y ejecución de corridas experimentales ayudó en el fortalecimiento de las habilidades académicas propias de los  estudiantes de ingeniería industrial, por su parte, él trabajó en equipo, sin lugar a dudas fue una pieza clave para lograr los objetivos planteados, ya que cada integrante mostró distintas aptitudes relevantes para el proyecto. En efecto, esta estancia vigorizó el espíritu de investigación. Con la experimentación sabemos que la cascara de mango es la idónea para la producción de bioplástico. Cabe señalar que con este resultado podemos continuar con más experimentos en los que se pruebe la flexibilidad de este residuo para combinarse con otros, que de alguna forma poseen características similares en composición molecular.
Maldonado Tarelo Adrián, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

CHATBOT:CREADO EN DIALOGFLOW


CHATBOT:CREADO EN DIALOGFLOW

Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Maldonado Tarelo Adrián, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Desarrollamos en Dialogflow un ChatBot que es capaz de responder dudas que el alumno tenga sobre su curso de programación, pero al inicio de todo para saber el nivel que el alumno tiene se le aplica un examen diagnóstico (que se desarrolló en otro chatbot) que nos ayuda a saber el tipo de nivel de conocimiento que tiene el alumno y el estilo de aprendizaje, en este caso el nivel principiante, nivel intermedio y nivel avanzado que se desglosan varios temas respecto al nivel. El ChatBot se creo con el fin de resolver dudas de programacion las 24 hrs. del dia y los 7 dias de la semana, respondiendo de una forma mas humana. Donde también cabe destacar el estilo de aprendizaje de este ChatBot es:  visual- auditivo visual-textual



METODOLOGÍA

El objetivo de este proyecto es resolver las dudas del alumno de su cruso de programcion, de distintos tipos de lenguajes por ejemplo: php, pascal, c++, java, etc... en esta herramientas abarcamos los mas utilizados en el que desarrollamos los siguientes temas: 1.- Evaluación (Nivel de conocimiento y Estilo de aprendizaje). 2.- Nivel básico. En este nivel se desarrolló: CONCEPTOS BÁSICOS: Algoritmo Diagrama de Flujo  Lenguajes de programación Entornos de programación  Tipos de variables TIPOS DE OPERADORES: Operadores de asignación Operadores Aritméticos Operadores relacionales o de comparación Operadores lógicos CONDICIONALES: Sentencia if Sentencia switch CICLOS: Ciclo for Ciclo while Ciclo do while 3.-Nivel intermedio  ¿Qué es una función? Sintaxis Tipos de Funciones Paso de parámetros Programación Orientada a Objetos Clase y Objetos Métodos Constructores Encapsulamiento Herencia  Polimorfismo 4.- nivel avanzado LENGUAJES HTML y HTML5: Etiquetas y estructura 


CONCLUSIONES

La conclusion de este proyecto es que el alumno desempeñe de manera eficaz sus conocimientos en su curso de programacion, asi como se que vuelva autodependiente al momento de realizar sus actividades educativas. Con esta herramienta se le facilitara al alumno su apredendizaje ya que se le resolveran sus dudas de manera inmediata.
Mancilla Torres Maximiliano, Instituto Tecnológico de Colima
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

INVERSOR DE CORRIENTE


INVERSOR DE CORRIENTE

Esquitin Mejia Fernando, Instituto Tecnológico Superior de Huauchinango. Mancilla Torres Maximiliano, Instituto Tecnológico de Colima. Vargas Torres Edgar, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Para poner en función el inversor y saber su correcto funcionamiento es necesario medir la corriente y el voltaje que está fluyendo dentro de éste, para conocer esos datos es necesario utilizar sensores de medición tanto en AC y DC, pero los sensores no funcionan por sí solos, estos requieren estar acoplados a un circuito que les permita realizar las mediciones correctamente, usando como referencia la ley de Ohm se deben utilizar resistores para medir en la corriente. Todos estos circuitos deben de ser alimentados con DC, por lo cual se deben de realizar fuentes de alimentación simétricas, así como fuentes de 5V, 24V y una placa de distribución de voltaje.



METODOLOGÍA

Para realizar el esquemático de los circuitos utilizamos el software libre “Eagle” el cual nos permite realizar también las PCB obteniendo los “Gerber” para poder maquinar las placas fenólicas en una maquina CNC. Se requería de dos fuentes de 25V y una de 5V para poder alimentar la sección de control que va conectada a un módulo inversor IGBT (PM50CLA060) y una fuente simétrica para alimentar los circuitos de medición de voltaje y amperaje, para lo cual fue necesario utilizar: Un transformador de 18V y tres de 32V Puentes rectificadores W02G Capacitores cerámicos 2A104J Capacitores electrolíticos 35V 2200uF Diodo led Resistores de 330 Ω y 0.25 W Reguladores de voltaje LM7805 y LM7824 Borneras de conexión Primero se realizaron los esquemáticos, una vez revisados se realizaron los PCB y se mandaron a maquinar al centro de CNC, una vez maquinadas colocamos los componentes y se soldaron a las placas. Una vez todo colocado y soldado a las placas, se realizaron pruebas, comprobando que nos dieran los voltajes de salida CD deseados. Se repitió el mismo procedimiento para las otras fuentes de alimentación. Para realizar los circuitos de medición fue necesario utilizar: Sensores LV25-P Sensores LA55-P Resistores de medición 0.25W Reguladores LM7815 y LM7915 Capacitores cerámicos (104, 105 y 470) Conectores BNC Borneras de conexión. Para realizar este circuito de igual mamera que las fuentes se realizaron los circuitos esquemáticos, y una vez revisados se realizaron los PCB, donde después se mandaron al centro de maquinado CNC. Cuando nos las entregaron procedimos a soldar los componentes a la placa. En este circuito se utilizaron 2 reguladores de 15 V, uno negativo y uno positivo, estos alimentaran a los sensores LA55-P y LV25-P. De igual manera se utilizaron resistencias de medición para poder obtener los valores de voltaje y corriente DC, estas señales se mandaron a los BCN para poder realizar las mediciones con el osciloscopio y obtener mediciones más precisas y poder ver la forma de onda. Para realizar las pruebas de medición de voltaje y amperaje en la parte de AC, fue necesario identificar las fases A, B y C las cuales se identificaron a través del osciloscopio viendo el desfase que existe entre ellas. Una vez identificadas fueron conectadas a los sensores de medición para verificar que cada uno de ellos funcionaran correctamente midiendo el voltaje que hay entre las fases AB, BC y CA observando que la onda senoidal coincidiera en con cada fase. Para verificar que los sensores de corriente funcionaran correctamente fue necesario utilizar una carga a la salida de los sensores, y repitiendo el proceso de los sensores de voltaje, identificamos el amperaje en las fases A, B y C comparando con la onda senoidal de cada sensor.


CONCLUSIONES

Durante la estancia en este verano, se lograron realizar las pruebas requeridas, obteniendo como resultado la función correcta de cada sensor de medición, así como el correcto funcionamiento de cada fuente de voltaje, obteniendo así una mejora para el inversor de corriente.
Mancinas Cruz Dayra Lucero, Instituto Tecnológico de Los Mochis
Asesor: Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui

SíNTESIS Y EVALUACIóN DEL EFECTO DE LAS NANOPARTíCULAS DE MAGNETITA (FE3O4) EN MICROORGANISMO SALMONELLA


SíNTESIS Y EVALUACIóN DEL EFECTO DE LAS NANOPARTíCULAS DE MAGNETITA (FE3O4) EN MICROORGANISMO SALMONELLA

Mancinas Cruz Dayra Lucero, Instituto Tecnológico de Los Mochis. Asesor: Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas de óxido de hierro han demostraron tener un efecto inhibitorio sobre las bacterias de una manera dependiente de la concentración. La propiedad magnética de las nanopartículas de óxido de hierro las hace más prometedoras en la terapia dirigida de enfermedades infecciosas. Cuando se agrega un campo magnético externo, las nanopartículas pueden ser inducidas al área local de infección. Además, las nanopartículas de óxido de hierro han demostrado cierto grado de efecto antibacteriano en varios estudios. Es por ello, que se decidio trabajar la aplicación de las nanoparticulas de magnetita sobre un microorganismo patogeno, como lo es la Salmonella, una bacteria gramnegativo, que provoca salmonelosis en victimas que consumen alimentos contaminados. En México en 2017 ocupaba el 4 lugar de microorganismos más patógenos y agresivos en México. La Salmonella evade las defensas intracelulares de las células intestinales sin ser destruida y comienza a dividirse dentro de la célula. Es de este modo importante conocer y evaluar alternativas de defensa sobre seres que amenazan con la calidad de vida habitual. Trabajar con las nanoparticulas de magnetita sobre este microorganismo permite aportar conocimientos positivos al área Biomédica.



METODOLOGÍA

Para iniciar con el proyecto fue necesario la síntesis de las nanopartículas de hierro, a las cuales se le añadieron dos tipos de recubrimientos. Inicialmente se sintetizaron las nanopartículas de hierro sin recubrir, continuando con las nanopartículas recubiertas con quitosano y finalizando la síntesis con las nanopartículas recubiertas con citrato de sodio. El proceso de síntesis duró aproximadamente dos horas, después las nanopartículas son llevadas a precipitación mediante la ayuda de un imán, para luego ser llevadas a centrifugación y darle los lavados necesarios. Finalmente, el proceso termina cuando las nanopartículas son liofilizadas. Para poder utilizar las nanopartículas en los microorganismos fue necesario llevarlas a sonicación en tres tiempos durante 15 minutos. El microorganismo a tratar fue Salmonella, es una bacteria gram negativa.  Para iniciar con la evaluación, fueron esterilizados todos los materiales con los cuales se iba a trabajar, así como el área donde se llevó acabo, se realizaron los agares correspondientes para el crecimiento de los microorganismos y para las lecturas en el espectrofotómetro, después en matraces de 50 ml fue añadido agar estéril con nanopartículas en diferentes concentraciones y ahí mismo fue inoculado el microorganismo. Los matraces fueron llevados a una incubadora con agitación y las lecturas se realizaron cada media hora en un rango de 8 horas.


CONCLUSIONES

Como primeros resultados se observo que las sintesis de nanoparticulas tuvo un rendimiento favorable en cuanto a cantidad por tiempo, obteniendo una gran cantidad de gramos de magnetita en una sola síntesis. Se espera además evaluar el efecto que tienen las nanoparticulas de magnetita sobre el microorganismo a trabajar, intentando conocer en sí, la concentración más adecuada de nanopartículas para inhibir cierto numero de unidades formadora de colonias.
Manuel Garcia Juan, Instituto Tecnológico de Iguala
Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala

ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.


ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.

Manuel Garcia Juan, Instituto Tecnológico de Iguala. Rendón Rabadán Lucero, Instituto Tecnológico de Iguala. Sotelo Sotelo Selena, Instituto Tecnológico de Iguala. Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Debido a la preparación de la información para la acreditación de la carrera de Ingeniería en Gestión Empresarial, surge la necesidad de resolver las condiciones de estancia en la institución a través de la trayectoria educativa de cada estudiante de esta carrera.            Este desconocimiento de información radica en no saber las causas del rezago educativo, deserción, reprobación y obtención de reconocimiento de logros académicos, movilidad estudiantil, estancias en el extranjero, eficiencia terminal y titulación, entre otras.  Derivado de lo anterior se requiere analizar la información requerida de la trayectoria escolar de los estudiantes de Ing. en Gestión Empresarial de cohorte 2018.



METODOLOGÍA

Se tomó como referente a la cohorte 2018 de la carrera de Ing. En Gestión Empresarial del Instituto Tecnológico de Iguala, a partir de la construcción de una muestra, realizando encuestas y estudios de investigación en línea a profundidad, para saber las causas que conllevan a los alumnos a la deserción, graficando los resultados obtenidos para analizar cuál es la causa principal que hace que esta situación se presente en el instituto tecnológico de iguala. Diseño y elaboración de la encuesta. Se formularon las preguntas para la encuesta, luego se elaboró el diseño de la misma en google. Aplicación de la encuesta: Estudiantes de la carrera de Ingeniería en Gestión Empresarial de 2° a 8° semestre dieron respuesta a la encuesta que se les aplicó en el Laboratorio de Programación, acompañados de un investigador docente y un estudiante asesorado. Actualización de datos estadísticos por cohorte generacional. Se nos otorgó  un usuario y contraseña por las autoridades correspondientes del Instituto para poder ingresar al portal del SII y obtener datos específicos de cada estudiante del cohorte generacional 2015. Una vez accesado se revisó la situación académica de los estudiantes por medio de su retícula y kardex. Se actualizó la información  de la base de datos en una matriz concentradora. Análisis e interpretación de la información obtenida. Con la información recabada de las encuestas se graficó cada una de las preguntas para analizar a detalle los problemas a los que se enfrentan los estudiantes. Análisis comparativo de las estrategias implementadas por la institución. En equipo se hizo la comparación de las estrategias que ya aplica el Instituto y que no han funcionado en su totalidad. Análisis FODA. Se realizó en equipo un análisis FODA de las fortalezas que tiene el Instituto, las debilidades que se tienen, las oportunidades que se presentan y las amenazas que atentan a los estudiantes. Formulación de estrategias a implementarse. En equipo se aportaron diferentes puntos de vista, para la formulación de las estrategias basándonos en el análisis FODA. Plan estratégico propuesto. Se elaboró en equipo las partes que conforman el plan estratégico, como son la introducción, misión, visión, diagnóstico de la situación actual y un plan de acción que incluye las líneas de acción que se realizarán.


CONCLUSIONES

De acuerdo con la investigación que se realizó en el Instituto Tecnológico de Iguala a la carrera de Ingeniería de Gestión Empresarial, se observaron los parámetros que conllevan al rezago educativo, deserción y reprobación de los estudiantes. El estudio de esta investigación se llevó a cabo realizando diferentes actividades como son, aplicación de encuestas a los alumnos de dicha carrera abarcando las generaciones del 2014 al 2018, análisis de las respuestas graficando resultados para llegar a un resultado más eficaz, entre otras. Dichas actividades permitieron identificar las causas que generan, que los estudiantes tengan algún problema en el trayecto de su carrera. Para definir de manera más precisa  las causas se analizaron aspectos importantes como: aspectos institucionales, económicos, académicos y afectivos. Con los resultados que arroja esta investigación, se obtuvo información  necesaria y confiable, que sirvió como base para proponer estrategias que sean pertinentes y aplicables al contexto del Instituto Tecnológico de Iguala. Al proponer estas estrategias se espera que el Instituto las lleve a cabo logrando así, que todo estudiante que elija esta carrera pueda culminar con ella en el momento y tiempo oportuno.
Marentes Solorzano Gabriel Jair, Universidad de Guadalajara
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Marin Esquivel Lizbeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

EVALUACIóN COMPARATIVA DE LA BIODEGRADACIóN DE PAñALES DESECHABLES Y DE TELA, SIMULANDO LAS CONDICIONES DE UN VERTEDERO.


EVALUACIóN COMPARATIVA DE LA BIODEGRADACIóN DE PAñALES DESECHABLES Y DE TELA, SIMULANDO LAS CONDICIONES DE UN VERTEDERO.

Marin Esquivel Lizbeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rebollo Hernández Julieta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El 80% de residuos sólidos generados en la Ciudad de México son producidos por los pañales desechables por ello se han desarrollado alternativas atractivas donde se implementa el uso de pañales ecológicos para una rápida biodegradación del material.  Por lo tanto, para que un material sea biodegradable es necesario la capacidad de experimentar una descomposición por metabolismo. Es decir, procesos que conlleven el uso de organismos vivos, principalmente hongos y bacterias en presencia de oxígeno (biodegradación aeróbica). Estos procesos metabólicos producen dióxido de carbono, agua, biomasa, y minerales. (Isabella, 1985). Por ello la finalidad del proyecto es generar la biodegradación del pañal con el hongo Pleurotus ostreatus, se busca que el pañal sea una fuente de carbono para el crecimiento y desarrollo de este, dándole un valor agregado en la producción de metano en una biodegradación anaerobia.



METODOLOGÍA

 Se eligió para la parte experimental la microfibra y el inserto de bambú ya que son los que ocupan mayor porcentaje del pañal puesto que son la parte absorbente de este. Ya que se eligieron las telas de estudio, estas se cortaron en pequeños cuadros de 2x2 cm aprox. Se utilizaron 5 tiempos cada uno con su triplicado con ello un total de 15 muestras más el triplicado del blanco por cada muestra dando un total de 18 muestras por tipo de tela. Se preparó el medio de cultivo liquido Sivakumar. Una vez pasados los 12 días de cultivo del hongo, el medio nutritivo se filtró con membranas de fibra de vidrio con 2 µm de tamaño de poro. Para así comenzar con la determinación de actividades enzimáticas las cuales son Manganeso peroxidasa (MnP) y lacasa, Demanda Química Oxígeno (DQO) para conocer la cantidad de materia orgánica que se oxida, azúcares reductores, con el fin de conocer la concentración de glucosa para el desarrollo de  una prueba de potencial metanogénico.  


CONCLUSIONES

Se concluye que el único materia biodegradable del pañal ecológico con el hongo Pleourotus oestratus, es el inserto de bambú el cual funciona como fuente de carbono para el crecimiento y desarrollo del mismo de acuerdo a las determianciones  de Manganeso peroxidasa, lacasa, azucares reductores y Demanda Química de Oxigeno. Asi mismo se determina que la regulación del pH inicial del medio es muy importante no sólo por el factor por sí mismo sino por posibles interacciones con otros compuestos.
Marquez Gomez Erika Daniela Monserrat, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

MANUAL DE PRáCTICAS DE CONTROL DE INVENTARIOS Y PLANEACIóN DE LA CAPACIDAD.


MANUAL DE PRáCTICAS DE CONTROL DE INVENTARIOS Y PLANEACIóN DE LA CAPACIDAD.

Marquez Gomez Erika Daniela Monserrat, Instituto Tecnológico Superior de Guanajuato. Martinez Tavera Arianna Angelica, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El día de hoy las empresas buscan profesionistas capacitados y sumamente preparados. Es por ello que cuando el egresado busca empleo se da cuenta de que no cumple con el perfil que debe tener un Ingeniero Industrial, esto debido a la falta de aplicación de conocimientos adquiridos de manera teórica y la aplicación de tecnologías en casos prácticos, motivo por el cual no desarrolla un pensamiento sistémico que le permita obtener las herramientas básicas para diseñar, mejorar e integrar sistemas productivos de bienes y servicios.



METODOLOGÍA

Para el desarrollo de la siguiente investigación se planteó una metodología la cual se conforma por los siguientes pasos: Análisis de la literatura pertinente a los temas abordados en el proyecto. Conocer sobre la Planeación de la Capacidad y los tipos de la capacidad. Entender la Administración de inventarios y los tipos de inventarios, así como sus ventajas y desventajas.  Identificar los pasos de la Clasificación ABC. Conocer los modelos de inventario determinísticos y probabilísticos. Aplicar los conceptos antes mencionados mediante el desarrollo de un manual de prácticas.


CONCLUSIONES

Con la presente investigación se desea que los estudiantes realicen actividades prácticas con las que logren desarrollarse ampliamente en el ámbito profesional y así desarrollar un pensamiento sistémico basado en la percepción del mundo real para el análisis y comprensión de este, que les permita resolver, planificar y manejar eficazmente problemas reales en la Industria y/o campo laboral.
Marquez Hernandez Jessica Jazmin, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango

APPITSH


APPITSH

Marquez Hernandez Jessica Jazmin, Instituto Tecnológico Superior de Huauchinango. Urbina Fernandez Jose, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Actualmente el Instituto Tecnológico Superior de Huauchinango  cuenta con un sitio web, el cual está disponible para el público en general y a la cual los alumnos pueden acceder para poder hacer distintas consultas, para ello tienen que ingresar desde un navegador web por medio de un dispositivo de escritorio, portátil o móvil. Las consultas más frecuentes que realizan los alumnos es la de calificaciones, kardex, carga académica, noticias y eventos que se han llevado a cabo en el instituto. Para poder realizar las consultas de una forma más fácil se ha planteado el desarrollo de una aplicación para dispositivos móviles que tiene como objetivo mejorar la experiencia de los alumnos del Instituto; como sabemos hoy en día la mayor parte de la población cuenta con un dispositivo móvil personal con el cual interactúan todo el día en sus tareas cotidianas, y está planteada para que los alumnos del instituto puedan hacer la consulta de calificaciones, Kardex, eventos y noticias de una forma práctica. Sabemos que en la actualidad las aplicaciones móviles son hoy en día una de las herramientas de comunicación que estará al alcance de cualquier usuario a largo plazo cumpliendo satisfactoriamente su función. El progreso de la tecnología móvil brinda disponibilidad y acceso a Internet de alta velocidad; por supuesto la notable interfaz de comunicación en estos dispositivos dan como resultado un nivel completo de experiencia e innovación en la informática móvil.



METODOLOGÍA

Para detallar el flujo y el comportamiento de la aplicación inicialmente se comenzó con la elaboración de los diagramas de caso de uso, para esto no se utilizó alguna herramienta o programa de software. Principalmente para la app, los contextos en la que ésta podría estar ya sean en un estado abierto (Primer plano) o cerrado (Segundo plano). En segundo, los contextos para la página web, así mismo se realizaron diagramas para la base de datos. Teniendo un diagrama de flujo y control del funcionamiento del sistema detallado y preciso, se continuó con el desarrollo de la base de datos para el registro de los alumnos. De igual forma se desarrolló una base de datos para simular el sistema de datos del Instituto Tecnológico Superior de Huauchinango y así representar las calificaciones, kardex, carrera, semestre, etc. Propias del alumno. Para la creación de las bases de datos se utilizó el sistema gestor MySQL y como servidor de las Notificaciones Push, se optó por utilizar Firebase en plan Spark. Para poder crear el modelado y maquetado de la app y la página web se utilizó Adobe XD en donde se construyeron las interfaces que cada módulo conlleva, después de esto se inició con la creación y pruebas de los servicios web y al mismo tiempo el desarrollo del sitio web con las herramientas y/o tecnologías que se enlistan a continuación: Apache http Server PHP Sublime Text Postman HTML CSS JS Posteriormente se puso en marcha el desarrollo la app, para ello se utilizó el IDE de Android Studio bajo el patrón de arquitectura MVC (Modelo Vista Controlador) y como gestor de datos se utilizó Sqlite. Para el consumo de los servicios web en la aplicación se usó la biblioteca de terceros llamada Volley. Por último, también fueron utilizadas otras herramientas externas como por ejemplo Android Asset Studio para la edición de algunos iconos y NetBeans para la ejecución rápida de algunos bloques de código.


CONCLUSIONES

Con el desarrollo del proyecto se espera contar con una aplicación móvil inédita en el ámbito universitario, que permitirá a los beneficiarios contar con información pertinente en cualquier momento y desde cualquier lugar. La difusión dentro de la comunidad universitaria y posteriormente su réplica en otras instituciones seguramente generará nuevos requerimientos que podrán ser plasmados en futuras versiones del aplicativo. Las áreas de gestión de la universidad contarán con una herramienta de alto valor agregado a las soluciones informáticas que actualmente poseen en pos de brindar un mejor servicio a sus usuarios.
Marquez Zapata Edgar Paúl, Instituto Tecnológico de Sonora
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

SIMULACIóN DE FILTRO ACTIVO DE POTENCIA Y APROXIMACIóN AL FILTRO HíBRIDO DE POTENCIA


SIMULACIóN DE FILTRO ACTIVO DE POTENCIA Y APROXIMACIóN AL FILTRO HíBRIDO DE POTENCIA

Marquez Zapata Edgar Paúl, Instituto Tecnológico de Sonora. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El incremento de elementos no lineales que consumen o generan potencia conectados en el Sistema Eléctrico de Potencia ha provocado muchos problemas para el mismo, donde, la calidad de la energía eléctrica toma un papel muy importante ya que pueden afectar a todos los componentes eléctricos y electrónicos conectados a la red. Uno de los principales disturbios de la calidad de energía el cual está tomando mucha más presencia debido a los elementos no lineales son los armónicos. Algunos de los efectos de tener un alto contenido armónico son sobrecarga en capacitores utilizados en la corrección del Factor de Potencia, menor vida operacional en transformadores, impacta en la eficiencia, sobrecalentamiento, vibraciones y también vida útil en motores y generadores, interferencia en equipos de telecomunicaciones, entre otros. Las principales soluciones para la disminución de la distorsión armónica son a través de los filtros ya sea pasivo, activo o la mezcla de las dos, el filtro híbrido, los cuales poseen distintas topologías, en este caso como objetivo de verano de investigación se busca hacer un acercamiento al filtro híbrido, a través de la simulación en el software PSIM y de un filtro activo de potencia para presentar bases más solidas y en un futuro realizar la comparativa entre filtro activo y filtro híbrido.



METODOLOGÍA

Se empezó por realizar una investigación sobre los filtros activos de potencia, a través de diversos documentos, haciendo principal referencia en una tesis ya realizada de maestría con el título de Reducción de armónicos de corriente en sistemas de distribución mediante un filtro activo en derivación con control por modos deslizantes en el cual se estudió el contenido del mismo y se comprendió de manera general la aplicación de la tesis, así como también se buscó información en las referencias citadas. En base al mismo documento se identificaron las partes que componen al filtro activo las cuales fueron la carga no lineal, el convertidor de voltaje (inversor), etapa de control en la cual se divide en 3: generación de señal de referencia, generación de señal moduladora y técnica moduladora y a partir de ello se empezaron a simular cada etapa, en base a los parámetros utilizados en el mismo documento de referencia. Se empezó con la etapa de la carga simulando una carga no lineal que consiste en un rectificador trifásico con carga en el bus de CD con una resistencia y otra carga lineal que consiste en un circuito trifásico RL. Se realizó la simulación y se apreció que cuenta con un THD (Distorsión Armónica Total), de aproximadamente 12% se busca disminuir la cantidad lo menor posible y un Factor de Potencia del 0.79 el cual se busca que se acerque a la unidad. Se realizó la simulación de un inversor trifásico de 2 niveles, está compuesto de 6 conmutadores, un capacitor del bus de CD el cual almacena energía y un inductor de acoplamiento hacia el nodo. Se insertó una señal senoidal de referencia y a través de la técnica de modulación PWM se generó un voltaje en fase con la señal de referencia. Para la etapa de control se utilizó un bloque de la transformada dq0, se añadieron mediciones de corriente del lado de la carga y se descompuso la señal de corriente a analizar en su componente d y q, la cual fue necesario utilizar filtros pasabajas para separar su componente fundamental y la diferencia entre la total y la fundamental era la parte armónica. Se integraron los componentes anteriormente separados con el objetivo de obtener la señal inicial y corroborar la correcta utilización de la herramienta. Se prosiguió por integrar el sistema del filtro activo, acorde al documento de referencia, en el cual fue necesario integrar un PLL (Lazo de Seguimiento de Fase), con referencia al ángulo del voltaje de la fase a, el cual sirve para la transformada dq0 establecer una referencia. Se añadió medición de voltaje en el capacitor del convertidor la cual será comparada en la parte de control con un voltaje de referencia, en toda la etapa de control se siguió la misma lógica y estructura. La única excepción fue el los signos de la señal de referencia ya que es necesario mantener los mismos signos debido a que el filtro activo se inyecta al nodo. Para la etapa de modulación se utilizó casi el mismo esquema del inversor, solamente que la señal de referencia fue la generada anteriormente, añadiendo, se integró un control PI (Proporcional Integral) para poder disminuir el error y a su vez generar la señal moduladora utilizando la misma técnica PWM para poder generar los pulsos para los disparos de conmutadores del convertidor. Se simuló todo el sistema integrado, el cual para el caso de las 2 cargas conectadas al sistema el THD disminuyó a un 4.64% y el Factor de Potencia fue mejorado a un 0.99, lo cual se comprueba la correcta implementación del filtro híbrido. Cabe mencionar que los parámetros obtenidos son muy parecidos entre la tesis y la simulación realizada, lo cual puede variar debido a la diferencia de softwares. Se pretende integrar un filtro pasivo en derivación al mismo sistema con filtros para 5to y 7mo armónico, el cual permita realizar una comparativa en la mejora de filtrado de armónicos para ambos casos.


CONCLUSIONES

Durante la estancia realizada se logró profundizar en el filtro activo de potencia, así como la etapa de control utilizada, debido a que este es un amplio tema de investigación y a la falta de tiempo es posible que no se alcance a realizar la simulación del filtro híbrido a una topología dada la cual se esperaría que fuera el filtro activo en serie con el filtro pasivo. Se pretende continuar con el tema para la realización de una tesis sobre filtro híbrido el próximo semestre. Fue bueno poder simular un filtro activo ya que es una de las grandes partes fundamentales del filtro híbrido, pero el comprender todo, así como el poder diseñarlo es tema de investigación actual.
Marrufo Gomez Sergio Hiram, Universidad de Sonora
Asesor: Dr. Victor Adolfo Romero Cano, Universidad Autónoma de Occidente (Colombia)

REDISEñO Y REPOTENCIACIóN DE CELDA DE MANUFACTURA FLEXIBLE.


REDISEñO Y REPOTENCIACIóN DE CELDA DE MANUFACTURA FLEXIBLE.

Marrufo Gomez Sergio Hiram, Universidad de Sonora. Asesor: Dr. Victor Adolfo Romero Cano, Universidad Autónoma de Occidente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

            En la Universidad Autónoma de Occidente se cuenta con una celda de manufactura en la cual una de sus problemáticas es que es muy cerrada y sin muchas opciones a modificarla tanto a nivel software como hardware, esto hace que sea muy poco practica para implementarla a las materias impartidas en la institución o para hacer pruebas de otros proyectos en ella, además de que el alumno no puede poseer experiencia en el diseño de un proceso de la industria porque no cuenta con la posibilidad de poder hacer un diseño propio en esta celda.             Otro problema con esto es que las practicas con el diseño que se tiene originalmente no son muy cercanas a como lo serian en la vida real, teniendo practicas muy sencillas y que no se parecen en nada a un proceso de producción que encontrarías en la industria.



METODOLOGÍA

Se realizó una investigación previa de las celdas de manufactura actuales en base a libros, artículos, tesis, y reportes de trabajos ya realizados tanto por otras instituciones como en la propia de la investigación, todo lo anterior para tener unas bases sobre como comenzar y ver un plan concreto a futuro, además de investigar y usar de base otros proyectos ya antes realizados en la institución y en otras instituciones. Después de eso se prosiguió analizando el estado actual de la celda de manufactura, hacer un diagnóstico y un inventario para revisar con que contábamos, lo anterior para tener en cuenta que teníamos al momento de realizar un diseño, también se realizaron medicines de los elementos de la celda como de los robots, esto para hacer una simulación en programas CAD de cómo sería el diseño con medidas reales, así como una investigación en los perfiles festo para tener en cuenta como se podrían colocar y atornillar la celda con acoples.             Una vez con todo lo anterior se prosiguió a entrevistar a los maestros encargados de algunas asignaturas en el departamento de ingeniería industrial para hablar de cómo podrían implementar la celda de manufactura a sus asignaturas para impartir sus materias a los estudiantes esto para saber qué era lo que ellos necesitaban de la celda y así poder hacer un diseño de algún proceso adecuado para las asignaturas.             Una vez realizadas las entrevistas, se prosiguió por realizar los diseños en sketch, lo anterior para socializarlo con los maestros de la institución y ver si los diseños servían en sus clases o si hacía falta modificarlos, y una vez aprobados los diseños se empezó con el dibujo en 3D en solid Works y alternativas a conexiones entre Python a plc como SNAP7. 


CONCLUSIONES

como conclusión a la investigación se obtuvieron conocimientos sobre los procesos de producción y estandarización de diseños como los utilizados en los perfiles realizados para el desarrollo de la estructura de la celda, además como resultado se obtuvo una propuesta de sistema de selección y empaquetado de frutas mediante tamaño y color, y por último se planea obtener una conexión y programación de PLC mediante el uso de Python y software libre como es en el caso de SNAP7.
Martínez Barba Julia Anayeli, Universidad de Guadalajara
Asesor: M.C. David Alonso Hernández López, Corporación Universitaria Remington (Colombia)

JM ESTRADA S.A: DE SU CULTURA ORGANIZACIONAL ACTUAL A UNA CULTURA DESEADA


JM ESTRADA S.A: DE SU CULTURA ORGANIZACIONAL ACTUAL A UNA CULTURA DESEADA

Martínez Barba Julia Anayeli, Universidad de Guadalajara. Asesor: M.C. David Alonso Hernández López, Corporación Universitaria Remington (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La creciente competencia en la que se encuentra inmerso el medio industrial viene acompañada de diversos cambios muchos de los cuales  representan amenazas para las compañías, la empresa JM estrada  ha optado por indagar sobre su cultura y evidenciar como esta impacta de manera directa en los resultados de la compañía, como influye en un ambiente óptimo donde se estimulen actitudes de innovación  y sobre todo en cómo generar un clima organizacional idóneo para los empleados de la compañía. La compañía JM estrada le apuesta a una transformación cultural donde se parta de una caracterización de su cultura.



METODOLOGÍA

El presentetrabajo se sustentateóricamente en el modelo de diagnóstico cultural de Cameron y Quinn, (2006) y su herramienta Organizational Cultural Assessment Instrument OCAI, adicional se extraen conceptos a partir de la revisión de la literatura como los propuestos por Tichy (1982),  Schein (1988),sobre la importancia de la cultura organizacional para las empresas. Dado que el proyecto genera datos descriptivos y trabaja con las propias palabras de las personas y con las observaciones de su conducta el presente trabajo se realiza bajo el tipo de investigación cualitativa. Población: Compañía JM Estrada Muestra: 60 Empleados (directores, supervisores y personal operativo) Aplicación del Instrumento OCAI. La presente Investigación cuenta con material especializado e integra la participación de los empleados de JM ESTRADA. Consta de tres etapas durante las cuales se usa la metodología planteada en el libro Diagnosing and Changing Organizational Culture de Kim S. Cameron y Robert E. Quinn con su herramienta OCAI, que define cuatro tipos de cultura (Clan, Adhocrática, Jerárquica y de Mercado). 1. Alcanzar un consenso frente a la Cultura Actual 2. Alcanzar un consenso frente a la Cultura deseada 3. Determinar qué cambios podrían ser y cuales no Desarrollo del ejercicio: En la aplicación del OCAI al grupo de los 60 integrantes, el análisis cuantitativo muestra en términos generales, que no hay grandes diferencias entre los tipos culturales, la empresa se ubica con mayor énfasis en una cultura tipo mercado (28.3), seguida de la cultura tipo clan y jerarquía (24,3), por último, la adhocratica (23.1). La cultura tipo mercado se refiere a una compañía que se orienta hacia el entorno externo en mayor medida que a los asuntos internos de acuerdo a la descripción del Método; este tipo de empresas son ante todo entidades orientadas a la consecución de resultados. En el caso de JM Estrada, el proceso y los criterios de éxito toman protagonismo, tal como se percibió en el encuentro de validación con miembros de la organización, los integrantes están orientados hacia objetivos y criterios de éxito establecidos por la misma empresa los cuales son conductores duros, productores y competidores. Lo que apoya la unión como resultado del énfasis en lograr metas, esto debido a que la reputación y éxito son preocupaciones comunes dentro de la compañía. Caracterización de la cultura actual en la empresa JM Estrada Los resultados obtenidos por medio de los cuestionarios aplicados a la muestra representativa de integrantes en la empresa JM Estrada, proyectan el tipo de cultura actual en la organización que es tipo mercado, de acuerdo a las 6 dimensiones analizadas. Cabe mencionar que los líderes de la organización y el estilo gerencial obtuvieron menos puntos debido a que tal como se percibió al mostrar interés por conocer el tipo de cultura de su empresa el estilo de dirección de la empresa JM Estrada se caracterizó con un estilo creativo y flexible debido a que  para ellos es importante la permanente convivencia, la creatividad, innovación y un amplio margen de maniobra en sus acciones. En esta línea de actuación, los valores compartidos con el resto de los miembros son el compromiso con la innovación y el cambio continuo desde una dimensión proyectiva. Caracterización de la cultura preferencial en la empresa JM Estrada los resultados obtenidos por medio de los cuestionarios aplicados a la muestra representativa de integrantes en la empresa JM Estrada,  el tipo de cultura deseada por los miembros de la compañía, los cuales proyectan que prefieren un tipo de cultura Clan. También es importante destacar que  los miembros de la empresa prefieren que los líderes de la organización adopten un tipo de cultura  jerárquica, de este modo la  estructura  surge como una necesidad para realizar una división de las actividades que les permita principalmente alcanzar los objetivos, como resultado de definir autoridad y responsabilidad por los altos cargos y  determinar los procedimientos que los rigen.


CONCLUSIONES

El aprendizaje adquirido durante la estancia de verano por medio de la aplicación del modelo de diagnóstico cultural de Cameron y Quinn y el instrumento OCAI en la compañía JM Estrada, permitió identificar un perfil cultural y unos rasgos culturales muchos de los cuales no era percibidos dentro de la empresa, concretamente los resultados nos arrojaron una inclinación a una cultura tipo mercado debido a que los miembros de la organización se concentran en los criterios de éxitos de la empresa lo que hace que su foco principal sea en cumplir las metas para ser más competitivos, sin embargo existe una preferencia por los miembros. Los cuales prefieren un tipo de cultura clan donde las personas que integran desarrollan un ambiente humano y se fomenta un trabajo colaborativo. Gracias al programa interinstitucional para el fortalecimiento de la investigación y el posgrado del pacífico, a la Universidad de Remington y a mi Asesor el Mtro. David Alonso me permitió dar un valor más profundo al trabajo de intervención cultural, y a la adquisición de aprendizajes significativos para mi carrera profesional como Ingeniera Industrial.
Martínez Bojorges Iván, Instituto Politécnico Nacional
Asesor: Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo

OBTENCIóN Y USO DEL MóDULO DE RESILIENCIA EN EL DISEñO DE PAVIMENTOS FLEXIBLES


OBTENCIóN Y USO DEL MóDULO DE RESILIENCIA EN EL DISEñO DE PAVIMENTOS FLEXIBLES

Martínez Bojorges Iván, Instituto Politécnico Nacional. Asesor: Dr. Carlos Chávez Negrete, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El módulo resiliente es una variable muy importante para predecir los esfuerzos, deformaciones y deflexiones dentro de un pavimento flexible. El módulo de resiliencia es un índice que indica la capacidad de cualquier material para almacenar o absorber energía sin deformación permanente. El método de ensayo nos está normado en México en la actualidad, por lo que se utilizan el método estándar AASHTO T 307 para determinar el módulo resiliente en materiales granulares y suelos finos. El módulo de resiliencia depende del estado de esfuerzos aplicado al pavimento por tanto no es fácil su selección. En la actualidad se determina con un análisis esfuerzo deformación no lineal, que en la práctica pocas veces se sabe hacer. En la investigación se plantea una metodología sencilla que se basa en el método general empírico-mecanicista de diseño de pavimentos.



METODOLOGÍA

El método de ensayo recomienda usar una cámara triaxial con una prensa de carga repetida, donde la muestra compactada se somete a una serie de pulsos de carga generados que representan el paso de los vehículos en el pavimento. En este estudio, se tamizó el material en la malla de ¾ y se compactó un espécimen con un contenido de agua cercano al óptimo. Una vez compactada la muestra se coloca en la cámara triaxial y el espécimen es sometido a 15 combinaciones distintas de esfuerzos desviadores y presiones de confinamiento, que dan como resultado 15 diferentes valores de módulo para cada muestra. Los valores anteriores se ajustan a ecuaciones de comportamiento no-lineal, que dependen del estado de esfuerzos.   Para la utilización de los módulos de resiliencia en el diseño de pavimentos (de acuerdo con los diseños empírico-mecanicistas), se utilizan las ecuaciones obtenidas en un análisis esfuerzo deformación de una estructura de capas de pavimento utilizando el método de Odemark. En el análisis no se conoce el módulo porque depende del estado de esfuerzos, por tanto, se suponen y se calcula el estado de esfuerzos al centro de la capa de interés. Con el resultado del estado de esfuerzos, se calcula el módulo de resiliencia con las ecuaciones obtenidas y se vuelve a ejecutar el análisis, hasta que el módulo previo junto con el módulo calculado son prácticamente los mismos. Por último, se calcula el número de ejes equivalentes de 8.2 ton que es capaz de soportar la estructura propuesta y si es mayor que el tránsito esperado, termina el análisis.


CONCLUSIONES

Se presenta una metodología sencilla para la obtención del módulo de resiliencia de los suelos que se utilizan en el diseño de pavimentos flexibles. La metodología toma en cuenta la dependencia no lineal del módulo de resiliencia respecto al estado de esfuerzos. Por lo que en el laboratorio se utiliza el método de ensayo AASHTO T 307 donde un espécimen de suelo se somete a 15 diferentes estados de esfuerzos, donde se obtiene una ecuación de ajuste desechando los datos atípicos. Para la obtención del módulo de resiliencia se programó una rutina iterativa de análisis en lenguaje de programación Python para determinar el módulo de resiliencia representativo para cada capa de pavimentos.  La metodología facilita la selección adecuada para los módulos de resiliencia en el diseño de pavimentos, por lo que mejorará la práctica profesional en el país. 
Martinez Cañez Carlos Alfonso, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO


RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO

Gallegos Coria Carlos Alfredo, Universidad de Sonora. Martinez Cañez Carlos Alfonso, Universidad de Sonora. Romero Alvarez Jose Sebastian, Universidad de Sonora. Vega Tapia Jose Alberto, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México ha sido víctima de numerosos eventos sísmicos a lo largo de la historia, siendo los más referenciados, los terremotos de septiembre de 1985 y 2017, debido a la magnitud de daños que causaron en la infraestructura de la metrópoli. Debido a ello, y con el fin de que no se repita una destrucción de igual magnitud, es necesario analizar a detalle las características de las edificaciones que se vieron colapsadas o en algunos casos gravemente dañadas, así como la relación que estas guardan con cada uno los sismos mencionados. De esta manera, será posible estimar el comportamiento de futuras obras civiles que compartan características similares haciendo posible un diseño estructural más seguro y confiable frente a eventos de tal magnitud. Con ayuda de software de diseño estructural dinámico se determinarán las deformaciones máximas de azotea con respeto al tiempo, así como las deformaciones máximas de entrepiso que presentan edificaciones de concreto reforzado de 7 y 10 niveles sometidos a las respuestas sísmicas que se registraron en los terremotos del 19 de septiembre de 1985 y 2017 en la ciudad de México para suelos tipo blando (IIIB) e intermedio (II). 



METODOLOGÍA

Según el servicio geológico mexicano la ciudad de México se encuentra en zona sísmica B lo cual representa ser un zona intermedia donde se registran sismos no tan frecuentemente o son zonas afectadas por altas aceleraciones que no sobrepasan el 70% de la aceleración del suelo, aunado a lo anterior el tipo de suelo predominante en la CDMX (de transición/intermedio y blando) genera preocupación en los organismos a cargo de impulsar las obras civiles que dan pie a las grandes y pequeñas edificaciones en la ciudad. Lo anterior debido a que por efectos de sitio las ondas de los sismos se ven amplificadas en los suelos blandos de la CDMX, a pesar de encontrarse en suelo tipo B, su cercanía con la subducción de las placas de Cocos y Rivera con las placas Norteamericana y del Caribe genera la preocupación antes descrita de los expertos en el tema. Por ello, resulta necesario sensibilizar los modelos desde la etapa del pre-diseño y así lograr el comportamiento optimizado en la estructura mediante el uso de análisis dinámicos reduciendo el número de iteraciones. Del reporte efectuado por Roberto Meli y Eduardo Miranda, por parte del Instituto de Ingeniería de la UNAM, Evaluación de los efectos de los sismos de septiembre de 1985 en los edificios de la Ciudad de México, podemos ver que las construcciones que se vieron afectadas con un daño severo, en su mayoría, corresponden a edificios de 9 o más niveles. De igual manera, realizando una investigación en la cual se contabilizaron los edificios colapsados a causa del sismo del 19 de septiembre del 2017, se obtuvo que el número de niveles en los edificios colapsados ronda entre 2 y 7, teniendo un aumento significativo al llegar a los edificios de 4 niveles, dando como promedio los edificios de 4.4 niveles. Concluyendo así que el número de niveles de interés para este estudio ronda entre 4 y 9 niveles. Por lo cual se decidió analizar edificios de 7 y 10 niveles para ambos registros sísmicos. Los registros sísmicos utilizados fueron obtenidos del servicio sismológico nacional y la red acelerográfica de la UNAM.  Del SSN se obtuvo el registro sísmico del 2017 para suelos intermedios en la estación llamada DX3720170919181440, de la red acelerográfica de la UNAM se obtuvieron los registros restantes, para los de 1985 se utilizaron las estaciones sismex viveros y SCT B-1 para suelo intermedio y blando respectivamente, en el registro sísmico del 2017 para suelo blando se utilizó la estación SCT B-2. Para el análisis dinámico de las estructuras se empleó el software de análisis estructural RUAUMOKO. De los resultados obtenidos por el programa fueron de total interés los periodos fundamentales de cada estructura y los datos correspondientes a las deformaciones máximas de entrepiso. A su vez, con ayuda de DYNAPLOT (una extensión del mismo RUAUMOKO), se obtuvieron las deformaciones de azotea para cada instante de tiempo que abarcan los registros sísmicos evaluados. Cabe señalar que se consideraron dos direcciones de análisis (x, y) para los mencionados valores de deformaciones.


CONCLUSIONES

En los datos recopilados se observa que para el sismo del 19 de septiembre de 2017 los edificios de 7 y 10 niveles desplantados en suelo intermedio sufrieron una deformación mayor tanto para cada entrepiso como en azotea, comparándolos con los edificios desplantados en suelo blando. Mientras que para el sismo del 19 de septiembre de 1985 los edificios desplantados en suelo blando sufrieron una mayor deformación. Por lo cual se concluye que el sismo de 2017 fue más adverso para los edificios situados en suelo intermedio al contrario del sismo de 1985, en el cual los edificios situados en suelo blando se vieron más afectados por el nivel de deformaciones. Lo anterior puede deberse al tipo de onda liberadas en cada sismo y al hecho de cómo se amplifican o atenúan cada uno al llegar a los diferentes tipos de suelo en la CDMX. También otras de las diferencias son la duración del sismo y su cercanía con el epicentro, aun cuando el tipo de falla es el mismo para ambos casos.
Martínez Cano José Javier, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara

ANáLISIS DE DATOS MASIVOS EN REDES ELéCTRICAS DE GRAN TAMAñO


ANáLISIS DE DATOS MASIVOS EN REDES ELéCTRICAS DE GRAN TAMAñO

Martínez Cano José Javier, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La minería de datos es un campo de la estadística junto a las ciencias de computación refiriendo al proceso de búsqueda de patrones en grandes sistemas de datos, para desarrollar este proceso se utilizan diversas herramientas potentes en el campo de ingeniería computacional como el AA (Aprendizaje Automático) y IA (Inteligencia Artificial) y bases de datos, en el campo de las matemáticas aplicadas encontramos la estadística con la cual nos ayuda a calcular la variabilidad y lograr hacer predicciones. El propósito de la minería de datos se enfoca en extraer información de un conjunto de datos y desarrollarla en una estructura comprensible para posteriormente hacer uso de los nuevos datos obtenidos, origen del proceso de la minería de datos, estos resultados van variando según los tipos de datos y las limitaciones que van presentando cada algoritmo de desarrollo, para esto se tiene que entender la naturaleza de los datos y con base a esos términos se determinara el tipo de algoritmo y como se tiene que desarrollar. Existen dos tipos de datos que nos puede proporcionar un sensor, datos binomiales (datos digitales) y datos polinomiales (datos análogos), ahora tenemos que determinar el tipo de datos que necesitamos almacenar, para esto tenemos que entender la esencia del cortocircuito. Si en un cortocircuito no se agrega algún elemento que tenga resistencia eléctrica habrá muy poca oposición al flujo de la intensidad eléctrica ocasionando que los electrones fluyan de una manera más fácil lo cual ocasionaría que la intensidad sea demasiado alta.



METODOLOGÍA

El manejo de este tipo de información es muy extenso que si se realizará un proceso manual puede ser complicado y tardado el proceso de predicción, para optimizar este proceso nos apoyaremos de tres métodos algorítmicos los cuales nos ayudaran a compactar la información, descomponer la información y por último agrupar la información, todo esto se tiene que implementar en el software de minería de datos RapidMiner. Primero tenemos que entender conceptos básicos sobre las bases de datos para comprender su estructura y conocer los campos que afectan los algoritmos empleados por esta técnica de minería de datos, las bases de datos se componen principalmente de atributos (columnas o campos) y tuplas (registros o filas), así como otros elementos que complementan  la base de datos como lo son los label (resultados), el volumen (cantidad de datos), el proceso que hace RapidMiner para la interpretación de la base de datos es la siguiente: Velocidad (Rapidez de envió y recibimiento de datos). Variedad (Interpretación de datos). Veracidad (Discriminación racional entre datos reales). Valor (Los datos representan información, pero no toda es valiosa). En la práctica los modelos de los datos pueden ser de dos tipos; descriptivos y predictivos. Los datos descriptivos solo nos ayudan a comprender de manera gráfica y simplificar de manera cuantitativa un conjunto de datos, los datos predictivos (históricos) se utilizan para crear un modelo matemático que capture las tendencias importantes y realizar predicciones. Proceso de extracción de conocimiento Este proceso consta de una secuencia iterativa de etapas o fases para lograr la extracción del conocimiento: Preparación de datos. Minería de datos. Evaluación. Difusión. Uso de modelos. Una vez conceptualizado cada una de estas etapas, se presenta una tipología de tareas para la minería de datos (clasificación, estimación/regresión, agrupamiento, reglas de asociación, etc.), así como las técnicas a emplear para resolverlos (funciones lineales y no lineales, árboles de decisiones, redes neuronales, etc.). Junto a esto podemos agregar medidas de origen básico de evaluación junto a los conjuntos de entrenamiento y prueba. La fase de minería de datos es la que mejor caracteriza la metodología KDD, por esta razón hay veces que este término se utiliza para hacer referencia a todo el proceso KDD. Su objetivo principal es adquirir nuevo conocimiento que pueda utilizar el usuario. La minería de datos se puede realizar construyendo un modelo matemático basado en los datos recopilados, el modelo tiene que describir los patrones y relaciones entre los datos que pueden usarse para lograr hacer las predicciones y así poder entender mejor los datos, inclusive con este tipo de análisis se pude explicar situaciones pasadas. Para poder realizar dicho proceso primero se necesita tomar una serie de decisiones: Determinar la tarea apropiada para la minería de datos: Podríamos usar la clasificación para predecir en una identidad bancaria los clientes que dejarían de serlo. Elegir el tipo de modelo: Podríamos ocupar el modelo de árbol de decisión para obtener un modelo en forma de reglas. Elegir el algoritmo que resuelva la tarea y obtenga el modelo que estamos buscando: Esta elección es pertinente porque existen muchos métodos para realizar la construcción de modelos.


CONCLUSIONES

Durante mi estancia en el varo logre adquirir conocimiento sobre la minería de datos y como es el proceso para realizar de manera correcta la minería, esta información que obtuvimos al realizar este proceso se le denomina conocimiento con el cual podemos realizar un estudio y analizar el comportamiento de nuestros datos.  
Martínez Castellanos Mónica, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan

SOCAVACION EN PILAS EN PUENTES.


SOCAVACION EN PILAS EN PUENTES.

Martínez Castellanos Mónica, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El estudio de la socavación es realmente nuevo y se inició con las investigaciones de E..M. Laursen en 1949, pero los procedimientos de diseños de estructuras contra socavación no se iniciaron hasta 1960 y fue hasta 1998 cuando se especificaron procedimientos unificados para el cálculo de socavación en los diseños de puentes por parte de la FHWA en los Estados Unidos. La complejidad de estos fenómenos es muy alta y por ello el estudio de los procesos erosivos se ha basado históricamente en estudios experimentales, a partir de los cuales se han desarrollado y publicado las ecuaciones de cálculo (Laursen, 1960; Maza, 1968; Neill, 1993). Estas experiencias se han realizado con estribos verticales, con las limitaciones propias de las condiciones de ensayo, tanto en relación de las escalas de los modelos, los materiales granulares que forman el lecho y los parámetros hidráulicos posibles de ensayar en canales de laboratorios. En México, no se cuenta con estadísticas del número de puentes colapsados, pero se tiene el conocimiento que en los últimos años se han venido presentando múltiples fallas en un buen número de puentes que cruzan cauces fluviales de lechos formados, generalmente, por material no cohesivo, siendo la falla principal la producida por socavación local al pie de pilas. En los países latinoamericanos aún no se ha asimilado totalmente nuestras amargas experiencias de socavación de los cauces por efecto de los puentes y una gran cantidad de puentes se encuentra amenazado por procesos de socavación. En muchos casos nuestros diseños son insuficientes para poder garantizar la estabilidad de los puentes durante su vida útil, los períodos de retorno utilizados para los cálculos hidrológicos son muy cortos, y son muy pocos los puentes que se han instrumentado adecuadamente; Sin embargo ya se está trabajando y se requiere avanzar en este camino apenas iniciado, para poder garantizar la estabilidad de los puentes contra socavación.



METODOLOGÍA

Para realizar la investigación, primero realizamos el estado de arte, donde identificamos cuales son las problemáticas a nivel mundial entorno a la socavación y cuáles son las soluciones más eficientes que se han implementado con nueva tecnología. Se analizaron los modelos realizados de las pilas con diferentes rugosidades. Se está trabajando en la simulación digital de los modelos de las pilas, utilizando un software llamado ANSYS, en el cual para poder realizar la simulación, tenemos que tomar en cuenta 4 puntos importantes, que son: Dibujar las pilas por secciones. Asignar las características y propiedades a cada sección. Establecer los límites de frontera. Realizar la simulación.


CONCLUSIONES

Aún se está trabajando en la investigación, los resultados que se esperan obtener, será la comparación de los datos obtenidos con los modelos de las pilas y los datos que obtengamos con el programa ANSYS. Para así poder verificar que este software empleado es una buena herramienta que se puede utilizar en más casos de simulaciones de socavaciones, teniendo la confianza de que los datos a obtener son confiables.
Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
Martinez Cruz Edgar, Universidad de Guadalajara
Asesor: M.C. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco (Colombia)

ESTUDIO DE LAS PROPIEDADES FíSICO-QUíMICAS DE LAS GASOLINAS COMERCIALIZADAS EN EL áREA METROPOLITANA DE LA CIUDAD DE CARTAGENA DE INDIAS, COLOMBIA.


ESTUDIO DE LAS PROPIEDADES FíSICO-QUíMICAS DE LAS GASOLINAS COMERCIALIZADAS EN EL áREA METROPOLITANA DE LA CIUDAD DE CARTAGENA DE INDIAS, COLOMBIA.

Martinez Cruz Edgar, Universidad de Guadalajara. Asesor: M.C. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los hidrocarburos constituyen los elementos esenciales del petróleo; la gasolina es uno de estos hidrocarburos y juega un papel muy importante en el campo industrial a nivel mundial por la demanda que existe para suplir la necesidad en el mercado a nivel global, debido a esto las gasolinas son mezcladas con hidrocarburos de menos valor económico con el objetivo de generar más ganancias en sus ingresos económicos. La masiva utilización de estos combustibles fósiles mezclados ha llevado a un incremento considerable de gases efectos invernadero (GEI), principalmente el CO2, en la atmósfera de nuestro planeta. La acumulación de estos gases ha hecho del cambio climático una realidad. Los combustibles al ser una mezcla proveniente del crudo, necesitan la realización periódica de una caracterización fisicoquímica global, que permita determinar su composición e impurezas, y junto con una destilación de puntos de ebullición verdaderos se logre obtener el mejor rendimiento en productos base, además de la determinación de propiedades fisicoquímicas de cada una de las fracciones (Gasolina corriente y Gasolina extra).



METODOLOGÍA

La metodología propuesta para el desarrollo del proyecto se dividió en 3 etapas fundamentales: •    Etapa de investigación y definición. En esta etapa se tuvieron en cuenta los parámetros óptimos del estudio de las gasolinas encontradas en la literatura. Luego se procedió a corroborar la veracidad de los datos en ensayo del laboratorio. •    Etapa de recolección de muestras y análisis experimental. Para esta etapa se recolectaron las muestras en los diferentes sitios de distribución. Para este ensayo se utilizó el balón Engler con dimensiones estándar. Se le suministró calor a una velocidad tal que puedo recogerse 5 cm3 por minuto de destilado. Durante el experimento se registró  para la curva la temperatura a la cual se obtiene la primera gota de destilado; lo mismo se hizo cada vez que se recogió un nuevo 10% de destilado. La temperatura máxima es 370 °C, por lo cual se trata de una destilación suave sin división. Esta prueba es esencial cuando se quiere determinar la contaminación de un producto. La norma que se aplicó para realizar una destilación fué: ASTM D86 (Método de prueba para Destilación de Productos de petróleo en Presión Atmosférica).   •    Etapa de resultados y análisis. En esta etapa se cuantificaron los resultados obtenidos y se definieron las que mejor se ajustaron a los requisitos de calidad según las normas ASTM D86 que las rigen, además se extrajeron hipótesis que sirvan para futuras investigaciones del trabajo propuesto.


CONCLUSIONES

     Estándares Gasolina ECOPETROL           Pruebas experimentales  Vcondensado (ml)  TGases (ºC)   TGases ​(ºC)         TGases ​(ºC)        TGases ​(ºC) 0                               37.8              40.5                      44                    46  10                             57.2               58.8                     56                    56.4 50                             92.1               94                        93.2                 94.6 90                             143.4             147                      143.4               145 100                           179.9             183.6                   179.6               166 Las pruebas realizadas cumplen con lo establecido de la norma ASTM D86 ya que se cumplió la recolección de 5cm3 por minuto de destilado, las dimensiones del equipo de condensación y balón de destilación. La principal causa de tener la primera gota con una temperatura tan alta comparando con los datos de ECOPETROL (es la compañía estatal petrolera de la república de Colombia) es que el equipo es netamente manual y no se pueden controlar muchas variables y también se pueden tener errores de operación. Se debe hacer la aclaración que la corrección barométricca , si bien es necesaria, en este caso por estar trabajando casí a nivel del mar, no aporta mucha diferencia a los resultados.
Martinez Diaz Rosina Belen, Instituto Tecnológico de Tepic
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES

Dimas Gómez Edgar Daniel, Universidad de Colima. Martinez Diaz Rosina Belen, Instituto Tecnológico de Tepic. Moya Partida Adriana Sinahy, Instituto Tecnológico de Tepic. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. En la actualidad nos enfrentamos a una crisis sin precedentes, la contaminación por desechos humanos cada vez es más crítica y de eso surgió la idea de aprovechar residuos para mejorar las características del cemento, como por ejemplo el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión. Todo eso con el objetivo de mitigar la contaminación que generamos día con día.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indica la norma NMX-C-160-ONNCCE-2004. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma NMX-C-160-ONNCCE-2004 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa NMX-C-160-ONNCCE-2004. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó según la norma NMX-C-083-ONNCCE-2002 para la prueba a compresión de elementos de concreto y la norma NMX-C-191-ONNCCE-2004 para los ensayos a flexión de concreto.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a los 250 kg/cm2 calculados, el espécimen ensayado a 28 días llego aproximadamente a el 20% de la resistencia deseada, por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró sustituir el 15% del peso total del cemento por dicha ceniza no lo hace tan resistente como el convencional de 250kg/cm2, pero por muy poco, el espécimen ensayado a 28 días dio una resistencia de 218.5 kg/cm2 a compresión, pero ayuda a tener un revenimiento menor. El concreto con PET en escama se le adiciono un aditivo acelerarte, presento un mayor rendimiento al convencional, y el espécimen ensayado a los 14 días presento una resistencia a la compresión aceptable de 209.9kg/cm2. Durante la elaboración de las mezclas antes mencionadas se tuvo una circunstancia que afecto en el desempeño de los especímenes y fue el hecho de que al momento de hacer la dosificación de la muestra no se caracterizaron los agregados pétreos, esto género que en cada mezcla se agregara una cantidad total diferente de agua con el objetivo de hacerla lo sufrientemente trabajable. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo.
Martinez Flores Alberto David, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México

INVERNADERO INTELIGENTE


INVERNADERO INTELIGENTE

Martinez Flores Alberto David, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Domótica Se nombra domótica a los sistemas y dispositivos que son capaces de automatizar cualquier tipo de hogar o entorno, gestionando la energía, la seguridad, el bienestar y la comunicación, que se integran por medio de redes de comunicación. Se podría definir como la integración de dispositivos tecnológicos en el diseño inteligente de un recinto cerrado. INVERNADEROS INTELIGENTES   Del primer invernadero que se tiene noticia data de alrededor de 1850 en los Países Bajos. Sin embargo, es una fecha difusa porque hay registros de construcciones erigidas alrededor, o antes de ésa, destinadas al crecimiento y la conservación de las uvas. Sin embargo, lo importante es que su creación alteró las prácticas de la agricultura dado que su intención inicial consistía en cultivar plantas de climas cálidos en pisos templados o fríos. Pero su desarrollo alcanzó impacto cuando fenómenos climáticos acaecidos entre 1972 y 1973, dieron pie para redactar las normativas NEN 3859 en Holanda y Países Bajos, pioneros en implementación e investigación de este tipo de sistemas.    



METODOLOGÍA

Se aprenderá la programación para elementos electrónicos con el fin de controlar y automatizar. Las variables de estudio a estudiar del prototipo "invernadero inteligente" son: temperatura, humedad relativa, humedad del sustrato e intensidad de luz. El procedimiento consiste en monitorear las variables físicas (sensores) para controlar actuadores eléctricos. Para ese fin se usará la tarjeta Arduino UNO.  


CONCLUSIONES

El mundo ha evolucionado en la tecnología, en el curso se aprendió el uso de la tarjeta Arduino Open Source para la creación de objetos inteligentes haciendo uso de sensores y actuadores controlado desde un dispositivo, como lo son luces, motores, interruptores entre otros actuadores físicos. La automatización de diversos objetos facilita los trabajos de activación y monitoreo de objetos, en el caso de un invernadero inteligente hacemos uso de sensores de luz, capacitivo, humedad relativa y de sustrato, activa los actuadores al llegar a ciertos valores que fueron programados previo a su instalación. Adicional a todo lo anterior se aprendió a grabar el bootloader en un integrado ATmega328PU, el cual nos permite independizarnos de la tarjeta Arduino y de esta manera poder diseñar nuestro circuito con los componentes necesarios para completar nuestro proyecto.     
Martínez Gómez Natalia, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Virginia Villa Cruz, Universidad de Guadalajara

DESARROLLO DE BEBIDAS Y NéCTARES CON LACTOSUERO Y FRUTA CON ACTIVIDAD ANTIOXIDANTE.


DESARROLLO DE BEBIDAS Y NéCTARES CON LACTOSUERO Y FRUTA CON ACTIVIDAD ANTIOXIDANTE.

Martínez Gómez Natalia, Instituto Tecnológico de Tuxtla Gutiérrez. Velasco Chavarria Samantha Esthefania, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Virginia Villa Cruz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El municipio de Lagos de Moreno, Jalisco, se caracteriza por su alta producción de leche y cuenta con un gran número de industrias de diversas dimensiones, en muchos casos negocios familiares. Uno de los principales residuos que resultan de la fabricación es el lactosuero, el líquido amarillento que resulta de cuajar el queso, mismo que contiene gran cantidad de nutrientes (lactosa, proteínas, minerales y grasa) pero que en su mayoría es desechado en ríos o vendido como alimento para ganado. El vertimiento de este subproducto a los ríos genera una significante perdida potencial alimenticio y de energía; además, que se caracterizan por una alta concentración de DQO (Demanda química de oxigeno) y DBO (Demanda biológica de oxigeno) representando alto contenido orgánico, provocando la contaminación ambiental. Una de las alternativas para aprovechar este subproducto es la elaboración de bebidas. El objetivo es evaluar la capacidad antirradical de la bebida de lactosuero formulado con fruta y obtener el análisis proximal.



METODOLOGÍA

Se determinó la capacidad antirradical de la fresa y arandano, para ello se extrajo el jugo con un extractor de jugo, pesando  250 mg de jugo en un tubo ependorf de 2 mL, luego se agregó 1 mL de metanol 80 % v/v, para tener una mezcla homogénea se utilizó un vortex y se centrifugo a 10 000 rpm durante 15 minutos, el sobrenadante recuperado fue transferido a otro tubo ependorf; al pellet se le agrego 1 mL de metanol al 100 %, se volvió a agitar en vortex para su posterior centrifugación, todo el  sobrenadante recuperado se ajustó a 2mL. Los extractos se protegieron de la luz y en refrigeración hasta su uso. Para poder determinar la capacidad antirradical de los extractos se realizó la determinación por el método de ABTS. Para ello se preparó ABTS 7 mM con persulfato de potasio y se mantuvo a oscuridad por 16 horas; el buffer PBS 0.01 M a pH 7.4; y stock Trolox 4 mM, protegiendo se de la luz y en refrigeración. Se diluyo el radical coloreado ABTS en buffer PBS, agregando 1 mL de ABTS concentrado a 200 mL de buffer PBS, tornándose a verde-azul, y luego se midió la absorbancia a 734 nm, ajustando a una absorcia de 0.7000 +/- 0.02. En la realización de la curva patrón se utilizó el antioxidante Trolox a 15 μM, 30 μM, 45 μM, 60 μM y 75 μM, diluyendo con metanol al 80 % v/v, después se tomó 100 μL y se le agrego a 1900 μL de solución de ABTS, se agito y se dejó reposar por 7 minutos para su posterior lectura en un espectro UV a 734 nm, cabe mencionar que a cada concentración de realizo por triplicado y se utilizó metanol al 80% como blanco. En la elaboración de la bebida, el realizó el tratamiento del suero para disminuir el contenido de grasa, centrifugando a 9 000 rpm a 4 °C por 10 minutos, y se mantuvo en refrigeración hasta su utilización. Para la elaboración del concentrado de la fruta se lavó y se desinfecto, después se sometió a un proceso de escaldado por un minuto a 90 ° C, posteriormente se extrajo el jugo utilizando un extractor y luego se concentró a fuego bajo durante 5 minutos. En la formulación se adecuo de acuerdo a la norma general del CODEX para jugos y néctares de frutas (CODEX STAN 247-2005), posteriormente se envasó en recipientes de vidrio con tapa metálica, previamente lavadas y esterilizados, después, se pasteurizó durante 30 minutos a 60 °C. A cada bebida se elaboró por triplicado para su posterior determinación de la capacidad antirradical, realizando el mismo procedimiento al del extracto del jugo de dicha fruta, además se determinó los análisis proximales en el equipo MilkoSanTM Mars marca FOOS, en la cual se dio lectura a solidos totales, solidos no totales, proteínas, lactosa, grasa y punto criocospico.  


CONCLUSIONES

Debido a las grandes cantidades de queso que son producidas a nivel mundial, el lactosuero ha generado un problema de contaminación ambiental. Es una excelente materia prima para obtener diferentes productos a nivel tecnológico o como medio de formulación en procesos fermentativos. A pesar del problema de contaminación que se genera, existen una infinidad de productos que se pueden obtener. Dentro de estos productos están ácidos orgánicos, productos de panadería, bebidas para deportistas, alcoholes, bebidas fermentadas, gomas, empaques biodegradables, sustancias inhibidoras de crecimiento, proteína unicelular, exopolisacáridos, concentrados proteicos, además, las proteínas del lactosuero tienen propiedades funcionales que permiten ser muy útiles en el área de los alimentos. Es por eso que el desarrollo de la bebida a base de lactosuero y con base a las normas mexicanas que rigen la producción y estandarización del producto conllevaría a beneficiar a los productores e industrias de alimentos lácteos de la región y disminuir el desperdicio del mismo además de aportar un alimento funcional con contenido de antioxidantes y proteínas y además bajo en grasa al mercado de la industria alimentaria con precio accesible que ayudaría a la población que opte por consumir este producto. Durante el análisis del jugo formulado se obtuvo una lectura menor al stock TROLOX, el jugo formulado con extracto de arándano fue mayor al jugo con extracto de fresa hasta llegar a la concentración de 53 µM, donde se observa un crecimiento exponencial que termina siendo ligeramente mayor al jugo de arándano. Concluimos que estas bebidas pueden competir en el mercado regional además de ser accesibles para toda la población y ser un alimento funcional y tecnológico.
Martínez González Diana Carolina, Universidad de La Salle Bajío
Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)

DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.


DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.

López González Karenina, Universidad de La Salle Bajío. Martínez González Diana Carolina, Universidad de La Salle Bajío. Santiago Hernández Jorge, Universidad Veracruzana. Vazquez Gonzalez Yaznay, Universidad Veracruzana. Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La carne de cerdo es la tercera más consumida en Colombia, por eso en los últimos años el sector porcicultor ha presentado un desarrollo relativo que le ha permitido crecer de forma constante, fortalecerse en su gestión gremial y consolidar su estructura empresarial. El sector porcicultor en Colombia está evolucionando gracias a la demanda del porcino, queriendo ésta lograr tener sus mayores productores. Sin embargo, el productor porcicultor colombiano se encuentra con diversas problemáticas debido a las deficiencias en la cadena de suministros porcícola colombiana (CSPC), como, por ejemplo, empresas que aún utilizan métodos no tecnificados para la gestión de sus granjas, haciendo que estas prácticas propicien una afectación en la productividad de los procesos dentro la porcicultura ya que impactan en los estándares del producto final. Dada las dificultades presentadas, el objetivo de esta investigación es describir y analizar los indicadores de la CSPC, que influyen en el desarrollo óptimo del proceso de cría, con el propósito de obtener las mejores prácticas en las fases productivas para presentar al sector porcino un sistema de apoyo que facilite y favorezca la inspección y el manejo de los cerdos desde la gestación hasta la ceba.



METODOLOGÍA

La investigación se desarrolló por medio del análisis de observación, bajo la metodología de tipo cualitativa, iniciando con una revisión de literatura en bases de datos científicas, libros, revistas indexadas, reglamentaciones nacionales y tesis, entre otras. Las etapas fueron caracterizadas por medio de diagramas de flujo, con sus entradas y salidas e identificando los correspondientes indicadores de gestión.


CONCLUSIONES

En los resultados se logró identificar algunos indicadores de gestión para cada fase. Adicionalmente, se pudo establecer la necesidad que tiene el gremio de contar con herramientas técnicas y tecnológicas para toma de decisiones efectivas y oportunas, que les permita mayores índices de productividad y desarrollo en el transcurrir del ciclo de vida útil de la cadena. En conclusión, se pudo establecer que el factor más importante del proceso se evidencia en la fase de ceba, ya que aquí se obtiene el mayor consumo de alimento, porque el porcino necesita alcanzar 110 kg de peso vivo, para enviarlo al frigorífico. Se recomienda, continuar con la investigación, para detallar y articular las demás fases del ciclo de vida de la cadena de suministro porcícola colombiana, como son, comercio de cerdos en pie por parte de los acopiadores, sacrificio o plantas de sacrificio porcino formal e informal, desposte (mayoristas y minoristas), plantas de procesamiento de embutidos, comercio al por mayor y comercio al por menor abarcando desde canales hasta restaurantes, proveyendo a la industria porcícola colombiana con una herramienta de gestión que le permita fortalecer sus procesos de toma de decisión, los cuales mejorarán la productividad y niveles de competitividad en los entornos nacionales e internacionales.
Martínez Ledesma Víctor, Instituto Tecnológico Superior de Uruapan
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

DESARROLLO DE UN VIDEOJUEGO DIDáCTICO PARA EL APRENDIZAJE DE HERRAMIENTAS DE LEAN MANUFACTURING


DESARROLLO DE UN VIDEOJUEGO DIDáCTICO PARA EL APRENDIZAJE DE HERRAMIENTAS DE LEAN MANUFACTURING

Alvarez Rauda Daniel, Instituto Tecnológico Superior de Uruapan. Martínez Ledesma Víctor, Instituto Tecnológico Superior de Uruapan. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La metodología Lean Manufacturing es clave en los sistemas de producción de cualquier empresa de clase mundial, por lo que es necesario que cualquier estudiante de ingeniería industrial conozca y maneje estos conceptos y su aplicación. Por esta situación, se ha buscado la manera de enseñar de forma interactiva y práctica las herramientas que integran Lean Manufacturing tales como 5s, SMED, TPM, JIT, Jidoka, entre otras. Marc Prensky afirma estar convencido de que los chavales se sienten tan atraídos por este tipo de entretenimiento digital (videojuegos) porque aprenden cómo actuar ante situaciones que se encontrarán en el futuro en su vida real, en su vida adulta. Desde la colaboración hasta la prudencia a la hora de tomar ciertos riesgos ante situaciones difíciles, los videojuegos se convierten en una recreación virtual de lo que será la vida adulta. En la investigación llevada a cabo por David Williamson Shaffer, Kurt R. Squire, Richard Halverson y James P. Gee de la Universidad de Wisconsin – una de las conclusiones más importantes obtenidas por estos investigadores tiene que ver con el aprendizaje basado en los errores: los fallos son inevitables, pero no irreversibles. El fallo en un videojuego obliga a intentar de nuevo pasar ese nivel, y esto solo se consigue con esfuerzo, perseverancia y conociendo en qué se ha fallado para corregir el error y hacerlo de forma correcta. La problemática abordada en este trabajo es la utilización de los recursos tecnológicos en este caso los video juegos como estrategias de aprendizaje e incrementar su uso para adaptar el conocimiento hacia las nuevas formas de aprendizaje de los estudiantes.



METODOLOGÍA

La metodología utilizada para el desarrollo de este trabajo consistió en un primer momento involucrarse en el tema conociendo un poco del esto a través de la revisión de la bibliografía y trabajos realizados bajo el mismo enfoque, una vez inmersos en dicha temática se profundizó en el conocimiento de la metodología lean manufacturing así como en el manejo para el desarrollo de videojuegos para computadoras en la plataforma de desarrollo de juegos de rol RPG Maker MV, posteriormente se comenzó a diseñar el juego en el cual se estructuraron diferentes niveles a través de los cuales el jugador irá aprendiendo conceptos de Lean y resolviendo misiones que involucren la aplicación práctica de estos conceptos. Las herramientas que se irán aprendiendo se organizaron en base a la “casa Lean Manufacturing”, también conocida como “casa de la calidad”. Posteriormente se deberá dar un nombre al video juego y realizar las pruebas piloto, para realizar las adecuaciones y mejoras necesarias para su optimo desempeño tanto tecnológicamente, así como en los objetivos planteados en el aprendizaje de dicha metodología. Este esquema contiene una estructura lógica con herramientas bases, que deben aplicarse inicialmente, como lo son 5s, SMED, TPM, Kanban, para posteriormente establecer los dos pilares, que son Just in Time, en el que se encuentran herramientas tales como Takt Time, Flujo Continuo, Sistemas Pull, y el segundo pilar, que es Jidoka, en el que se contienen herramientas como paradas automáticas, separación hombre máquina, Poka- Yoke y el control de calidad desde cada estación, todo esto para llegar a lograr la mejor calidad posible con el menor costo, así como el menor tiempo de entrega, la mayor seguridad y el mayor beneficio económico posible. Gracias a este orden, el jugador puede ir paso a paso con la aplicación de Lean Manufacturing en varias etapas, hasta conseguir el mejor resultado posible. La historia del juego relata la llegada de un ingeniero industrial a una empresa que busca implementar Lean a su proceso, por lo que en cada misión se aprenderá una nueva herramienta, que se aplicará a distintas partes del proceso para ir mejorando el proceso general.


CONCLUSIONES

Se busca que el desarrollo de este videojuego impacte positivamente en los niveles de aprendizaje de estos conceptos y su aplicación práctica a cualquier proceso, evaluando la capacidad del jugador para ir aplicando los fundamentos de cada herramientas a problemas similares y que puedan observar que una vez que se tengan todas las herramientas bien implementadas y cimentadas en cada aspecto de la empresa, los beneficios serán muchos, tanto para el cliente, quien obtendrá productos de alta calidad que garanticen su satisfacción, como para la empresa, que con pocos recursos y en poco tiempo podrán satisfacer la demanda y obtendrán mayores utilidades. Dentro de la estancia de verano, se profundizo sobre la metodología Lean Manufacturing, nos dimos cuenta que hay bastantes trabajos realizados acerca de esta temática y su aprendizaje a través de los video juegos, pero que esto no se ve reflejado en los aprendizajes en el aula, los cuales siguen la base de desarrollarse sobre datos y hechos. También se aprendió ha realizar la programación en la plataforma de desarrollo de juegos de rol RPG Maker MV.
Martinez Londoño Maria Camila, Institución Universitaria de Envigado (Colombia)
Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)

DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO


DESARROLLO DE UNA ESTRATEGIA DIDÁCTICA PARA LA ENSEÑANZA DE LA FACTORIZACIÓN DE POLINOMIOS POR MEDIO DE UN JUEGO SERIO

Bueno Hernandez Alan, Tecnológico de Estudios Superiores de Jocotitlán. Chaverra Sanchez Nelson Farley, Institución Universitaria de Envigado (Colombia). Martinez Londoño Maria Camila, Institución Universitaria de Envigado (Colombia). Asesor: M.C. Sebastian Gómez Jaramillo, Tecnológico de Antioquia Institución Universitaria (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Muchos países requieren de estudiantes matemáticamente calificados ya que estos son importantes para el progreso y el futuro (Rylands & Shearman, 2018). Sin embargo, en los últimos años se han evidenciado problemas de rendimiento académico en el área de las matemáticas. Para fundamentar esto, se tienen los resultados obtenidos en la prueba PISA 2015 en donde el desempeño promedio de las tres áreas (lectura, ciencias y matemáticas) de Latinoamérica está por debajo de la media establecida por la OCDE, destacando que los resultados de matemáticas está aún más abajo que los de las demás áreas (Ministerio de Educación Nacional, 2017).  Los estudiantes de ingeniería de nuevo ingreso se enfrentan al precálculo (también conocido como matemáticas operativas o álgebra básica), asignatura en la cual presentan un promedio académico muy bajo y un alto porcentaje de pérdida, un ejemplo de esto son las estadísticas de la Facultad de Ingeniería que brindó Admisiones y Registros del Tecnológico de Antioquia-Institución Universitaria (TdeA).                     FACULTAD DE INGENIERIA TdeA - MATEMÁTICAS Periodo académico                   2017-1    2017-2    2018-1    2018-2 Número de estudiantes                 261        188         190        153 Porcentaje de pérdida (0-2.9)       41.8%    29.8%     39.5%     47.1% Promedio nota (0-5)                          2.9        2.9          2.8         2.8 Además de estas cifras, se cuenta con los resultados de una encuesta aplicada finalizando el primer trimestre del periodo académico 2018-2 a los estudiantes de un grupo de álgebra y trigonometría de la Institución Universitaria de Envigado (IUE) con la cual se pretendía identificar el tema que les generaba mayor dificultad en dicho trimestre. Los resultados son los siguientes: Potenciacion y radicacion:   7 Función exponencial y logarítmica: 10 Polinomios:  5 Factocización:  18  Con lo anterior, se demuestra que los jóvenes en los colegios e instituciones de educación superior (IES) no están adquiriendo las habilidades matemáticas necesarias para obtener un buen desempeño académico. Por este motivo, se considera de vital importancia desarrollar una estrategia metodológica que permita fortalecer las destrezas matemáticas de estos.Por lo que este trabajo tiene como principal objetivo desarrollar una estrategia didáctica por medio de un juego serio para la enseñanza de la factorización de polinomios con el cual se pretende fortalecer las capacidades de los estudiantes universitarios que estén cursando el primer semestre de ingenierías.  



METODOLOGÍA

La metodología es aplicada y de tipo cuantitativa. Se inicia con la caracterización de estrategias didácticas para la enseñanza de la factorización, esta se realiza con una revisión sistemática de literatura; dicha revisión es planificada, luego es desarrollada utilizando una matriz de clasificación y finalmente se realizan conclusiones. Posteriormente, se retoma la caracterización y se diseña una dinámica de juego serio que agrupe las diferentes estrategias caracterizadas, se sigue con la selección de una plataforma de desarrollo digital por medio de un método comparativo, paso seguido se desarrolla el juego serio de forma iterativa con la finalidad de agregar funcionalidades y por último, se pretende validar por medio del desempeño académico de grupos de control, aplicándose una prueba pretest y postest con estudiantes de precálculo de nuevo ingreso de ingenierías en las tres instituciones involucradas en la investigación.


CONCLUSIONES

Las actividades didácticas que fueron propuestas en los artículos revisados para mejorar el aprendizaje son altamente efectivas. Principalmente, por la forma visual que poseen las metodologías que se implementaron, ya que funcionan para motivar al estudiante en la asignatura, atendiendo toda expectativa y logrando comprender los conceptos de manera ágil debido a que con esta metodología se propone una forma atractiva de explicar la factorización, sin dejar de lado la fundamentación teórico-práctica. De igual forma, en cuanto al tipo de validación los autores coinciden en que la alternativa más común es por medio del análisis del rendimiento académico en grupos de control. Resultados: Obtenidos: De acuerdo con la revisión de literatura se analizaron catorce textos de estrategias para la enseñanza de la factorización, dentro de estas estrategias ocho se establecieron de manera física y seis de manera digital. En tanto a su implementación cinco fueron aplicadas en universidades y nueve en colegios, además cinco obtuvieron una validación por medio del rendimiento académico, seis trabajaron con un grupo de control y tres por percepción cualitativa, paso seguido se realizó la caracterización de dichas estrategias. Como resultados esperados estará; el diseño de la dinámica del juego serio, la creación de este en un ambiente virtual y su implementación en un curso real. Esperados: Se espera que el diseño virtual del juego serio con ayuda de la fundamentación teórico científica llegue hasta su última etapa, en donde el objetivo es tener un juego robusto e iterativo que se convierta en una herramienta fundamental para los estudiantes de nuevo ingreso de ingeniería al momento de fortalecer sus conocimientos en un tema tan importante en matemáticas como lo es la factorización, además se espera que este pueda validarse en las 3 instituciones de educación superior involucradas en la investigación.  
Martinez Lopez Jorge Armando, Instituto Tecnológico de Iguala
Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala

DETECTAR Y MEJORAR EL PROCESÓ DE DEFICIENCIAS EN LA LINEA DE PRODUCCIÓN EL ÁREA DE PANTALÓN.


DETECTAR Y MEJORAR EL PROCESÓ DE DEFICIENCIAS EN LA LINEA DE PRODUCCIÓN EL ÁREA DE PANTALÓN.

Martinez Lopez Jorge Armando, Instituto Tecnológico de Iguala. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El problema que se está resolviendo en TRAJES INIGUALABLES S.A. DE C.V. es la falta de eficiencia en los trabajadores. La principal cuestión es ¿Porque los operarios tienen baja eficiencia en base a su producción? Sería la pregunta a resolver y buscar las principales causales del porque su eficiencia es muy baja en algunos operarios. Para esto nos enfocaremos en el área de pantalón



METODOLOGÍA

Se mantuvo la observación durante las primeras 4 semanas en las cuales se redactaba un formato sobre las principales cusas porque los operarios no rendían productividad, para ello se nos apoyó con varios formatos para la toma de producción. Para determinar la estructura de cómo obtener los causales de las deficiencias muy altas es necesario hacer una evaluación sobre las necesidades de las cuales los operarios carecen, y contrastándola con la disponibilidad de los mismos.   Será necesario que se tomen decisiones, sobre la posibilidad de proporcionar información de cada operario en cuanto a su eficiencia.   CONOCER EL PROCESO DE CONFECCION DE PANTALÓN. Para poder llevar acabo el conocimiento de confección de pantalón se tuvo que dar un recorrido y seguimiento de cada operación en cada una de las secciones que tiene la línea de pantalón de principio a fin tomando en cuenta el almacén de abastecimiento de tela hasta almacén de producto terminado.   ALMACEN Y REVISADO DE TEJIDO   La cual esta abastecida por la sección de corte y de almacenamiento en los cuales entran puntos como lo son revisado de tejido ya que es fundamental revisar la tela en caso de que cuente con hilos jalados y que no tenga hoyuelos. Se debe hacer detalladamente y cuidadosamente.   CORTE   Este proceso debe de ser muy preciso ya que el corte de tela es por bulto y si un bulto es mal cortado no puede pasar a la siguiente sección y/o operación.           FUSIONADO   En esta área solo algunas piezas de la sección de corte pasan a fusionado como lo son: refilar vivos, ojalera, pretina a las cuales les colocan adhesivos y entretelas en diversas partes las cuales ayudan a dar mejor firmeza a la prenda al pasar por una maquina fusionadora esta parte tiene un control por foleo ya que la tela y el adhesivo de coincidir con la tela a fusionar.   PIEZAS CHICAS   Como primera sección tenemos lo que son Piezas Chicas en la cual tenemos la elaboración de las piezas pequeñas de pantalón, es donde se da costura de todas las partes que sección de corte y fusionado abastece a la sección para dar como resultado a: Ojalera y cierre Pretina con monarch Bolsa delantera Bolsa trasera y etiqueta de marca Traba Una vez terminado todo el proceso de elaboración de piezas chicas estas son trasladadas a las diferentes secciones de pantalón ya que la sección de piezas chicas abastece a la line a de pantalón en un orden aleatorio. Como auxiliar de línea de producción se mantuvo en observación la sección de piezas chicas ya que es donde hay más deficiencias en los operarios el contacto que se tuvo con ellos es la toma de tiempos, la producción real del operario en base a su tiempo estándar, en caso de tener un operario nuevo se le mantendrá en observación y se le redactara un formato conocido como grafica de eficiencia dicho formato contiene datos como el tiempo que trabaja el operario en su estación de trabajo así como la operación que desempeña al igual que el número de prendas que produce en el determinado tiempo que labora.   TOMA DE TIEMPOS ESTÁNDAR PARA OPERACIONES NUEVAS   En este apartado se da conocer como fue el proceso de toma d tiempos estándar ya que la line de producción está en constate modificación en base a sus operaciones es necesario tomar tiempos para clasificar y darle un costo a dicha operación.   Cabe mencionar que se checo el tiempo estándar de operaciones ya con un costo establecido para determinar si era un causal por el cual el operario tuviera deficiencia en ciertas situaciones fue acertada la toma de tiempos ya que al ser una operación con T. STD muy alto el operario no alcanza su producción diaria de jornada de trabajo. Por eso es considerarlo un causal del porque hay deficiencia de productividad.   ACTUALIZACION DE METODOS DE TRABAJO Y REDACCION DE METODOS NO ASIGNADOS A LOS OPERARIOS   Durante la estancia de termino que al no tener un método de trabajo establecido es una hipótesis por la mucha deficiencia en los operarios sin embargo se redactó y actualizo el método de trabajo para reducir tiempo y mejor productividad del operario sin afectar su salud física del operario y sin esforzar al operario. Se redactó el método de trabajo de toda la sección de piezas chicas para descartar una posible causal de baja producción lo cual se rechazó y resulto ser un factor más.   GRAFICA DE EFICIENCIA REAL DE TRABAJO DE LOS OPERARIOS   Este formato es de gran apoyo para el operario y para tener un registro de su jornada de trabajo ya que varios operarios nos reportan quejas de falta de trabajo y me maquinas con fallas y es por esa razón que se redacta ese formato para descartar los subcausales por lo cual no hay eficiencia y determinar a qué nivel de eficiencia se encuentra el operario si desempeñara su operación correcta ya que durante la línea y la jornada de trabajo hay muchos cambios de operación.


CONCLUSIONES

Durante el tiempo que se mantuvo dentro de la empresa TRAJES INIGUALABLES S.A. DE C.V se determinó que el problema no está resuelto en su mayor parte ya que un factor que determina a los operarios es: Con esto de determina que los causales son: Tiempo estándar en condicione críticas. Método de trabajo en redacción critica. Abastecimiento de trabajo a los operarios Constantes cambios de operación Capacitación no adecuada   Y es así como se redactó y se llevó a cabo el proyecto dentro de la empresa
Martinez Lopez Maria Guadalupe Yoshajandy, Instituto Tecnológico de Reynosa
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

INTELIGENCIA ARTIFICIAL CON APLICACIóN DE ROBOTICA Y DOCKER EN EL áMBITO TECNOLóGICO.


INTELIGENCIA ARTIFICIAL CON APLICACIóN DE ROBOTICA Y DOCKER EN EL áMBITO TECNOLóGICO.

Martinez Lopez Maria Guadalupe Yoshajandy, Instituto Tecnológico de Reynosa. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

La Inteligencia Artificial  es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano. Una tecnología muy interesante y con mucho por conocer, pero que desde hace unos años está presente en nuestro día a día a todas horas. Cabe mencionar que hablar de tecnología e inteligencia artificial   es hablar de calidad, costo y beneficio.  Actualmente se tiene acceso a mucha información en la web, alguna de ellas es correcta y beneficia a la sociedad, en otros casos es incorrecta y solo confunde, lo mismo pasa cuando se pretende innovar en el desarrollo de  productos, dispositivos o herramientas    que faciliten las tareas  o trabajos cotidianos. En la Universidad de A Coruña específicamente en la Facultad de Informática el grupo de Investigación  de RNASA-IMEDIR tiene 30 años de experiencia trabajando y desarrollando proyectos con enfoque a la inteligencia Artificial en donde tienen un grupo de expertos en diferentes líneas de investigación  como lo son: Línea de Tecnología asistencial. TICs en salud y envejecimiento activo Línea de Modelización Computacional Conexionista: Inteligencia Artificial y Neurociencia. Línea de Aplicaciones prácticas de Machine Learning.. Línea de Computación creativa y estética computacional. Línea de Captura, gestión y análisis de datos médicos. Gráficos y procesamiento de imagen. Línea de Inteligencia Artificial en Ingeniería Civil.   Línea de Quimioinformática para el descubrimiento de fármacos. Durante la estancia de investigación estuve desarrollándo proyectos con dos líneas de investigación las cuales son: Línea de Inteligencia Artificial en Ingeniería Civil. Línea de Captura, gestión y análisis de datos médicos. Gráficos y procesamiento de imagen. 



METODOLOGÍA

Con respecto a la primera línea de investigación se inició trabajando con  un robot  en donde se  desarrollaron diferentes  aplicaciones que se puede tener con arduino en el ámbito de la robótica, se  realizaron dos prototipos de robots el primero fue diseñado en un software llamado openSCAD. Una vez que se te  obtuvieron las piezas  impresas del primer robot se procedió al ensamblaje del robot  en este procesos se utilizaron los siguientes componentes  dos drivers 28BYJ-48 para controlar dos motores paso a paso, un sensor de ultrasonido, 4 pilas AA  y cables para realizar las conexiones,   para continuar con la programación en arduino uno, ya que fue este modelo el que se utilizó para el control general del robot 1.La función principal de este robot es similar a la de un vehículo con cámaras traseras,en donde al detectar la presencia de un objeto durante su trayecto el robot se detiene esquivando el objeto y continúa con la ruta trazada hasta llegar al final.  En lo que corresponde al lenguaje de programación de arduino básicamente es como si se programara en C++ también se utilizaron librerías que ya trae instaladas  arduino algunas otras se tuvieron que instalar esta parte del proceso aplico para ambos robots. Para el robot 2 se imprimió el diseño con el que se trabajaría ya que era totalmente diferente al primero, en cuestión a componentes se ocuparon los siguientes componentes, dos drivers L9110.h, dos motores de corriente continua, seguidor de línea TCRT5000,  Arduino Leonardo para controlar de forma general al l robot 2. La función principal del robot 2 es de acuerdo a la ruta trazada mediante las instrucciones del programa siga la línea negra  de la pista sin salirse del camino trazado. Al final se combinaron ambas funciones  en lo que podría ser un robot 3 en donde se colocaron ambos sensores pero con el Arduino Leonardo.Estas actividades se llevaron a cabo en el CITEEC  de la Universidad de la Coruña. En lo que corresponde a docker se trabajó con Ubuntu 18.01,  y R Studio  en donde se hicieron pruebas básicas como instalar contenedores, descargar imágenes desde la github de docker, posteriormente se llevaría  el scrip que se obtendría de R Studio para poder cargar y crear la aplicación que se requiera de acuerdo a los datos, con esto se facilitaría el manejo de datos de los análisis que se realicen y su almacenamiento ya que la función principal de  Docker es que  pretende explotar el potencial de la organización, dando a los desarrolladores , la libertad de desarrollar, gestionar y proporcionar un entorno seguro a las aplicaciones, y a los datos críticos para el negocio sin que estos se vean limitados por la tecnología, o por la infraestructura.


CONCLUSIONES

En esta estancia de investigación científica  estuvieron colaborando el grupo de investigadores expertos de RNASA-IMEDIR de la facultad de informática impartiendo diferentes conferencias tanto como en la Universidad de A Coruña, como en el congreso internacional  que se llevó a cabo en el Complejo Hospitalario Universitario de A Coruña y en el Hospital Médico Quirúrgico San Rafael con respecto al tema principal imagen medica e Inteligencia  artificial , las diferentes áreas en las que tiene una gran aplicación, por ejemplo redes neuronales, machine learning, deep learning, estética computacional , a su vez como cada una de ellas trabaja de la mano . Los dos robots se terminaron a tiempo y se realizaron diferentes pruebas, con las cuales en un futuro se le puede dar una aplicación diferente de acuerdo a los nuevos conocimientos adquiridos y a las necesidades que existan en el entorno.  En este verano de investigación  aprendí de forma particular que se trata de aportar y ayudar a la sociedad, creando nuevas tecnologías e innovando ya sea en el área  que deseemos por ejemplo el área médica, la domótica, o cualquiera que sea el área que tenga una necesidad en específico o que sea de nuestro interés en particular  es necesario verlo de esta forma si cada uno de nosotros avanza de forma individual avanzamos  todos como sociedad. Agradezco a la Facultad de informática  e ingeniería Civil por el personal que estuvo apoyando para desarrollar estos proyectos y nuevos conocimientos en especial al Dr. Alejandro Pazos Sierra, Dr. Jua Ramón Rabuñal , Ing. Felix Sánchez  y al D. Jose Liñares por el asesoramiento durante esta estancia de investigación científica 2019.
Martínez Ortiz Fernando, Instituto Tecnológico de Acapulco
Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.


ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.

Martínez Ortiz Fernando, Instituto Tecnológico de Acapulco. Ramirez Vargas Carlos David, Instituto Tecnológico Superior de Puruándiro. Valladares Salinas Gloria, Instituto Tecnológico de Acapulco. Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Encontrar el modelo de regresión más eficiente para un conjunto de datos, tomando como referencia el índice de error producido para esos datos.



METODOLOGÍA

Para desarrollar el modelo de regresión, se emplean técnicas de aprendizaje de máquina como árboles de decisión, bosques aleatorios, regresión lineal, redes neuronales, entre otras. Una vez alcanzada la comprensión conceptual de las técnicas a aplicar, se define un modelo de predicción usando cada una de estas, ajustando los parámetros de construcción, tanto como sea posible, para obtener los mejores resultados, y se compara la eficiencia de cada uno de ellos en función de los errores obtenidos (MAPE, MSE, MAD). Como siguiente técnica, se utiliza una herramienta gráfica de análisis de datos llamada Weka, la cual cuenta con distintos algoritmos para generar modelos de clasificación y regresión, generando modelos con las técnicas antes mencionadas. Finalmente, se tratan de replicar los modelos generados por la herramienta Weka en código python, ajustando los parámetros con el fin de obtener los resultados esperados.


CONCLUSIONES

Una vez que se han probado cada una de las técnicas antes mencionadas en el software Weka, se selecciona la técnica que arroje un menor porcentaje de error para determinado conjunto de datos; esa técnica es la que se empleará para el manejo y regresión de los datos.
Martinez Parra Evelyn Margarita, Universidad Autónoma de Occidente
Asesor: Dr. Mercedes Teresita Oropeza Guzmán, Instituto Tecnológico de Tijuana

DETERMINACIÓN DE LA CAPACIDAD DE INTERCAMBIO CATIÓNICO EN EL SUELO DE CULTIVO DE UVA, VARIEDAD CABERNET SAUVIGNON Y SU RELACIÓN CON LA FERTILIDAD


DETERMINACIÓN DE LA CAPACIDAD DE INTERCAMBIO CATIÓNICO EN EL SUELO DE CULTIVO DE UVA, VARIEDAD CABERNET SAUVIGNON Y SU RELACIÓN CON LA FERTILIDAD

Martinez Parra Evelyn Margarita, Universidad Autónoma de Occidente. Asesor: Dr. Mercedes Teresita Oropeza Guzmán, Instituto Tecnológico de Tijuana



PLANTEAMIENTO DEL PROBLEMA

Este trabajo de investigación se realizó para determinar la Capacidad de intercambio catiónico (CIC) presente en suelos cultivados con uva de la variedad Cabernet Sauvignon mediante la cuantificación de la cantidad de (Na) Sodio por el método EPA 9081.  Esta determinación permite conocer el número total de cationes que un suelo puede intercambiar con el medio que lo rodea (raíz o agua). Por otro lado, el  sodio en el suelo interviene en el crecimiento de las plantas y  cuando la CIC es alta hace menos probable la lixiviación de los nutrientes y más probable el mantenimiento de mayores cantidades de reservas, pero si  la CIC es baja, se puede diseñar un programa para mejorarla.



METODOLOGÍA

Se realizaron muestreos durante el año 2018 y principios del 2019, ambos consistieron en tomar suelo del viñedo experimental de La Morita-CESPT y del Valle De Guadalupe, donde hay dos tipos de suelo que se identificaron como VG1 (migajón arenoso) y VG2 (arcilloso). Las muestras de suelo fueron llevadas al Laboratorio de Investigación y Desarrollo de Tecnologías de Agua, localizado en el Instituto Tecnológico de Tijuana. Las muestras de suelo se dispusieron en charolas para secarlo a temperatura ambiente durante tres días y posteriormente introducirlos en el horno a 50°C durante 2 días. Una vez que las muestras salieron del horno se procedió a tamizarlas y disponerlas en frascos de vidrio etiquetados. Para evaluar la Capacidad de Intercambio Catiónico (CIC), se utilizó  el método 9081 de la EPA diseñado por Chapman, en 1965. Primero, se  pesaron 4 gr  de cada una de las muestras de suelo y se transfirieron a tubos de centrifuga de 50 ml. Se añadieron 33 ml de la solución de NaOAc 1.0 N a cada una de las muestras de suelo, se tapan los tubos, se agitan en un agitador mecánico por 5 min, y se centrifuga la solución hasta que el líquido supernadante esté limpio o claro. Se decanta el líquido y repite este mismo procedimiento  3 veces más. Posteriormente se añadieron 33 ml de alcohol isopropílico (99%) a cada muestra, se agitan mecánicamente por 5 min, y se centrifuga la solución hasta que el líquido supernadante esté claro. Se decanta el líquido y repite este mismo procedimiento 2 veces más. Se añadieron 33 ml de la solución (NH4)2 CO3.H2O, se agitan mecánicamente por 5 min, y se centrifuga la solución hasta que el líquido supernadante esté claro y se decanta dentro de frascos volumétrico de 100 mL. Se repite el procedimiento 2 veces más a cada una de las muestras. Se diluyeron las soluciones combinadas de los tres lavados  con Carbonato de Amonio hasta marcar 100ml y  se determinó la concentración de Sodio (Na) por emisión espectroscópica. Una vez obtenidos los resultados del ICP  se determinaron los valores por medio de calculos. 


CONCLUSIONES

Se valida el método 9081 de la EPA el cual dio resultados positivos para la determinación de la CIC en este trabajo de investigación. Los resultados de los lavados de las 26 muestras de suelo  mostraron  presencia de Sodio (Na), en el primer lavado 0.558 (meq Na/100g), el segundo 1.233 (meq Na/100g) y el tercero dio como reltado cero. Para determinar Sodio (Na) en cada uno de los suelos cultivados, se tomaron las 6 muestras obtenidas antes del inicio de esta investigación y se les aplicó el método 9081 de la EPA, dando como resultado lo siguiente: En el Valle de Guadalupe el suelo C/P- A. Pozo se encuentra saturado de Na, mientras que el suelo S/P- A. Pozo tiene 1.788 (meq Na/100g). El suelo del  Valle de Guadalupe  C/P- A. Morada al igual que el regado con agua de pozo se encuentra saturado de Na, sin embargo, el suelo S/P- A. Morada presenta 0.0493 (meq Na/100g). La CESPT en su suelo C/P- A. Morada presenta 0.2516 (meq Na/100g), mientras que en el de S/P- A. Morada 0.2463 (meq Na/100g).   
Martínez Prince David Francisco, Universidad Veracruzana
Asesor: Dr. Manuel Rico Secades, Universidad de Oviedo (España)

CONCEPTOS BáSICOS DE ELECTROMOVILIDAD.


CONCEPTOS BáSICOS DE ELECTROMOVILIDAD.

Martínez Prince David Francisco, Universidad Veracruzana. Asesor: Dr. Manuel Rico Secades, Universidad de Oviedo (España)



PLANTEAMIENTO DEL PROBLEMA

ENTORNO ACTUAL Desde el inicio de la revolución industrial se ha visto un incremento exponencial de la población pasando de los 1000, 000, 000. 00 de personas a 7000, 000, 000.00 de personas y por ende el consumo de energía per cápita se multiplicó por 7. Esta demanda energética es suplida en su mayor parte por combustibles fósiles, mismo que merman en nuestros ecosistemas.  Las emisiones de gases de efecto invernadero provocadas por el hombre son responsables del calentamiento de la atmósfera del planeta. Durante los últimos 200 años, las temperaturas han sido muy constantes con variaciones menores a 1°C. Comparado con las últimas décadas en las que el aumento de las temperaturas tiene un aumento bastante pronunciado. Dichos aumentos son totalmente devastadores para la vida humana y los ecosistemas, puesto que ninguno de los dos está preparado para ello. Tan sólo un aumento de 2°C Tendría consecuencias irreversibles e incontrolables tanto para la naturaleza como para la sociedad. Las emisiones de CO2 se atribuyen a diferentes consumidores, la industria, el tráfico y los hogares son los principales consumidores de energía. El sector de tráfico que es de lo que se abarca en el trabajo, ocupa al menos una cuarta parte del consumo energético. Es entonces donde se habla de la electromovilidad pues es quien a largo plazo reducirá las emisiones generadas por el consumo energético. Las nuevas tecnologías ofrecen oportunidad de crecimiento y creación de liderazgo en el mercado. A largo plazo la movilidad eléctrica puede ser un factor clave para la sustitución de combustibles fósiles. Por este motivo, el gobierno alemán planea convertirse en el líder del mercado de la electromovilidad, con 1 millón de vehículos eléctricos en funcionamiento para el siguiente año. 



METODOLOGÍA

TIPOS DE CARGA EN VEHÍCULOS ELÉCTRICOS:  Existen 3 sistemas de cargas de los vehículos eléctricos, dentro de las cuales se pueden hacer subdivisiones, carga conductiva, inductiva o por cambio de baterías. Para este caso hablaremos de las 3, profundizando en la carga conductiva.  La carga conductiva es la caracterizada por el uso de un cable para cargar el vehículo.  Es una metodología sencilla que no implica mayor tecnología. Por ende, es la conexión más segura y sencilla dentro de las redes eléctricas. Su mayor reto es la inclusión de las diferentes normativas locales, por ejemplo, el número de fases y garantizar la seguridad y resistencia necesarias para la manipulación por parte de las personas sin formación en materia de electricidad. Es necesario realizar un gran esfuerzo para estandarizar la normativa y alcanzar así un grado de interoperabilidad deseable en todo el mundo. Carga AC: Esta carga es la mas sencilla y más común. Todos los vehículos eléctricos en el mercado cuentan con un cargador integrado equipado con un rectificador, el cargador a bordo que recibe tensión de red de 220/440 V Y 50 - 60 Hz el cual se encarga de convertir la energía en forma de corriente alterna procedente de la red eléctrica a energía de corriente directa utilizada para las baterías. La velocidad del proceso de carga depende directamente de la magnitud de la corriente y por lo tanto del cargador en el vehículo. Sin embargo, el gran problema de los cargadores es el peso, pues al incrementar las prestaciones, incrementa el peso. Entonces se necesita reducir el peso del vehículo utilizando materiales más ligeros como la fibra de carbono que merman en el costo del vehículo.  El proceso de la carga conductiva de corriente alterna se puede resumir bajo los siguientes 5 puntos: La unidad de rectificado AC/DC se encuentra a bordo del vehículo. Es una tecnología relativamente sencilla. En comparación con la carga DC El proceso de cargado es lento. Menor potencia de carga en comparación con la carga DC Es económico La energía de la red pasa a la estación de carga en donde es controlada y se encuentra los equipos de seguridad, después pasa al vehículo mediante el cable con la misma forma en la que viene (Alterna, con frecuencia de 50 a 60 Hz y con una tensión de 220 a 440 V). En el vehículo pasa por el control y llega al punto de transformación AC/DC, para posteriormente pasar a las baterías. Carga DC: La principal diferencia entre la carga DC y la carga AC, es la ubicación del rectificador, pues en la carga AC se encuentra dentro del vehículo, pero en la carga en corriente directa o continua el rectificador se encuentra fuera del vehículo y forma parte ahora de la infraestructura de carga. El traslado de las unidades de rectificación dentro de la infraestructura aporta grandes ventajas para el usuario pues el vehículo ya no tiene que soportar el peso del rectificador el cual hace que aumente considerablemente el costo. Aún no se ha desarrollado la implementación de estaciones de carga DC. Dado que la tecnología DC es mucho más compleja y cara que la tecnología AC. El costo total de una estación de carga DC ronda en los 20,000 euros con 50kW de potencia.    El proceso de carga DC se resume en los siguientes puntos: La unidad de rectificación AC/DC se encuentra en la estación de carga Es posible una mayor potencia de carga en comparación con la carga AC La tecnología de carga DC es más compleja y cara que la tecnología AC La responsabilidad y costo del rectificador pasan del fabricante del equipo original a la infraestructura de la carga La energía de la red pasa a la estación de carga en donde es controlada y rectificada, ahí es donde se encuentran los equipos de seguridad, después pasa al vehículo mediante el cable con la misma forma en la que sale después de la transformación (En forma continua). En el vehículo pasa por el control para posteriormente pasar a las baterías.  


CONCLUSIONES

La electromovilidad es un sector amplio que sopone mucho más que un simple cambio de motor eléctrico en un vehículo convensional. Los vehículos eléctricos formaran parte de una red eléctrica descentralizada orientada a la generación de energía a partir de fuentes renovables. Dado que es urgente un cambio para preservar el medio ambiente, la electromovilidad ofrece una alternativa para abordar el enorme problema de la contaminación y calentamiento global.
Martínez Ramírez Brian Yannick, Universidad de Guadalajara
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES


FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES

Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional. Centeno Torres Brandon Ernesto, Universidad de Guadalajara. Ibarra Salazar Juan Pablo, Universidad de Sonora. Martínez Ramírez Brian Yannick, Universidad de Guadalajara. Mejia Rivera Marco Antonio, Universidad de Sonora. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el mundo está pasando por una serie de problemas ambientales bastante graves, en su mayoría ocasionadas por el ser humano, pero también ocasionadas por la naturaleza.  Un problema ambiental que se puede atacar es la contaminación debido a la ceniza volcánica, El gas emitido por un volcán se compone en su mayoría (75% aprox.) por vapor de agua (H2O), la fracción restante es conformada por dióxido de carbono (CO2), dióxido de azufre (SO2), sulfuro de hidrógeno (H2S), ácido clorhídrico (HCl), ácido fluorhídrico (HF); estos elementos son los productos principales y se caracterizan por ser emisiones ácidas.  El SO2 emitido se convierte lentamente en ácido sulfúrico (H2SO4), que se condensa en la atmósfera y se precipita en forma de lluvia con partículas muy finas. La concentración de estas partículas origina el llamado aerosol. Cuando éste se forma a partir del azufre se conoce como aerosol de sulfato. El objetivo de este trabajo es utilizar una manera de poder remediar los efectos por la contaminación en el suelo mediante una técnica que no genere contaminantes secundarios, por lo que se utilizó el método de fitorremediación; el cual consiste en aprovechar la capacidad de ciertas plantas para absorber, acumular, metabolizar, volatilizar o estabilizar contaminantes presentes en el suelo, aire, agua o sedimentos como: metales pesados, metales radioactivos, compuestos orgánicos y compuestos derivados del petróleo. Se reporta que algunas especies pertenecientes a las Asteraceas, toleran altos niveles de metales pesados en comparación con otros grupos taxonómicos y se les ha propuesto como especies fitorremediadoras. Helianthus annuus girasol pertenece a la familia de las Asteraceae , posee una facilidad de manejo en su cultivo, se adapta fácilmente a un amplio intervalo en la variación de temperatura. La época de la siembra es variable y depende de las características climatológicas de cada región. El girasol es reportado por su capacidad de acumular metales y responder con una alta biomasa radicular no obstante una baja tolerancia al cromo comparado con otras plantas acumuladoras.  



METODOLOGÍA

Para poder lograr nuestro objetivo de biorremediar zonas contaminadas tuvimos que hacer consideraciones y seguir una serie de pasos para que el desarrollo del proyecto fuera el óptimo, a continuación, en los siguientes puntos se establece el plan que seguimos a lo largo de nuestra estancia: ·         Muestreo de suelo con la que se trabajó. El material poroso tiene el fin de mantener la humedad apropiada para el crecimiento de la planta y de esta forma suministrar el oxígeno necesario, ya que la falta de oxígeno afecta el metabolismo del sistema radical y produce cierre de estomas . La selección de dicho material estuvo limitado a la disponibilidad de materiales en el laboratorio y a la conveniencia de utilizarlos en el sistema. El material seleccionado resultó ser el aserrín. ·         Preparación de la mezcla de suelo. Una vez obtenido el suelo que se usará para plantar el girasol, se limpió el suelo removiendo piedras, trozos de madera, raíces de plantas del lugar donde muestreamos la tierra, quitarle lombrices y otros animales que interfieran en el crecimiento del girasol, se mezcló teniendo como resultado 9 % de aserrín y el 91 % de tierra, esto con el propósito de retener la humedad. ·         Selección de la planta y germinación. Se seleccionó el girasol como planta a trabajar por su capacidad fitorremediadora que esta contiene además de que el tiempo de germinación de la planta es corto y los cuidados del girasol son relativamente sencillos. ·         Selección de un contaminante. Se eligió el azufre como contaminante debido a que el sitio de muestreo se encuentra en una zona que pertenece a los alrededores de los volcanes Iztaccíhuatl y Popocatépetl, y el azufre es un compuesto que se encuentra en cierta cantidad en la ceniza volcánica. Dicho contaminante fue seleccionado de acuerdo con la disponibilidad de reactivos en el laboratorio, así como la relación que este tiene con el campo de aplicación que se tiene. ·         Contaminación de la mezcla de suelo. se contaminó con azufre en diferentes concentraciones para su posterior análisis. Se decidió contaminar con concentraciones que van desde el 1 % hasta el 5 %, haciendo por triplicado cada concentración obteniendo quince macetas contaminadas con azufre. ·         Trasplante de los girasoles germinados al suelo contaminado. Una vez teniendo el girasol germinado (aproximadamente una semana después crecieron los tallos) se plantó en macetas con suelo ya contaminado y así iniciando el proceso de fitorremediación para su posterior análisis. ·         Cuidado de la planta por las siguientes cuatro semanas. Se mantuvieron las condiciones idóneas de humedad, temperatura y exposición solar para el adecuado crecimiento de la planta, además que se medía el pH y humedad dos veces por semana. El girasol es una planta que no necesita tanta agua para sobrevivir por lo que fue fácil su cuidado, en cuanto al pH necesita entre 7 y 7.5, logramos mantener el potencial de hidrógeno en ese rango. ·         Medición Cuantitativa de la degradación del contaminante en la tierra. Una vez pasadas las cuatro semanas se deberá medir el contenido de azufre en el suelo para conocer la cantidad que el girasol proceso.


CONCLUSIONES

La fitorremediación es una prometedora técnica que se puede usar para resolver diferentes problemas ambientales que incluyan dañinos contaminantes en los suelos. En este proyecto, mediante técnicas espectrofotométricas, se  determinará el nivel de degradación del azufre que tiene el girasol siendo seleccionada esta planta para su estudio gracias a las propiedades biorremediadoras que en la literatura se reporta.
Martinez Reyna Juan Carlos, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO E IMPLEMENTACIóN DE UN SOFTWARE DE REALIDAD AUMENTADA PARA DISEñO DE CELDAS DE MANUFACTURA Y MóDULOS DE OPTIMIZACIóN PARA CALCULAR LA CONFIGURACIóN OPTIMA BASADA EN TIEMPO DE CICLO.


DISEñO E IMPLEMENTACIóN DE UN SOFTWARE DE REALIDAD AUMENTADA PARA DISEñO DE CELDAS DE MANUFACTURA Y MóDULOS DE OPTIMIZACIóN PARA CALCULAR LA CONFIGURACIóN OPTIMA BASADA EN TIEMPO DE CICLO.

Martinez Reyna Juan Carlos, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

El proceso de planeacion de la linea de produccion de una empresa actualmente requiere mucho recurso de tiempo y esfuerzo para realizarlos fisicamente, la opción alterna es realizar todo la linea mediante un sistema CAM sin embargo la desventaja de este que no se contempla el espacio fisico de la nave o espacio industrial, por esto ha nacido esta idea de proyecto la cual mediante lentes de realidad aumentada den al usuario la función de poder organizar sus equipos para los procesos de manufactura en una celda de soldadura y pre visualizar el resultado en su espacio de trabajo y tiempos de proceso, asimismo obtener la información del espacio de trabajo de la celda de soldadura y las actividades que en ella se realicen para hacer un análisis mediante teoría de grafos que nos genere la forma más eficiente de posicionar nuestros equipos en la zona de trabajo para ahorra tiempo de procesos.



METODOLOGÍA

Se desarrollo un entorno de trabajo virtual mediante Unity el cual es un motor de videojuego multiplataforma creado por Unity Technologies, en él se le dan las herramientas de trabajo y los equipos necesarios al usuario para crear una celda de soldadura, mediante los lentes de realidad aumentada META 2 podemos ver el resultado en realidad aumentada, en la cual el usuario pude interactuar con los elementos virtuales y con su espacio de trabajo físico establecido para que así pueda colocar los equipos como mejor le satisfaga, una vez realizando esto, mediante un panel de control inicia su ciclo de trabajo en el cual va grabando los tiempos de recorrido y de  las actividades en cada equipo. una vez finalizada la simulación de trabajo, los datos son enviados y procesados por un algoritmo elaborado en Python en el cual se hace un análisis de las coordenadas de los equipos y las distancias entre ellos, posteriormente se hace una propuesta optima la cual consiste en darle al usuario una forma de acomodo de los equipos la cual le permite optimizar su tiempo de trabajo, una vez hecho esto los datos pueden ser leídos desde los META 2 y dar una simulación al usuario de como seria su ciclo de trabajo de la forma más eficiente.


CONCLUSIONES

El proyecto en cuestión promete ser una aplicación con grandes oportunidades dentro del ramo industrial, ya que nos permitirá realzar trabajos simulados en un ambiente real y con interacción del operario para así poder crear una mejor logística gracias a los algoritmos enfocados en la teoría de grafos, con esto se pretende ahorrar tiempo en los procesos y mejorar los ingresos de la industria que lo implemente, contribuyendo al desarrollo de tecnologías y mejora social.
Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING


MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING

Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit. García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara. Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit. Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente la ciudad conurbada de Colima - Villa de Álvarez no cuenta con registros exactos relacionados a la demanda de usuarios de transporte público, específicamente de autobuses urbanos, que existe en cada parada de los camiones a distintas horas y  días del año. Esta situación, causa ciertos inconvenientes al proveer el servicio: mayor cantidad de usuarios esperando en cada parada en horario concurrido, pérdida de tiempo de los usuarios, desperdicio de espacio y combustible en los camiones. Esto  afecta a todos los usuarios del transporte, así como a los  proveedores del servicio, lo que resulta en una problemática latente, pues los usuarios no pueden optimizar sus tiempos de traslado y los proveedores no pueden optimizar sus gastos de operación. Así mismo, teniendo una demanda real de usuarios de transporte público, se podrían realizar experimentos sobre un modelo del sistema real de autobuses, que permita probar diferentes opciones de servicio, tales como: diferentes tamaños de autobuses en diferentes horarios, cambios de precios en horas pico, incremento de la flotilla, generación de nuevas rutas, etc.



METODOLOGÍA

Este proyecto está basado en el método científico, a continuación se explica lo que se realizó paso a paso. Indagar acerca de temáticas relacionadas con IoT, Cloud Computing, Seguridad, NodeMCU, sensores de movimiento, etc. Diseñar el modelo de monitoreo y análisis de demanda de transporte público. Elegir herramientas a utilizar: placa de desarrollo y sensores. Diseñar estructura del prototipo. Montar y establecer conexiones del prototipo. Crear interfaces necesarias para comunicarse con el servidor web. Crear base de datos útil para el proyecto. Acceder a base de datos en la nube. Implantar protocolos y herramientas de seguridad al sistema. Hacer pruebas de funcionalidad al sistema. Realizar modificaciones necesarias. Documentar el proyecto.


CONCLUSIONES

En este proyecto se diseñó un modelo que permitirá la monitorización y posterior análisis de datos sobre la demanda de usuarios de transporte público, en la ciudad conurbada de Colima - Villa de Álvarez. Se implementó un prototipo de este modelo que, utiliza una conexión de red, base de datos, NodeMCU, etc. El prototipo implementado es funcional, se logró enviar información desde un push button que simula el material piezoeléctrico que cuenta las personas que suben y bajan del camión. Esta información viaja hacia un servidor local, que contiene una base de datos que almacena los datos recabados. El prototipo deja un parte aguas para que se pueda implementar el modelo en un futuro cercano, tomando como referencia los objetivos logrados hasta el momento. Así mismo, se destaca que el prototipo es de bajo costo y fácil de crear.
Martínez Romero Angel, Universidad de Guadalajara
Asesor: Dr. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

PRODUCCIóN DE ENERGíA POR FUENTES RENOVABLES (BIOMASA Y SOLAR FOTOVOLTAICA): OBTENCIóN DE LíPIDOS POR DéFICIT DE NITRóGENO EN UNA CEPA DE LA MICROALGA NANNOCHLOROPSIS SP.


PRODUCCIóN DE ENERGíA POR FUENTES RENOVABLES (BIOMASA Y SOLAR FOTOVOLTAICA): OBTENCIóN DE LíPIDOS POR DéFICIT DE NITRóGENO EN UNA CEPA DE LA MICROALGA NANNOCHLOROPSIS SP.

Martínez Romero Angel, Universidad de Guadalajara. Asesor: Dr. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los biocombustibles son considerados una alternativa viable para la transición energética, de estos los biocombustibles líquidos de tercera generación producidos a partir de microorganismos (biodiesel a partir de microalgas, por ejemplo) tienen un papel bastante importante por su capacidad de combinarse o reemplazar a los combustibles convencionales, por ello producir biomasa de calidad para cubrir la demanda de estos biocombustibles es de suma importancia.    En esta búsqueda de biomasa destacan las microalgas por su capacidad de rápido crecimiento y alto contenido de lípidos. Este trabajo busca estudiar una microalga con potencial para la obtención de ácidos grasos (nannochloropsis sp.) bajo condiciones de déficit de nitrógeno para alterar la proporción de estos y mejorar la condición de acumulacion de lípidos en la célula.  



METODOLOGÍA

Se utilizó una cepa de Nannocloropsis sp. facilitada por la Facultad de Ciencias del Mar de la Universidad Autónoma de Sinaloa.   Se hicieron dos tipos de siembra: una en medio sólido para resguardar la cepa en el tiempo y otra en medio líquido (medio F/2) que propicia los nutrientes requeridos para el crecimiento celular de la microalga,  variando la concentración de nitratos.   Cada siembra se realizó por triplicado bajo condiciones de laboratorio controladas de temperatura (25±1°C) y luz (6000 luxes ±600) sin fotoperiodo. Se realizó conteo celular en microscopio con Cámara de Neubauer para determinar la densidad celular y también poder confirmar no se encuentre contaminada la cepa.    Los cultivos se escalaron progresivamente para acrecentar la biomasa disponible, desde 60 ml de cultivo hasta un volumen entre 15-18 L. A partir de un 1 L de volumen de cultivo se empleó aireación constante para evitar procesos de sedimentación dada la densidad celular presente. Para recuperar la biomasa se utilizó el proceso químico de coagulación-floculación empleando NaOH 1 M para aumentar el pH del medio, 24 h después se decantó y finalmente se  centrifuga durante 5 min a 5000 rpm. La biomasa recuperada se deshidrata en un Liofilizador para no alterar su composición celular.   Una vez obtenida la biomasa seca se extrajo la fracción lipídica empleando un equipo soxhlet, una mezcla cloroformo-metanol en proporción 2:1, 5.0 g de biomasa y una temperatura de 80 °C. Finalmente, la muestra se lleva a un rotaevaporador en el que mediante destilación al vacío se evaporan los restos de disolventes presentes.    Al obtener los lípidos, el último proceso es el análisis de perfil de ácidos grasos que permite determinar el potencial para la obtención de biodiesel. Este proceso se realiza en un cromatógrafo de gases cuantificando los ácidos grasos de metilesteres de C4 a C24 y se realiza en un laboratorio fuera de la Universidad de estancia.   


CONCLUSIONES

Al avance de este verano de investigación, el objetivo del mismo ha sido logrado, ya que se presenta toda la metodología experimental para la obtención de la fracción lipídica contenida en la pared intracelular de la microalga nannochloropsis sp empleando una muestra de concentración total de nitrógeno en el medio de cultivo. El resto de las muestras se trabajaron pero dado el tiempo que conlleva el crecimiento celular para el desarrollo de la biomasa no fue posible realizar la extracción de lípidos en todas ellas.    Los conocimientos adquiridos en el área de la bioenergía permitieron la experiencia de la disciplina para trabajos de posgrado (maestría), para el cuidado personal y de equipo de trabajo dentro de un laboratorio con condiciones controladas, para cuidados especiales en el crecimiento de las microalgas, manejo de equipos especializados, preparación de muestras para análisis posteriores, etc. que permiten un mayor entusiasmo por la investigación en energías renovables para mejor y mayor desarrollo en nuestro país.   
Martínez Salas Luis Adolfo, Instituto Tecnológico Superior de Huauchinango
Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango

COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR


COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR

Carmona Conde Sarahi, Instituto Tecnológico Superior de Huauchinango. Martínez Salas Luis Adolfo, Instituto Tecnológico Superior de Huauchinango. Monroy Vite Mayte, Instituto Tecnológico Superior de Huauchinango. Peláez Hernández Georgina, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El paradigma de las instalaciones solares fotovoltaicas ha cambiado mucho en los últimos años, pasando de sistemas con primas a la producción a instalaciones de autoconsumo sin primas. Por ello en muchas instalaciones no se busca la máxima producción energética en un periodo de tiempo, sino el máximo aprovechamiento energético de la energía solar producida. En los últimos años la creciente demanda de energía eléctrica para satisfacer el bienestar de las personas ha provocado daño en el planeta, es por esto que se han estudiado diversas formas de generación de energía para poder satisfacer el desarrollo de los países. La premisa principal por la cual se realizo este proyecto es para aprovechar al máximo la energía solar, día con día se busca sacar mayor eficiencia de los sistemas fotovoltaicos. Es por eso que el proyecto  tuvo como objetivo captar al máximo los rayos solares para obtener un aprovechamiento de esta energía. La estrategia consiste en realizar mediciones de voltaje y corriente de un sistema fijo y un seguidor solar, con los resultados se realizo una grafica de la respuesta de cada sistema.



METODOLOGÍA

El presente trabajo de investigación COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR, corresponde a un proyecto de investigación en el área de energías renovables el cual está encaminado a analizar la factibilidad de aprovechamiento de un seguidor solar respecto de los sistemas fotovoltaicos fijos instalados actualmente. Se realizó la construcción del prototipo del sistema con el propósito de tener un  fácil manejo en la inclinación del panel fotovoltaico desplazado por el servomotor en un giro de 180 grados, con ayuda de una estructura de metal formada por dos pilares los cuales unidos por una varilla del mismo material soportan el peso del panel solar de forma uniforme para poder así realizar los movimientos libres que manden las señales que son enviados por los sensores, para esto se hizo uso de 2  fotorresistencias (LDR) y una alimentación de 5 V para el sistema de control. Se realizó el código de programación en la plataforma Arduino, que contiene el micro controlador, el cual se encarga de medir la intensidad de los rayos luminosos, procesa el ángulo de incidencia y reenvía la señal de respuesta modificada en el sistema. El módulo de control mide constantemente la intensidad y el ángulo de los rayos solares recibidos y orienta la instalación con los módulos solares de forma óptima. Para ello, el sensor toma en cuenta la luz que el agua o las piedras claras, así como la irradiación difusa que traspasa las nubes. Adicionalmente se coloco un circuito de salida al panel para poder conocer el comportamiento referido al sistema de generación, para lo cual se conecto una carga en paralelo al panel y con ayuda de un voltmetro-ampermetro conectado en serie del panel a la carga, fue posible adquirir los datos de voltaje y corriente en función de la carga. Con estos datos fue posible la realización de una grafica que nos muestra el comportamiento a distintas horas del día, y la obtención de la comparativa del seguidor y el sistema fijo.


CONCLUSIONES

En este sentido, cuanto más podamos consumir en tiempo real la energía producida por los módulos solares más rentable será la inversión realizada. Los resultados obtenidos al realizar la comparación en cálculos energéticos, nos llevan a concluir que el seguidor solar es eficiente sin embargo aporto alimentación a los servomotores lo cual redujo la entrega final de energía por otro lado el sistema fotovoltaico fijo al no tener un mecanismo que le permita movilidad entrego el 100% de su energía para el consumo de la carga. La mejora propuesta para compensar el consumo de energía es realizar un periodo más amplio de mediciones y posicionar ambos sistemas al mismo tiempo.  Al realizar el estudio de tiempo-corriente, tiempo-voltaje y tiempo-potencia, observamos que el comportamiento del seguidor solar es lineal en cuanto al sistema fotovoltaico fijo se comporta de manera perpendicular al sol. El promedio de voltaje, corriente y potencia en el seguidor solar fue de 8.4 V, 0.16 A y 1.42 W; en el sistema fijo fue de 8.8 V, 0.24 A y 2.13 W.
Martínez Salazar Diego Arturo, Universidad Mexiquense del Bicentenario
Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional

MEDICIóN óPTICA TRIDIMENSIONAL PARA LA ASISTENCIA EN EL DIAGNóSTICO DE LESIONES EN COLUMNA VERTEBRAL


MEDICIóN óPTICA TRIDIMENSIONAL PARA LA ASISTENCIA EN EL DIAGNóSTICO DE LESIONES EN COLUMNA VERTEBRAL

Martínez Salazar Diego Arturo, Universidad Mexiquense del Bicentenario. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Visión artificial es una disciplina científica que se encarga del análisis de imágenes con la finalidad de obtener, procesar y analizar información del mundo real que se observa a través de imágenes digitales. Sus aplicaciones abarcan ámbitos como la seguridad, medicina, inspección, navegación automática, etc., con la finalidad de captar, memorizar, procesar e interpretar información para dichas actividades. En esta estancia de investigación científica, se propone desarrollar un sistema de proyección para la medición tridimensional aplicada al ámbito de la asistencia médica para el diagnóstico en lesiones de columna vertebral. Planteando así una propuesta tecnológica y de innovación en el área médica para un óptimo diagnóstico de lesiones vertebrales.



METODOLOGÍA

Primero se asentaron las bases teóricas, para la implementación de algoritmos en base a los modelos matemáticos, con la finalidad de construir un sistema de proyección de franjas para la digitalización de objetos tridimensionales. El sistema está constituido por una cámara (iDS-UI-3240CP,1280x1024), un video proyector (Resolución de 1024x768 pixeles) y una computadora portátil (Intel Celeron N3050, 1.60 GHz, con 4 GB de memoria RAM). Con ayuda de estos dispositivos se construyó una escena, en la cual se proyectan rejillas en escala de grises. Después, con la cámara capturamos las imágenes de la escena iluminada con las rejillas. Los algoritmos de control y procesamiento de imágenes se implementaron en el software de computo numérico MATLAB. Las implementaciones fueron posibles gracias al soporte teórico que nos da sustento computacional para comprender las funciones necesarias de procesamiento de imágenes. El resultado final fue nuestro modelo tridimensional con el que se llevó acabo el análisis correspondiente y posterior uso en el ámbito de la medicina (lesiones vertebrales).


CONCLUSIONES

El sistema construido durante esta estancia de verano científico, diseñado para el análisis de lesiones vertebrales, presenta una manera alternativa de atacar un problema multidisciplinario. El análisis de lesiones vertebrales es un problema que se estudia en el área médica, pero que requiere la participación de otras ciencias como computación y electrónica. Durante la estancia de verano, se realizaron diversos experimentos donde los primeros resultados fueron la digitalización tridimensional de un objeto de prueba (un modelo masculino de busto). Durante los primeros experimentos de digitalización del objeto, se experimentaron algunas complicaciones relacionadas a la implementación computacional de los algoritmos y la adquisición de datos. Después de varios ajustes experimentales en el sistema construido, los experimentos realizados permitieron digitalizar con gran afinidad el objeto tridimensional de prueba. En los últimos resultados, aún se presentó ruido numérico y experimental, pero bajo la aplicación de algunos filtros se logró disipar con gran medida el ruido en la digitalización para la obtención de un modelo tridimensional completamente limpio. El trabajo realizado durante este Verano Científico, nos proporcionó las bases fundamentales para seguir adelante con el desarrollo del proyecto y seguir investigando en métodos de digitalización tridimensional de objetos con aplicaciones médicas.
Martínez Sandoval Ana Georgina, Universidad de Guadalajara
Asesor: M.C. Andrea Goméz Alzate, Universidad Autónoma de Manizales (Colombia)

GUíA PARA LA ADAPTACIóN Y USO DE UNA PRóTESIS TRANSTIBIAL


GUíA PARA LA ADAPTACIóN Y USO DE UNA PRóTESIS TRANSTIBIAL

Martínez Sandoval Ana Georgina, Universidad de Guadalajara. Asesor: M.C. Andrea Goméz Alzate, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La amputación es una condición que se puede presentar en cualquier etapa de la vida, ya sea como consecuencia de una enfermedad, de un accidente, o en algunos casos también se nace con esta discapacidad. La amputación de las extremidades inferiores es un procedimiento que tiene consecuencias anatómicas, funcionales, psicológicas y sociales que afectan la calidad de vida del paciente [1].  Una prótesis adecuada representa una herramienta para recuperar las facultades perdidas y volver a retomar las actividades normales; sin embargo la prótesis por sí sola no garantiza la rehabilitación del paciente, son necesarios el adecuado acompañamiento y la información correcta y oportuna que faciliten el proceso de elección, adaptación uso y rehabilitación.  La organización Mundial de la Salud (OMS) en su compendio de normas de orto protésica plantea la necesidad de que los elementos protésicos sean asequibles, pero además hace énfasis en la importancia del acompañamiento para la adaptación a la protetización por medio de una atención centrada en usuarios con información precisa y entendible,[2]. Por lo anterior, se hace necesario que la información requerida para el entendimiento del proceso de protetización esté a disposición de usuarios y redes de apoyo en un lenguaje entendible y que abarque aspectos diferenciadores como las causas de amputación o edades de los usuarios desde los puntos de vista físicos y sicológicos. El documento recogerá información, de tipo científico y de apropiación social, fundamental para la protetización que abarca desde las características de las prótesis transtibiales, las implicaciones físicas y sicológicas de una amputación, los tipos y causas de las amputaciones y la adaptación y uso de una prótesis transtibial. Con la información básica se elaborará la Guía para la adaptación y uso de una prótesis transtibial que servirá como referencia para usuarios y redes de apoyo, ésta guía se centrará únicamente en la amputación del miembro inferior del tipo transtibial, tanto de amputaciones adquiridas, como de asimetrías congénitas.



METODOLOGÍA

La presente investigación es documental y descriptiva. Problema: La información sobre la elección, adaptación y uso de las prótesis no siempre se encuentra en un lenguaje entendible para los usuarios y la red de apoyo. Contextualización: Búsqueda documnetal. Se realiza una búsqueda de documentos científicos y de apropiación social, con el fin de conocer las implicaciones sicológicas y físicas de una amputación transtibial diferenciadas por causa de la amputación y edad.       2. Selección: Se establecen los temas de análisis de acuerdo con la información y el interés de usuarios de prótesis,  para identificar los tipos de prótesis existentes en el mercado y sus características principales. Se realiza la formulación de propuestas de diseño gráfico, de contenido y lenguaje, para elegir aspectos de diseño y lenguaje apropiados para  sector salud, usuarios de prótesis y red de apoyo para la elaboración de la cartilla.        3. Diseño: Elaboración de Guía digital, impresa y complementos.


CONCLUSIONES

El proceso de rehabilitación depende no sólo del tipo de amputación y de la causa, sino también, de la edad del paciente, su red de apoyo, las adaptaciones y  aceptación de su entorno. El proceso de protetización debe tener en cuenta el diseño de la prótesis reconociendo las necesidades particulares del paciente desde su caracterización, su entorno, sus actividades y las posibles patologías asociadas a la amputación y adaptarse a ellas. Se debe tener una rehabilitación integral enfocada en lo sicológico, físico y el entorno de los pacientes amputados, con la intervención de su red de apoyo y la información adecuada, para que el proceso de protetización sea efectivo. La información relacionada con la adaptación de las prótesis encontrada en la revisión documental no tiene un lenguaje entendible para cualquier persona, por lo cual la guía de amputación transtibial será una herramienta fundamental para acompañar el proceso de protetización. RESULTADOS Impacto Esperado    Brindar información concreta, útil y de fácil entendimiento para la adaptación y uso de una prótesis transtibial, tanto a amputados como a red de apoyo Plazo: Mediano      Indicador verificable: Número de guías disponibles para usuarios y red de apoyo Supuesto: La información disponible no es del todo entendible por cualquier persona    Apropiación de Nuevos Conocimiento 1).      Producto: Guía      Indicador: Número de cartillas disponibles para usuarios y red de apoyo 2).      Producto: Divulgación de resultados de investigación          Indicador: Número de ponencias y participación en eventos de divulgación (2), incluyendo el evento Delfín Colombia y México Beneficiarios: Usuarios de prótesis transtibial y redes de apoyo   Formación de Recurso Humano 1).      Producto: Semilleros de investigación Indicador: Estudiantes de pregrado vinculados (2)  Joven Investigador UAM (1)        Beneficiarios: Universidad Autónoma de Manizales, Grupos de Investigación: i) Diseño Mecánico y Desarrollo Industrial ii) Diseño y Complejidad, Universidad de Guadalajara programa de Ingeniería Biomédica.
Martinez Tavera Arianna Angelica, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato

MANUAL DE PRáCTICAS DE CONTROL DE INVENTARIOS Y PLANEACIóN DE LA CAPACIDAD.


MANUAL DE PRáCTICAS DE CONTROL DE INVENTARIOS Y PLANEACIóN DE LA CAPACIDAD.

Marquez Gomez Erika Daniela Monserrat, Instituto Tecnológico Superior de Guanajuato. Martinez Tavera Arianna Angelica, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Jorge Varela Pérez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El día de hoy las empresas buscan profesionistas capacitados y sumamente preparados. Es por ello que cuando el egresado busca empleo se da cuenta de que no cumple con el perfil que debe tener un Ingeniero Industrial, esto debido a la falta de aplicación de conocimientos adquiridos de manera teórica y la aplicación de tecnologías en casos prácticos, motivo por el cual no desarrolla un pensamiento sistémico que le permita obtener las herramientas básicas para diseñar, mejorar e integrar sistemas productivos de bienes y servicios.



METODOLOGÍA

Para el desarrollo de la siguiente investigación se planteó una metodología la cual se conforma por los siguientes pasos: Análisis de la literatura pertinente a los temas abordados en el proyecto. Conocer sobre la Planeación de la Capacidad y los tipos de la capacidad. Entender la Administración de inventarios y los tipos de inventarios, así como sus ventajas y desventajas.  Identificar los pasos de la Clasificación ABC. Conocer los modelos de inventario determinísticos y probabilísticos. Aplicar los conceptos antes mencionados mediante el desarrollo de un manual de prácticas.


CONCLUSIONES

Con la presente investigación se desea que los estudiantes realicen actividades prácticas con las que logren desarrollarse ampliamente en el ámbito profesional y así desarrollar un pensamiento sistémico basado en la percepción del mundo real para el análisis y comprensión de este, que les permita resolver, planificar y manejar eficazmente problemas reales en la Industria y/o campo laboral.
Martinez Trejo Eduardo Alejandro, Instituto Tecnológico Superior Purépecha
Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACION, TRATAMIENTOS POST-DEPOSITO Y CARACTERIZACIóN)


PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACION, TRATAMIENTOS POST-DEPOSITO Y CARACTERIZACIóN)

Martinez Trejo Eduardo Alejandro, Instituto Tecnológico Superior Purépecha. Sierra Mendoza Ipalnemoani Emanuel, Instituto Tecnológico Superior Purépecha. Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En el desarrollo de este proyecto se utilizará la técnica de depósito por medio de baño químico para preparar películas delgadas de sulfuro de estaño (SnS), y sobre estas películas se evaporaran capas de cobre mediante evaporación térmica. Posteriormente se van a dar tratamientos térmicos a diferentes temperaturas y se caracterizaran las muestras. Por la parte de caracterizaciones eléctricas se realizara 2 muestras las cuales seran Curvas IV y Foto-respuesta. Y en las propiedades opticas seran  Transmitancia y Reflectancia. También con la ayuda de un microscopio electrónico de barrido (SEM), nos ayudará a ver la morfología de las muestras y así determinar la calidad de las películas obtenidas durante este proyecto.  



METODOLOGÍA

Para comenzar el deposito por baño quimico, los sustratos deben de estar completamente limpios ya que esto ayuda a que la pelicula tenga una mejor adherencia. Para preparar la solución para el baño químico son necesarios los siguientes reactivos: 1 gr. de Disolver en 5 ml. de Acetona DISOLVER TOTALMENTE ANTES DE AÑADIR EL RESTO DE LOS REACTIVOS 12 ml. de (TEA) al 50% 65 ml. de  destilado 8 ml. de (TA) 1 mol 10 ml. de Hidróxido de amonio (acuoso) 4 mol Los reactivos deben ser agregados uno a uno y en el orden en el que están descritos. Una vez que la solucion esta lista, los sustratos ya limpios se acomodaran en un vaso de precipitado, se acomodaran 6 sustratos por cada vaso. Los vasos seran acomodados dentro de una maquina para baños de recirculación la cual se programara a una temperatura de 40º C. El tiempo de espera sera de 8 hrs y de 17 hrs. Cuando los baños de recirculacion esten terminados, se procedera a evaporarlas con capas de cobre de diferentes espesores, estos espesores iran variando desde peliculas con 5nm hasta peliculas de 80nm. Una vez realizado el dopaje de cobre las muestras se hornearan en un horno de vacío. El horno de vacío que se implementó para este proceso fue un TM Vacuum products V/IG-803-14, este horno es capaz de hornear a una temperatura de hasta 400° c. Los hornos de vacío mantienen una temperatura de procesamiento estable en el interior de la cámara en todo momento. Al tener las películas ya colocadas se registrará su ubicación dentro del horno para así evitar confusiones debido a las altas temperaturas que se manejaran y esto hará que, si la película fue marcada con algún plumón de aceite, automáticamente la marca se evaporizará. CARACTERIZACIÓN PROPIEDADES ÓPTICAS La transmitancia es la relación entre la cantidad de luz transmitida que llega al detector del espectofotómetro una vez que ha atravesado la muestra, en este caso, al sustrato con SnS, y la cantidad de luz que incide sobre este, normalmente este valor se representa en tanto por ciento %T. La reflectancia es la fracción de radiación incidente reflejada por una superficie. En general debe tratársela como una propiedad direccional, en función de la dirección reflejada, de la dirección incidente, y de la longitud de onda incidente. PROPIEDADES ELÉCTRICAS La conductividad eléctrica es la medida de la capacidad de un material para dejar pasar la corriente a través de él. Esta depende de la estructura atómica y molecular del material. Para empezar la medición primero se debió haber tomado las propiedades ópticas, esto debido a que se deben agregar un par de electrodos de pintura de carbón. Posteriormente se tomaran los datos de foto-respuesta de la película. Para esto se coloca la muestra de igual manera solamente que esta vez se colocara la lámpara en el orificio de la tapa superior. MORFOLOGÍA Para el análisis de la morfología de las muestras, estas serán observadas por medio del microscopio electrónico de barrido (SEM). Este instrumento permite la observación y caracterización superficial de las muestras, entregando información morfológica del material analizados. ESTRUCTURA La espectrometría Raman es una técnica espectroscópica utilizada en física de la materia condensada y también en química para el estudio de los modos vibracionales, rotacionales y otros de baja frecuencia en un sistema. El efecto Raman se produce cuando la luz incide sobre una molécula e interactúa con la nube de electrones de los átomos de esa molécula.   COMPOSICIÓN Para analizar la composición de las muestras se utilizará la espectrometría de fotoelectrones inducidos por rayos X. Este método implica la medición de los espectros de los fotoelectrones inducidos por fotones de rayos X.


CONCLUSIONES

En el desarrollo de este proyecto, aprendimos sobre tecnicas de deposito y caracterizacion de peliculas delgadas. Con respecto al proyecto, se concluye que el espesor de la capa de Cu evaporada ocasiona un cambio significativo en la conductividad electrica de las muestras, ya que aumenta considerablemente. La morfología y propiedades ópticas no tienen un cambio significativo.  
Martínez Trejo José Antonio, Instituto Tecnológico Superior de Pátzcuaro
Asesor: M.C. Andrea Palomino Salcedo, Universidad del Valle (Colombia)

PROPUESTA DE ANáLISIS Y DISEñO DE SOFTWARE PARA LA GESTIóN DE LAS DONACIONES DE ALIMENTOS EN BANCOS DE ALIMENTOS EN COLOMBIA


PROPUESTA DE ANáLISIS Y DISEñO DE SOFTWARE PARA LA GESTIóN DE LAS DONACIONES DE ALIMENTOS EN BANCOS DE ALIMENTOS EN COLOMBIA

Garrido Aguirre Angel Armando, Universidad Tecnológica de Xicotepec de Juárez. Martínez Trejo José Antonio, Instituto Tecnológico Superior de Pátzcuaro. Asesor: M.C. Andrea Palomino Salcedo, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

   La crisis alimentaria global actual tiene un impacto directo en los países pobres. Cerca de 925 millones de personas en el mundo corren riesgo de desnutrición y se estima que la población de 2050 (estimada en unos 9.000 millones de habitantes) requerirá un incremento del 70% en el abastecimiento de alimentos (FAO, 2011).    Gestionar la recepción y entrega de las donaciones no es una labor sencilla, los bancos de alimentos deben registrar la información que surge durante este proceso y generar otro tipo de información (por ejemplo, indicadores de gestión). En la medida en que crecen las cantidades de donaciones este esfuerzo aumenta y se debe contar con herramientas que puedan ofrecer una información eficiente y veraz de las donaciones recibidas y entregadas.    Es entonces necesario preguntarse sobre:    ¿Como generar una solución informática que permita realizar el proceso correspondiente la gestión de las donaciones de alimentos en los Bancos de Alimentos en Colombia?



METODOLOGÍA

     El trabajo realizado, es el resultado de una investigación de índole científica que ejecuta procedimientos lógicos alrededor de las fases de la Ingeniería de Software y plantear así, el análisis y diseño de un sistema de información para la gestión de las donaciones en Bancos de Alimentos de Colombia.      El desarrollo de este proyecto aborda el levantamiento de requerimientos y los diferentes diagramas propuestos en el marco este trabajo de investigación. Para los diferentes elementos que abordan este proceso de desarrollo del sistema se utiliza el Extreme  Programming (XP) como una metodología de desarrollo que pertenece a las conocidas como metodologías ágiles (entre ellas el Scrum, Kanban…entre otras), cuyo objetivo es el desarrollo y gestión de proyectos con eficacia, flexibilidad y control.      En la realización de gráficos se utiliza para este proyecto el ArgoUML, el cual se define como … una herramienta utilizada en el modelaje de sistemas, mediante el cual se realizan diseños en UML ("Unified Markup Language) llevados a cabo en el análisis y pre-diseño de Sistemas de Software (Latina, 2019). Para el desarrollo de diagramas Relacionales se utiliza el software Navicat, que corresponde a una herramienta gráfica que le ayuda a construir modelos predictivos precisos de forma rápida e intuitiva (Navicat, 2019). Con el apoyo de estas herramientas se desarrollan los modelos requeridos en el planteamiento del análisis y diseño de la propuesta de solución.


CONCLUSIONES

Se promovió el espíritu investigativo en los estudiantes de movilidad internacional del Programa Delfín participantes en este proyecto, además de la realización diferentes actividades de intercambio de metodologías y procedimientos desarrollados con las instituciones involucradas para el desarrollo del presente proyecto. Las fases del proyecto culminaron exitosamente cumpliendo los objetivos y metodología planteada, edemas de permitir el intercambio de conocimientos entre los participantes del proyecto, logrando el análisis y diseño de un sistema de información para la gestión de donaciones de alimentos en Bancos de Alimentos. Al desarrollar este proyecto se pudo poner en práctica todos los conocimientos adquiridos en el tiempo de formación en las instituciones y programas de formación de los participantes en este proyecto. RESULTADOS Construcción de los diagramas requeridos para dar solución a la necesidad de implementar un Sistema de información para la gestión de donaciones en Bancos de Alimentos ubicados Colombia. Realización de visita guiada al banco de alimentos de la ciudad de Pereira, donde se realizó el levantamiento de requerimientos para identificar los diferentes procesos que se realizan en este tipo de instituciones y determinar los requerimientos para la solución propuesta en este proyecto. Integración interdisciplinar dentro del proyecto con la participación los estudiantes de movilidad internacional Programa Delfín y los estudiantes del curso Desarrollo de Software II de la Universidad del Valle sede Zarzal para conocer los diferentes procesos que abordan la gestión de las donaciones en Bancos de alimentos.
Martinez Ulloa Ana Patricia, Instituto Tecnológico de Tepic
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)

CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)


CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)

Ambriz Fregoso Carlos Alfredo, Instituto Tecnológico de Tepic. Martinez Ulloa Ana Patricia, Instituto Tecnológico de Tepic. Sánchez Tovar Ricardo, Instituto Tecnológico de Tepic. Sedano Cabanillas Angel Ivan, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas que enfrenta en la actualidad la industria de la construcción es el impacto ambiental provocado por el crecimiento poblacional y demanda de mayores espacios de vivienda e infraestructura en general. Dentro de los impactos se destacan: la disminución de los recursos naturales, la generación de residuos y la contaminación en general. Lo anterior, origina grandes desafíos para la industria desde ámbitos como la sostenibilidad y una economía circular de los materiales y residuos.



METODOLOGÍA

Para alcanzar el objetivo propuesto se plantea el siguiente proceso metodológico experimental: 1. Revisión de estudios a nivel mundial sobre el uso del RCD y la EHAE en la construcción. Se hará una búsqueda en las principales revistas científicas indexadas sobre la utilización de estos residuos en materiales a base de cemento. 2. Caracterización de los materiales para la fabricación de concreto. 3. Con los materiales estudiados, que deben cumplir con la norma indicada para la producción de concretos y morteros, se realizará el diseño de mezcla de concreto de resistencia normal según el método del ACI 211.1. 4. Fabricación de concretos con remplazos parciales (20% y 50%) de agregado grueso por RCD y EHAE, para así establecer sus propiedades en estado fresco. 5. Determinación de las propiedades en estado endurecido (resistencia a compresión, resistencia a tracción y absorción), a los 7 y 28 días, de los concretos fabricados.


CONCLUSIONES

Los residuos afectan la trabajabilidad del concreto, pues a medida que se incrementa el % de reemplazo, disminuyó el asentamiento. El reemplazo de agregado grueso por RCD en 20% produjo a los 7 días un incremento de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 20% tuvo un efecto positivo pues aumentó, tanto la resistencia a la compresión a los 7 días, como la resistencia a la tracción. El reemplazo de agregado grueso por RCD en 50% produjo a los 7 días una disminución de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 50% aumentó la resistencia a la compresión a los 7 días, y disminuyó la resistencia a la tracción. Finalmente, se concluye que los residuos han demostrado ser una alternativa técnica viable para la fabricación de concretos sostenibles.
Martínez Vega Jessica Pamela, Universidad de Guanajuato
Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato

COMPARACIóN DE GEOMETRíAS NO CONVENCIONALES PARA DISIPADORES EN LEDS


COMPARACIóN DE GEOMETRíAS NO CONVENCIONALES PARA DISIPADORES EN LEDS

Martínez Vega Jessica Pamela, Universidad de Guanajuato. Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El mundo cada vez demanda más energía lumínica debido a la urbanización y crecimiento de la población. Frente a dicha problemática, es necesario que la nueva tecnología de iluminación tenga mejores estándares de eficiencia para contribuir al ahorro energético y así crear un impacto positivo promoviendo el cuidado del medio ambiente. En México el consumo de electricidad para el sector de iluminación abarca el 20% de la energía total producida por el país. La tecnología de iluminación LED (diodo emisor de luz) ha cautivado a todos los sectores de aplicación ya que ofrece una gran ventaja en comparación con las lámparas incandescentes y fluorescentes como, por ejemplo, bajo consumo de energía (hasta un 90% de ahorro de energía), mayor eficiencia energética de los sistemas de iluminación, larga vida útil, etc. Sin embargo, las lámparas LED presentan un problema térmico ya que gran parte de la energía utilizada se transforma en calor y este problema reduce en gran medida su vida útil, por lo que es importante disipar el calor de estos dispositivos. Por esta razón, se han desarrollado numerosas investigaciones que ofrecen alternativas para satisfacer estos problemas. Se pueden usar dos tipos de disipadores de calor en las lámparas LED: pasivo (convección libre) y activo (convección forzada). Las lámparas LED con disipadores de calor pasivos tienen los consumos de energía más bajos porque no es necesario usar ventiladores. De esta manera, el diseño apropiado de los disipadores de calor pasivos puede mejorar el rendimiento térmico de las lámparas LED sin gastos de energía adicionales. En el presente proyecto se presentan dos modelos de disipadores de calor pasivos dichos disipadores consisten en una geometría radial, una base circular horizontal y unas aletas rectangulares. Para determinar el rendimiento térmico de los disipadores de calor se realizó un análisis numérico, que fue validado con respecto a resultados experimentales encontrados en la literatura.



METODOLOGÍA

Primeramente, se realizó una revisión del estado del arte, con ella se estableció como modelo de referencia el diseño propuesto por Yu et al. Con el cual se validaron y compararon los modelos propuestos en el presente proyecto; De esta manera se establecen las propiedades de los dominios computacionales (aire, aluminio), las dimensiones geométricas, condiciones de frontera y las ecuaciones gobernantes, todo ello se emplea para hacer la validación y comparar con los datos experimentales y computacionales con los cuales el artículo de referencia cuenta. Los dos disipadores de calor propuestos consisten en una geometría radial, una base circular horizontal y aletas rectangulares las cuales a diferencia del modelo de referencia siguen una forma sinusoidal y zig-zag respectivamente. Para la solución del problema, se consideró la condición de simetría en ambas geometrías, por lo que solo se analizó 1/20 de la geometría total. Los modelos fueron construidos en tres dimensiones en un software CAD y posteriormente para obtener los resultados numéricos se utilizó el método de volumen finito. El dominio computacional se discretizó en un número finito de volúmenes, compuesto principalmente de elementos hexaédricos en ambos dominios (sólido y fluido). Para determinar una densidad de malla apropiada para el modelo computacional, se varió el número de elementos en la malla del modelo para verificar que las predicciones del modelo fueran independientes de la densidad de la malla. El parámetro utilizado para comparar los resultados entre una malla y otra con más elementos fue la temperatura promedio de la base del disipador de calor. Para validar los resultados obtenidos por el modelo computacional, se utilizó la diferencia de temperatura promedio en la base del disipador de calor (temperatura predicha) y la temperatura ambiente dicha diferencia se comparó con los datos experimentales presentados por Yu et al. Se realizaron diversas corridas para diferentes flujos de calor (100, 200, 300, 400, 500, 700, 800 y 900 W/m2), dando como resultado que los resultados numéricos predicen bastante bien el comportamiento del rendimiento del disipador de calor comparando con los datos experimentales de referencia. Dado que uno de los principales problemas con las lámparas LED es el sobrecalentamiento del chip, la variable a comparar entre los modelos es la temperatura máxima de la base sometida a diferentes flujos de calor. De la misma manera, otros valores, como la temperatura promedio en la base del disipador de calor, se reportan para determinar la resistencia térmica de cada diseño geométrico.


CONCLUSIONES

Las lámparas LED requieren una correcta disipación del calor generado por los chips para extender la vida útil de estos dispositivos. El uso de un disipador de calor simple con un bajo costo y un alto rendimiento térmico puede ayudar al desarrollo y la aplicación de este tipo de tecnología de iluminación. En este estudio se proponen y analizan dos diseños geométricos de disipadores de calor: modelo de aletas sinusoidales y modelo de aletas zig-zag. El disipador de calor con una disposición radial de aletas sinusoidales muestra un mejor rendimiento para diferentes flujos de calor. Comparando el disipador de calor con las aletas rectas (modelo propuesto por Yu et al.) el disipador de calor con las aletas sinusoidales puede alcanzar una temperatura más baja en la interfaz del chip LED y el disipador de calor. Los dos disipadores de calor propuestos tienen un área expuesta más grande que el disipador de aletas rectas esto los hace disipar mayor cantidad de calor, pero en comparativa con el diseño de aletas sinusoidales, las aletas en zig-zag reducen la velocidad del flujo de aire que fluye desde el entorno hasta el centro del disipador. En términos de resistencia térmica, el modelo sinusoidal tiene una resistencia inferior al 5% en comparación con el modelo de referencia, por lo que la lámpara LED tendrá una vida útil más larga, una mayor eficiencia energética y un ahorro en el consumo de energía que conduce a ahorros económicos.
Martínez Velázquez José Duval, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

DEPóSITOS DE NANOPARTíCULAS O NANO- RECUBRIMIENTOS EN VIDRIOS ACTIVADOS, MEDIANTE “MICRO SPIN COATING”


DEPóSITOS DE NANOPARTíCULAS O NANO- RECUBRIMIENTOS EN VIDRIOS ACTIVADOS, MEDIANTE “MICRO SPIN COATING”

Martínez Velázquez José Duval, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Frente a las problemáticas ambientales y la fuerte dependencia hacia los combustibles fósiles, a las que se enfrenta actualmente la sociedad, han surgido iniciativas para incorporar alternativas que no contaminen, produciendo energía lo más sustentable posible, ayudando a mitigar los efectos del deterioro ambiental que día a día va en aumento descomunalmente. Entre esta iniciativitas podemos encontrar las energías renovables y en específico la energía solar, ya que es una de las fuentes de energías más abundantes, pero  sobretodo renovable. Sin embargo la energía solar como fuente de energía presenta diferentes problemáticas importantes de mencionar, como que la cantidad de energía producida a partir del sol no es la suficiente para satisfacer las demanda energética que requiere la sociedad, aunado a que el proceso de fabricación de las celdas solares es energéticamente demandante y la obtención del silicio material que realiza el proceso fotovoltaico es sumamente costoso, lento de producir y contaminante. Teniendo en cuenta lo anterior, surge la necesidad de buscar nuevas alternativas que nos permitan sustituir al silicio por materiales que puedan producirse de manera más fácil y sobretodo que sus procesos de síntesis sea económico. Por lo tanto, la sustitución de silicio por biopolímeros fabricados a partir de materiales semiconductores orgánicos/inorgánicos  resulta ser una de las alternativas viables para sustituir a las celdas solares elaboradas con silicio total o parcialmente, ya que estos biopolímeros están fabricados de materiales abundantes y principalmente más biodisponibles, no obstante para poder una buena deposición del biopolímero se requiere de un sustrato que permita el intercambio de electrones, ayudando a tener una mayor conductividad al momento de estar expuesta al sol. Por tal  motivo, el reto actual consiste en fabricar un sustrato que al agregarle un biopolímero este pueda ser capaz de comportarse como una celda solar de silicio, al contar con las propiedades de un semiconductor.  Para da solución a dicho reto, se pretende desarrollar una metodología para la síntesis de un sustrato que cuente nanoparticulas que le permitan comportarse como un semiconductor y la síntesis de un biopolímero que cuente de igual manera con nanopartículas, para ser empleados como una celda solar.



METODOLOGÍA

Como primer paso lo primero que se realizo fue sintetizar los vidrios activados que fueron utilizados como sustratos para la deposición. Se sintetizaron utilizando vidrio triturado y tamizado con maya del número 16, por otra parte para su activación se utilizaron distintitos materiales como sulfato de plata y oxido de cobre, lo cuales fueron mezclados para ser depositados en un molde de metal y ser fundidos en una mufla a 900°C. Los sustratos fueron caracterizados mediante la técnica SEM. Se utilizó un  motor monofásico de 12 volts, que adaptado a una caja de mdf que se construyó con MDF de 6 mm y se conectó a un circuito electrónico el cual es alimentado con una batería de 9 volts y es regulada la velocidad de giro con un potenciómetro. A eje del motor se le adapto una base de vidrio con un diámetro de 3.2 mm, que será la que cargara la pastilla de vidrio activado. Se realizó una disolución en isopropanol al 1% de tinta de impresora, que se llevó acabo en un vaso de precipitado de 100 ml, posteriormente se le agrego una disolución en agua de CMC al 5%, realizada en un vas9o de precipitado de 100 ml y se mantuvo en agitación continua y con una temperatura de 50ºC durante 15 minutos en una parrilla de calentamiento, una vez transcurrido el tiempo con una pipeta de 5 ml se le agrego 2 ml de formaldehido. Se obtuvo un fluido con cierto grado de viscosidad color azul claro. Se tomó una muestra del biopolímero de ½ ml con una jeringa de 3 ml, la pastilla de vidrio activado se colocó en el soporte de vidrio del micro spin coating y se inició el giro, al estar girando el sustrato de vidrio activado se procedió a realizar la deposición durante un tiempo de 60s, ya hecha la deposición se retiró el sustrato y se puso a secar a temperatura ambiente. Para determinar qué tan conductivos eran los sustratos de vidrio activado antes y después de la deposición del biopolímero, se realizaron pruebas de conductividad, para con ello determinar que tanto voltaje  capaces de conducir tanto dentro del laboratorio como a la luz del sol. Esto se realizó conectando las pastillas a una fuente de poder de 18 V y midiendo la conductividad con un multímetro.


CONCLUSIONES

Los sustratos antes y después de la deposición del biopolímero pueden comportarse como los materiales semiconductores, son capaces de aumentar su eficiencia al ser expuestos al sol. Al realizar la caracterización del sustrato mediante un mapeo SEM a 1 μm se puede observar que nos estamos acercando a tener sustratos de vidrio activado nanoestructurados El utilizar el método de deposición spin-coating permitió tener una mejor película depositada del biopolímero, además de que esta era uniforme.
Martínez Zamora Juan Antonio, Universidad de Sonora
Asesor: Ing. Noé Guadalupe Fletes Camacho, Universidad Tecnológica de Bahía de Banderas

CONTROL Y MONITOREO DE UN INVERNADERO TIPO BATICENITAL DE MANERA INALáMBRICA.


CONTROL Y MONITOREO DE UN INVERNADERO TIPO BATICENITAL DE MANERA INALáMBRICA.

Garcia Valles Christian Abdiel, Universidad de Sonora. Martínez Zamora Juan Antonio, Universidad de Sonora. Asesor: Ing. Noé Guadalupe Fletes Camacho, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

En México, una de las principales actividades del sistema productivo es la agricultura, pues de ella depende millones de personas tanto en el ámbito alimentario como el económico. Sin embargo, como no todos los lugares cumplen con las condiciones necesarias para practicar la agricultura "tradicional" se tuvo que desarrollar un método o un entorno bajo el cual, sin importar las condiciones ambientales, pudiéramos cultivar para mantener constante la producción; En base a esta premisa se desarrolló la agricultura por medio de invernaderos. Este tipo de agricultura ha tenido mucho avance en los últimos años, llegando a dar resultados similares a la agricultura tradicional, además de esto, al ser un entorno un tanto más reducido y cerrado se ha prestado al desarrollo de sistemas para controlar las condiciones internas del invernadero. Nuestro proyecto lo que busca es enriquecer este creciente campo al desarrollar un invernadero sustentable capaz de autorregularse mediante microcontroladores buscando que requiera de una mínima intervención humana para operar y, además, mostrarnos de manera inalámbrica los valores y el estatus interno del sistema.



METODOLOGÍA

El sistema está compuesto por tres arduinos, dos megas y uno nano; El primer mega (1) se utilizó para la adquisición de los datos, para la transmisión y envío de los datos hacia el segundo mega (2), se utilizaron dos módulos de radio frecuencia HC-12. Posteriormente, (2) se encargaría de codificar y transformar los datos hacia un formato capaz de ser interpretado por LabView, una vez hecho esto, a través de módulos NRF-24 se transmitirían hacia el módulo de control, donde se encuentra el arduino nano. Por último, los datos enviados a través de (2) son, de nuevo, interpretados y decodificados para después mostrarlos mediante gráficas los valores actuales de cada parámetro que se busca monitorear en el invernadero. Lo anterior describe el proceso de monitoreo del sistema. En el control del sistema se realizará el camino inverso, es decir, primero se enviará una señal de Labview por medio del puerto serial de la computadora hacia el arduino nano, acto seguido, la señal enviada será decodificada y transmitida por radio frecuencia con el módulo NRF-24 del centro de mando hacia el segundo transreceptor que se encuentra configurado en el arduino mega (2). Por último, la señal se retransmitirá hacia el microcontrolador mega (1) quien la decodificara y asociará a una de sus salidas digitales para que, por medio de relevadores, se haga funcionar el actuado


CONCLUSIONES

Este proyecto fue desafiante, en un principio no parecía que tendríamos problemas con la tasa de datos o las codificaciones programadas en los módulos, ni siquiera teníamos considerado comprar nuevos módulos, fueron problemas que surgieron a lo largo de la investigación y debido a los cuales tuvimos que tomarnos tiempo para analizar y proponer soluciones que nos permitieran avanzar en el desarrollo del proyecto. Al final de todo este verano de investigación logramos establecer una comunicación estable de por lo menos 200 metros entre el módulo de control y el invernadero, como máximo pudimos conectar 3 paquetes con 4 sensores cada uno para poder medir humedad, tanto absoluta como terrestre, temperatura y condiciones lumínicas con una velocidad de transmisión (bilateral) de 250Kbps y, por último, conectar los 8 abanicos con los que cuenta el invernadero para que se enciendan y apaguen a voluntad. Se adquirieron una gran cantidad de conocimientos útiles para la vida laboral e incluso útiles para ampliar el campo de estudio de nuestras ingenierías, el área de telecomunicaciones es una de las que más desarrollo ha tenido en los últimos años, para darnos cuenta de esto sólo hay que comparar la señal de teléfono e incluso la velocidad de nuestro internet con la que había hace 5 ó 10 años, esta clase de procesos y programas que pusimos en marcha nos ayudan a tener más conocimiento y una mentalidad lista para abordar los desafíos que lleguemos a ver en nuestros trabajos o posgrados, haciendo este verano una experiencia realmente enriquecedora. A pesar de todos estos avances que se lograron durante la investigación, no todo el material de trabajo pudo ser abarcado en estas cortas 7 semanas, hay una gran oportunidad de mejora en este proyecto empezando por la tasa de transmisión, como ya se mencionó antes la posibilidad de desarrollar un protocolo propio de comunicación para particionar el envío y recepción de los daos ayudaría a tener un mayor tasa y, por consecuencia, un mayor número de sensores activos dando pie a un mejor control de las variables o a la posibilidad de trabajar con invernaderos de mayores superficies, haciendo todo este sistema de comunicación más versátil.
Mascareño Bórquez Adriana Guadalupe, Instituto Tecnológico de Culiacán
Asesor: Dr. Javier Antonio Arcibar Orozco, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)

PROCESOS AVANZADOS DE DESCONTAMINACIóN Y CONTROL DE LA CONTAMINACIóN MEDIANTE NANOTECNOLOGíA.


PROCESOS AVANZADOS DE DESCONTAMINACIóN Y CONTROL DE LA CONTAMINACIóN MEDIANTE NANOTECNOLOGíA.

Mascareño Bórquez Adriana Guadalupe, Instituto Tecnológico de Culiacán. Asesor: Dr. Javier Antonio Arcibar Orozco, Centro de Innovación Aplicada en Tecnologías Competitivas CIATEC (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La contaminación del aire, suelo y agua ha aumentado exponencialmente en los últimos años, dejando grandes consecuencias negativas tanto en el ambiente como en la salud pública. La presencia de cromo hexavalente en la naturaleza es debida a las actividades industriales, las cuales han utilizado éste durante más de un siglo. Se ha demostrado que, en exposiciones repetitivas, puede causar irritaciones cutáneas, actuar como carcinógeno y como alérgeno en los seres humanos. El Cr [VI] es aceptado como el principal responsable de las respuestas tóxicas mientras que los compuestos de Cr [III] han sido relacionados como irritantes, pero no como carcinógenos o alérgenos. Este compuesto es tóxico si es ingerido, puede irritar los ojos, la piel y las mucosas, su exposición crónica puede provocar daños permanentes en los ojos. La dosis letal es de unos pocos gramos. La cromita mineral es la principal fuente industrial de cromo. Así mismo, algunos compuestos de cromo son utilizados en enchapado, curtido de cuero, fabricación de colorantes y pigmentos y como conservantes de la madera. León Guanajuato es una ciudad donde su principal industria es de la piel y el calzado, por lo tanto, el objetivo de esta investigación se basa en determinar si la presencia de polipirrol en óxido de zinc afecta su capacidad de adsorción de cromo hexavalente.



METODOLOGÍA

Para lograr el objetivo, se necesitó realizar distintas actividades. Primero se asistió a una inducción de laboratorio/montaje de técnicas analíticas para una preparación personal antes de comenzar a utilizar el laboratorio, desde reglas hasta instrucciones de cómo utilizar los equipos, reactivos e instrumentos. Como actividad inicial, se realizó una determinación de capacidades de adsorción en ZnO (isotermas). Se debió de contactar una cierta masa del sólido con una solución, conteniendo el adsorbato a estudiar. En este caso el sólido (absorbente) es el ZnO, por lo tanto, el adsorbato es el Cr (VI). Se partió de una solución patrón de dicromato de potasio de 1000 PPM (partes por millón) disueltos en 100 ml. Se hicieron los cálculos necesarios de la masa a pesar, en este caso fueron 2828g de K2Cr2O7. La solución problema tuvo una concentración de 100 PPM de Cr (VI) y un pH de 7, se debió hacer una dilución y se tomaron 10 ml en 100ml. El pH se modificaba agregando HCl 0.1 M (para bajarlo) o NaOH 0.1 M (para subirlo). En 8 contenedores tipo Falcon se colocaron 20 mg de ZnO y 20 ml de la solución problema de 100 PPM. Se dejaron 12 días en baño María en los cuales se modificada su pH a diario para mantenerlo en 7. Al sacarlos, se centrifugaron y se recuperó la mayor parte del líquido sin tocar el ZnO y se almacenaron. Todo esto seguido de la determinación de Cr (VI) por el método de la difenilcarbazida. Este método se basa en una reacción donde el cromo hexavalente reaccionar con la difenilcarbazida en un medio ácido para dar paso a una coloración rojo-violeta. De acuerdo a la intensidad del color es proporcional a la cantidad de cromo hexavalente que éstas poseen. Se realizaron las siguientes disoluciones: Referencia madre de cromo+6 con una concentración de masa de 500 PPM (.1414g en 100 ml de agua). Disolución de ácido nítrico en agua 1:1 (50 ml de agua y 50 ml de HNO3). Disolución de ácido sulfúrico 3 mol/L (8.3ml de H2SO4 en 50 ml de agua). Disolución de ácido sulfúrico 1 mol/L (1.7 ml de H2SO4 en 50 ml de agua). Hidróxido de sodio 5 mol/L (10.0024g de NaOH en 50 ml de agua). Hidróxido de sodio 3 mol/L (0.2013g de NaOH en 50 ml de agua). Disolución Buffer (33.0008g de sulfato de amonio en 75 ml de agua, después se le agregó 6.5 ml de hidróxido de amonio y se llevó aforo a los 100ml). Disolución difenilcarbazida (.2505g de difenilcarbazida en 50 ml de acetona). Disolución de referencia de trabajo de Cr+6 (1ml de la disolución de referencia madre y se llevó a aforo a 100 ml). Para obtener el desarrollo de color se ajustaron las muestras a un pH entre 9.3 y 9.7 agregando .5ml de la disolución buffer, .3 de la disolución de hidróxido de sodio 5 mol/L y se bajó el pH entre 2±.5 agregando .125 ml de ácido fosfórico. Si se requería seguir bajando el pH, se agregaba ácido sulfúrico 5mol/L.  Se tomaban 10 ml de la muestra, se agregaba .2ml de difenilcarbazida. Los resultados de este método fueron leídos en el UV-VIS. Por consiguiente, se determinó el Zn por absorción atómica. También se llevó a cabo una precipitación asistida para ZnO. Actualmente se están realizando las determinaciones de isotermas de adsorción en materiales con ZnO-PPY. Por consiguiente, se llevarán a cabo las pruebas de estabilidad química. Y posteriormente, se desea realizar la evaluación del efecto de pH en la adsorción.


CONCLUSIONES

Durante la estancia de verano científico en CIATEC, se logró adquirir y desarrollar conocimientos tanto teóricos como prácticos. Se determinó que el óxido de Zinc adsorbió el cromo hexavalente dando paso a una remoción de un 22.26%, esto quiere decir que la presencia de óxido de Zinc con el cromo hexavalente remueve un porcentaje significativo del mismo. Sin embargo, al ser un trabajo extenso, aún se encuentra en desarrollo y no se pueden mostrar todos los datos obtenidos. Como observaciones, se espera que el contacto de ZnO 50% - Ppy 50% con el cromo hexavalente remueva de manera más eficaz dicho contaminante (Cr VI).
Mata Ochoa Erika del Sagrario, Universidad de Colima
Asesor: M.C. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington (Colombia)

COMPARACIóN DE LAS PROPIEDADES íNDICE DE LOS SUELOS DE MéXICO Y COLOMBIA.


COMPARACIóN DE LAS PROPIEDADES íNDICE DE LOS SUELOS DE MéXICO Y COLOMBIA.

Mata Ochoa Erika del Sagrario, Universidad de Colima. Asesor: M.C. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Al momento de edificar es necesario tener conocimiento de las propiedades del suelo para tener una idea de como se va a comportar bajo ciertas cargas o circunstancias. Esto con el fin de hacer un diseño que se adecue a las características de este, o mejorar su resistencia. Algunas propiedades son mas complicadas y tardadas de obtener, por lo que ciertos autores han establecidos relaciones entre las propiedades índice, como lo son límite líquido, límite plástico, índice de plasticidad, contenido de agua, relación de vacíos, coeficiente de compresibilidad, etc. Estas relaciones se establecen en base a propiedades de ciertos lugares o siguiendo un régimen de comportamiento común. En algunos lugares estas propiedades son atípicas por lo que no tienen un comportamiento común, lo que hace que estas relaciones no se cumplan en estos lugares. La Ciudad de México tiene características peculiares ya que tiene depósitos de cenizas volcánicas, y esta asentada en donde antes era un lago, por lo que sus propiedades exceden los valores comunes. El índice de plasticidad puede exceder los 300 %, el contenido de agua llega hasta 400%, la relación de vacíos puede ser tan alta como 12.2 y el coeficiente de compresibilidad llega hasta 10. Es por esto y por la importancia de esta ciudad que se han hecho varios estudios y se han establecido correlaciones del coeficiente de compresibilidad. En Cartagena se han hecho estudios al suelo y se han encontrado que sus propiedades también son un poco atípicas. El límite líquido puede exceder los 130%, el índice plástico no excede los 100%, y el coeficiente de compresibilidad. Igualmente se han establecido correlaciones entre el índice de plasticidad y el límite líquido para obtener el coeficiente de compresibilidad.  



METODOLOGÍA

Se procedió a buscar información en diferentes fuentes sobre los suelos de México y Colombia, enfocado principalmente en las propiedades índice, así como información general sobre la geotecnia de cada país. Una vez reunida todas las referencias se clasifico la información por país y después por ciudad, redactando sobre las características principales de la zona y añadiendo tablas de las propiedades índice, limite líquido, limite plástico, índice de plasticidad, relación de vacíos, contenido de agua, entre otros, así como la clasificación del suelo. Una vez teniendo la información clasificada se hicieron tablas de las propiedades por cada lugar y una tabla recolectando toda la información para así hacer una comparación de estos en base a la procedencia y características de los suelos con sus propiedades. Se realizaron gráficas para obtener diferentes correlaciones y compararlas con las obtenidas en dichas publicaciones. Se procedió a recolectar correlaciones de diferentes autores de diferentes años de la Ciudad de México y Cartagena para así hacer una comparación de los resultados obtenidos de estas con las obtenidas en los ensayos.  


CONCLUSIONES

En ambos países existe la necesidad de hacer estudios del suelo que ayudan a entender mejor su comportamiento y ayudan a hacer los cálculos necesarios para su edificación, debido a su topografía, clima, y composición variada el área de estudio es diverso y muy extenso, y que no se puede generalizar sobre un mismo suelo en cada país. Incluso el suelo sea de la misma zona fisiográfica las propiedades varían en diferentes lugares, por lo que no se puede asumir una generalización fisiográfica.  Un aspecto característico de ambos países son las regiones montañosas características por sus fuertes pendientes y alto contenido de agua lo que da lugar a taludes que pueden deslizarse si se presenta un exceso de agua o cargas que sobrepasen las resistentes. En México la mayoría de las investigaciones que se presentan son en zonas sísmicas debido a que se ve la necesidad de conocer profundamente los suelos para poder interpretarlos, aunque esto no queda exento de algún fallo, ya que su estudio bajo actividad sísmica es muy complejo e impredecible. Comparando los resultados se observó que en la CDMX que los autores que más se acercan a los resultados obtenidos en ensayos son Nacci (1975), Azzouz (1976), Hough (1957). Sin embargo, aun los resultados no son tan acertados, por lo que Ayala (2011) propuso algunas correlaciones, siendo la más acertada la relación entre la humedad (W) y coeficiente de compresibilidad (Cc). La ecuación es: Cc=0.0217 w-0.8579. En cambio, en Cartagena los valores obtenidos con las ecuaciones de los diferentes autores ya mencionados son más apegadas a la realidad y ya que dan valores más próximos, esto debido a que este suelo tiene propiedades mas comunes. El autor mas acertado es Terzagui y Peck (1967) con una relación entre el Límite Líquido (LL) y el coeficiente de compresibilidad (Cc). La ecuación es: Cc=0.007 (LL-10)
Matías López Jesús Pascual, Instituto Politécnico Nacional
Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

CADENAS DE SUMINISTRO SUSTENTABLE EN EL SUR DE SINALOA Y SU IMPACTO EN LA PRODUCTIVIDAD Y COMPETITIVIDAD


CADENAS DE SUMINISTRO SUSTENTABLE EN EL SUR DE SINALOA Y SU IMPACTO EN LA PRODUCTIVIDAD Y COMPETITIVIDAD

Matías López Jesús Pascual, Instituto Politécnico Nacional. Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La problemática de estudio se centró en conocer a profundidad el concepto de sustentabilidad en las cadenas de suministro, sus características, sus puntos clave, los actores que intervienen en su cadena de suministro, retos, soluciones y la importancia de los indicadores. Detectar la situación actual de cumplimiento de los elementos de sustentabilidad en las empresas del sur de Sinaloa. Asimismo, identificar las principales prácticas utilizadas y citadas en la literatura a nivel internacional y nacional para realizar un cuadro con las principales aportaciones de los autores en el campo. Así como la relación del Ing. en Transporte en la planeación, gestión e implementación de prácticas logísticas sustentables



METODOLOGÍA

Se realizó una investigación cualitativa de tipo documental. Ya que se revisaron 50 marcos teóricos para la obtención de información del tema investigado. Primeramente, se reunió el material bibliográfico, se identificaron los conceptos de interés y se realizó un cuadro de doble entrada para facilitar su comprensión. Asimismo, se utilizó como base un instrumento estándar previo, cuya finalidad era conocer el grado de percepción de sustentabilidad de las empresas, mismo que se mejoró en cada rubro y se orientó a conocer el grado de cumplimiento de prácticas sustentables de las empresas. Para ello se implementó un piloto a pequeña escala. Asimismo, se muestran investigaciones con casos de estudio en donde se analiza cómo se aplican estas medidas en empresas del sector agroindustrial a nivel internacional y nacional. Posteriormente, se detectaron las áreas críticas y oportunidades que existen, concretamente en México y el sur de Sinaloa. Con base en ello se elaboró el borrador de un artículo científico en donde se consolida la investigación previa.


CONCLUSIONES

Una empresa sustentable, es aquella que toma en cuenta múltiples aspectos que van desde la satisfacción y bienestar de sus empleados, la calidad de sus productos, el origen de sus insumos, hasta el impacto ambiental de sus actividades, sin dejar de lado el efecto que causan sus productos y desechos, es decir, el impacto social, político y económico que produce su actividad y su compromiso con el desarrollo social y económico de un país. Al ser este un tema relativamente nuevo en el campo de la investigación, se identifica la necesidad de contar con indicadores concretos para realizar un seguimiento y establecer metas cuantitativas. Por lo que, se propone la creación y/o utilización de indicadores que permitan medir la capacidad de sustentabilidad que tienen las organizaciones agroindustriales. Como resultado se muestra el cuadro de doble entrada de los conceptos y actores clave en la cadena de suministro sustentable. Así como el rediseño del instrumento que permitirá conocer el grado de cumplimento de prácticas sustentables de la industria agroindustrial. Cabe mencionar que también se elaboró una guía para la aplicación del instrumento en donde se explica cada rubro y se dan palabras clave que puedan ayudar al entrevistador a la hora de aplicar el instrumento. Como trabajo futuro se tiene que aplicar el instrumento a una muestra de empresas considerable para tener indicadores precisos y así cumplir con el objetivo de la investigación. Asimismo, realizar un acercamiento con instituciones que han estado involucradas en el tema de sustentabilidad, con la intención de contar con la validación teórica del instrumento propuesto, ya que esto daría más validez a la investigación.
Maya Barrera Karla, Instituto Tecnológico de Toluca
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA


AUTOMATIZACIóN CON SENSORES DE BAJO COSTO APLICADA AL RECICLAJE DEL PET UTILIZANDO LA ENERGíA EóLICA

Benítez Hernández Gillyan Isarel, Instituto Tecnológico de Toluca. Budet Martínez Moises, Tecnológico de Estudios Superiores de Chicoloapan. Maya Barrera Karla, Instituto Tecnológico de Toluca. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El PET (Polietileno Tereftalato ) hoy en día abarca una gran cantidad de contaminación para el planeta, tomando como referencia a México y Colombia,  ya que se reciclan poco más de 100 mil toneladas al año, lo cual nos dice que es un índice bajo del nivel de producción que es sumamente elevado. Con esto, se quiere demostrar que la implementación del proyecto haría que se recicle al menos el 40% anual de PET. Tomando en cuenta que la recolección y selección actual contempla ciertos riesgos que exponen la integridad física del personal, además que el proceso no es el más adecuado, lo cual conllevaba a que la planta de reciclaje tenga pérdidas y que la calidad del PET no sea la apropiada para sacarlo nuevamente al mercado.     Objetivo General. Crear una herramienta para la automatización del proceso de selección y retiro del plástico dañado, utilizando un sistema de implementación de la industria 4.0. Objetivos Específicos. o Identificar los equipos, instrumentos o personal involucrados en el proceso para verificar su estado actual de funcionamiento. o Investigar, recopilar y buscar fuentes de información sobre procesos automáticos de selección y reciclaje de plástico. o Diseñar la estrategia de control para el funcionamiento del proceso a realizar. o Vincular de manera sincrónica las partes mecánicas y electrónicas para obtener un sistema autónomo. o Seleccionar e implementar las características de instrumentación requeridas y el software para su programación. o Evaluar la estrategia de controladores lógicos de programación (PLC). o Implementar los equipos e instrumentación necesaria para la operación del proceso.



METODOLOGÍA

      La necesidad a cubrir es evitar el ingreso de PET que no es utilizado en el proceso de reciclaje, ya que es una problemática que ha sido de larga data; para prevenir esta incidencia se pretende seleccionar el producto adecuado, aumentar la calidad del mismo y disminuir la inversión de tiempo que pueden causar los cuellos de botella; así como disminuir el riesgo al que está expuesto el recolector de PET al realizar su labor. La automatización es fundamental para el proceso de separación de plásticos y hacer un uso eficiente de los equipos y sistemas asociados. Se establecerá una automatización mediante la sustitución del personal por seleccionadores programables mediante sensores de infrarrojo ópticos de identificación de colores para retirar el plástico que no cumpla con las especificaciones; con la ayuda de las energías renovables, en este caso la energía eólica.  


CONCLUSIONES

A través de la automatización e instrumentación se espera aumentar la eficiencia del proceso de recolección y reciclaje del PET. Lo que se busca es que los trabajadores dejen de realizar trabajos manuales repetitivos de selección y separación, por medio de la automatización e instrumentación de sistemas mecánicos innovadores de manipulación, ayudando así al cuidado del medio ambiente con tecnologías rennovables.
Maya Sánchez Alejandra, Instituto Tecnológico del Valle de Morelia
Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia

RESIDUOS AGRíCOLAS LIGNOCELULOSOS COMO PRECURSORES DE CARBóN ACTIVADO PARA LA ELIMINACIóN DE HERBICIDAS PRESENTES AN AGUA.


RESIDUOS AGRíCOLAS LIGNOCELULOSOS COMO PRECURSORES DE CARBóN ACTIVADO PARA LA ELIMINACIóN DE HERBICIDAS PRESENTES AN AGUA.

García Castañeda Cathleen Daiana, Instituto Tecnológico del Valle de Morelia. Maya Sánchez Alejandra, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Guillermo Andrade Espinosa, Instituto Tecnológico del Valle de Morelia



PLANTEAMIENTO DEL PROBLEMA

Existe una extensa preocupación por la presencia de plaguicidas organoclorados presentes en el agua residual agrícola, ya que estos contaminantes provocan serias afectaciones a la flora, fauna y seres humanos al ser consumidos en concentraciones pequeñas, debido a esto es necesario desarrollar nuevas tecnologías para la remoción de este tipo de compuestos. Por ejemplo; un elemento presente en los plaguicidas es el 2,4 diclorofenol el cual produce afectaciones al ser inhalado o absorbido por la piel, tales como irritaciones y quemaduras, en casos extremos la muerte. Existen varias tecnologías para la remoción de estos componentes tóxicos entre ellas la adsorción cuyo elemento de mayor importancia es el material adsorbente como el carbón activado. Debido a lo anterior la finalidad de este trabajo fue desarrollar un carbón activado a partir de desechos agrícolas lignocelulosos y probarlo en la remoción de 2,4 diclorofenol presente en solución acuosa. Lo anterior se llevó a cabo determinando las condiciones de tiempo y temperatura de carbonización, así como la relación entre la masa y el agente activante. El carbón activado fue caracterizado determinando grupos funcionales y distribución de carga. Finalmente se determinó el efecto del pH en la remoción de 2,4 diclorofenol.



METODOLOGÍA

El carbón activado a partir de residuos agrícolas fue preparado activando el desecho agrícola con una solución de cloruro de zinc a relaciones molares entre la masa y el agente activante de 1, 2.5 y 3.5. Posteriormente la mezcla fue calcinada en una mufla a una temperatura de 500 C durante 44 minutos, finalmente el carbón fue enjuagado repetidas veces y secado a 80 °C durante 24 horas. Los materiales fueron caracterizados determinando sitios ácidos, básicos, carboxílicos, fenólicos y lactonicos mediante titulaciones potencio métricas. La distribución de carga y el punto de carga cero se determinaron mediante equilibrio de pH. Por otra parte, se determinaron los datos experimentales de las isotermas de adsorción a diferentes pH en reactores en lote a temperatura y volumen constante. La máxima capacidad de adsorción se obtuvo determinando concentraciones iniciales y finales mediante espectrofotometría de uv visible y llevando a cabo un balance de masas.


CONCLUSIONES

Los resultados preliminares muestran que es posible sintetizar carbón activado a partir de un residuo agrícola lignoceluloso de gran abundancia, el carbón activado obtenido muestra relativamente buena eficiencia en sus propiedades mecánicas y cierta característica hidrofilica. La concentración de sitios ácidos totales varió con respecto a la relación molar entre la masa y el agente activante siendo estas de 1.56, 1.70 y 1.63 mmol/g para las relaciones de 1, 2.5 y 3.5 M, respectivamente. Además se encontró que la densidad de sitios básicos totales 2.5519, 2.9880 y 2.8696 mmol/g para las relaciones de 1, 2.5 y 3.5 M, respectivamente. Los puntos de carga cero se encontraron a valores de pH de 5.77, 5.66 y 5.67 para las muestras con relaciones de 1, 2.5 y 3.5 M. Lo anterior indica que se favorecerán la remoción de cationes o de compuestos de carácter positivo a valores mayores a los puntos de carga cero como el 2,4 diclorofenol. Finalmente, se encontró que la capacidad de adsorción es altamente dependiente del pH de la solución. La remoción de 2,4 diclorofenol aumenta al aumentar el pH de 5 a 9 teniendo una máxima capacidad de adsorción 97 mg de contaminante removido/g de material utilizado, a una concentración en el equilibrio de 80 mg/L y 25°C. Los resultados muestran que es factible utilizar este carbón activado en la eliminación de compuestos tóxicos presentes en agua residual agrícola.  
Maya Torres Sary, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez

RECONOCIMIENTO DE TEXTO EN IMáGENES NATURALES CON REDES NEURONALES CONVOLUCIONALES


RECONOCIMIENTO DE TEXTO EN IMáGENES NATURALES CON REDES NEURONALES CONVOLUCIONALES

Maya Torres Sary, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

El procesamiento de imágenes naturales para localizar y reconocer texto aun presenta varios retos, inherentes a la riqueza de factores que afectan la calidad y separación entre el texto y el fondo de una imagen. El reconocimiento del texto se ve dificultado por diversos factores, como son la iluminación general de la escena, las sombras proyectadas sobre el texto, así como las variaciones de color, ya sea por desgaste natural o por diseño, sin mencionar la complejidad del fondo y las variaciones de perspectiva. Para el reconocimiento del texto en imágenes naturales se mantiene vigente el problema de localización y reconocimiento de los caracteres en imágenes que sufren de bajos niveles de contraste, variación en color entre los caracteres e incluso en un mismo carácter, errores de perspectiva, distancia y resolución. El reconocimiento de texto en imágenes naturales se realiza por medio de Convolutional Neural Network (CNN) por sus siglas en inglés, la cual aprenderá de la base de datos que fue creada y que va siendo enriquecida con imágenes en sus cuatro categorías que la componen: texto simple, texto en múltiples líneas, texto numérico y regiones que no contienen texto. La recolección de los datos de las imágenes es con el fin de que por medio de un modelo CNN la red sea entrenada y así pueda identificar textos en imágenes naturales. En una red neuronal regular, la entrada se transforma a través de una serie de capas ocultas que tienen múltiples neuronas. Cada neurona está conectada a todas las neuronas en las capas anteriores y siguientes. Dicha disposición se denomina capa totalmente conectada y la última capa es la capa de salida. En las aplicaciones de visión por computadora donde la entrada es una imagen, se utiliza una CNN porque las redes neuronales completamente conectadas no funcionan bien. Esto se debe a que, si cada píxel de la imagen es una entrada, a medida que se agregan más capas, la cantidad de parámetros aumenta exponencialmente. La convolución es una operación matemática en dos funciones para producir una tercera función que expresa como la forma de una es modificada por la otra. El término convolución se refiere tanto a la función del resultado como al proceso de cálculo. En una CNN, se realizará la operación de convolución en la matriz de la imagen de entrada para reducir su forma.



METODOLOGÍA

En el proyecto se creará una base de datos propia de imágenes y se realizará la extracción de segmentos de imágenes, así como su etiquetado con base a los requerimientos y se anexarán a la base de datos propia. Las imágenes serán tomadas de la base de datos de imágenes de COCO-TEXT. Se trabajará en Visual Studio 2019 y se instalará TensorFlow con las paqueterías necesarias para realizar el entrenamiento de la red. Se investigarán algunos modelos CNN para ser implementados y así poder entrenar la red neuronal a partir de esos modelos. A continuación, se explican detalles del proceso: Las imágenes que fueron analizadas fueron tomadas de una base de datos ya existente: COCO-TEXT, la cual se descarga de la carpeta llamada test2014de la página web http://cocodataset.org/#download. Para realizar la segmentación de las imágenes se analiza la imagen visualmente y se hace el recorte buscando regiones con texto que estén en una línea sencilla, varias líneas, texto numérico y regiones sin texto, las cuales deben mostrar un patrón que podría ser confundido con texto por la CNN al ser entrenada. Todas las imágenes deben llevar el nombre que tienen original seguido del identificador de categoría y número de imagen que le corresponde si ya existen otras de la misma categoría. Las imágenes de texto en una sola línea deben llevar el nombre que tienen seguido de: _TS_01. Las imágenes de múltiples líneas de texto deben ir seguidas de: _TM_01. Las de texto numérico seguidas de: _TN_01 y las imágenes que no contienen texto seguidas de: _NT_01. En caso de que salgan de la misma imagen dos o más imágenes de la misma categoría (lo que es muy probable), el número uno se va cambiando según el número de imagen que corresponda. De una sola imagen llegan a salir hasta diez o más imágenes para una sola categoría, y así se van anexando y cambiando el último número del nombre por el número de imagen que corresponda según el número de segmentos de esa imagen en esa categoría. A continuación, se describirá paso a paso como se hace el análisis y segmentación de las imágenes: El primer paso, es tomar una imagen de la base de datos de COCO-TEXT y se analiza visualmente para identificar si tiene texto. Posteriormente, con el programa GIMP se recorta esa parte de la imagen, únicamente la parte del texto que se requiere. Al tener recortada la parte del texto se identifica si es texto de una sola línea, línea múltiple o numérico, dependiendo la categoría de texto en la que se encuentra, se guarda el segmento de imagen en la carpeta correspondiente conservando su nombre original seguido del identificador de categoría que le corresponda. Posteriormente, se insertarán las imágenes con sus segmentos a la CNN y se procederá a entrenarla. Finalmente, se realizarán pruebas para obtener resultados sobre el desempeño de la CNN, los cuales por la naturaleza de la red se esperan que sean satisfactorios.


CONCLUSIONES

En el proyecto realizado se creó una base de datos de imágenes la cuál ayudará para el entrenamiento de algunos modelos de CNNs. De esta manera la red podrá aprender sobre los textos de las imágenes naturales y podrá identificar textos que son similares en otras imágenes. Se espera que la red neuronal al ser entrenada con la base de datos propia pueda identificar los textos que no son muy fáciles de identificar inclusive por humanos como el texto reflejado en un espejo hasta los textos que se encuentran de cabeza. Aún cuando las CNN son complejas se pudo implementar un modelo, el cual funcionó al entrenarla mediante una base de datos de internet lo cual también se hará con la base de datos propia.
Maya Velazquez Lidia Viviana, Universidad de Guadalajara
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.


ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.

Fajardo Hernandez Irma Aslhey Isabel, Universidad de Guadalajara. Maya Velazquez Lidia Viviana, Universidad de Guadalajara. Pavon Suarez Luis Alberto, Instituto Politécnico Nacional. Rodríguez Gutiérrez Luisa Cecilia, Universidad de Guadalajara. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la  mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indican las normas. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma. 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó en el tiempo determinado por las normas.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a lo calculado por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró que no lo hace tan resistente como el convencional, pero por muy poco, pero ayuda a tener un revenimiento menor. El concreto con PET en escama, presenta un mayor rendimiento al convencional, y una menor resistencia a la compresión. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo
Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
Mayo López Lizbeth, Instituto Tecnológico de Matamoros
Asesor: Dr. Guillermo Martinez Ruiz, Universidad Michoacana de San Nicolás de Hidalgo

PATOLOGíAS ESTRUCTURALES EN EDIFICIOS COLONIALES


PATOLOGíAS ESTRUCTURALES EN EDIFICIOS COLONIALES

Mayo López Lizbeth, Instituto Tecnológico de Matamoros. Asesor: Dr. Guillermo Martinez Ruiz, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

A partir de los deterioros existentes en edificaciones coloniales del centro histórico de la ciudad de Morelia, se buscará establecer cualitativamente las posibles causas físicas que los hayan producido. 



METODOLOGÍA

Abordando el uso de la catalogación como metodología que permita hacer un estudio adecuado para los establecimientos con carácter patrimonial, a través de prácticas de la ingeniería que resguarden el patrimonio nacional. Se sostiene además que la catalogación sirve de apoyo a las tareas de preservación y difusión de los patrimonios culturales desde hace ya varios años. Se realizó la elaboración de fichas técnicas para identificar las características del edificio, su deterioro, su rescate o intervención, y la imagen que muestra en la actualidad.  Dicho estudio está enfocado en el centro histórico de la ciudad de Morelia, en el estado de Michoacán. Ya que es una de las principales ciudades con gran riqueza histórica, en la cual podemos encontrar gran diversidad de edificios y patrimonios históricos obteniendo así, diversos datos que contribuyen a esta investigación. Partiendo de la premisa anterior, se procede a la catalogación de los daños presentes en las fachadas principales de un conjunto de edificaciones históricas de tipo colonial, ubicadas en los primeros cuadros del centro histórico de Morelia, Michoacán, ciudad distinguida como Patrimonio de la Humanidad por la UNESCO desde 1991, la cual, se encuentra ubicada en una zona de alta peligrosidad sísmica. Debido a la gran importancia de contar con información actual de los diferentes niveles de deterioro existentes en las edificaciones antiguas, la cual servirá como referencia de los estados de daño previos a un evento natural extraordinario futuro, se realizará al levantamiento y elaboración de fichas con información técnica suficiente y precisa obtenida directamente en campo, que inclusive permitirá en etapas posteriores la realización de estudios cuantitativos, todo lo anterior, de cara a la elaboración de un propuesta metodológica que pueda ser implementada en etapas posteriores a nivel regional, como parte fundamental de un instrumento simple que coadyuve en mejores técnicas para la correcta conservación del patrimonio arquitectónico edificado.   


CONCLUSIONES

Se buscan obtener datos relevantes sobre las posibles causas de daño en los distintos edificios catalogados, para realizar un análisis estructural en el cual se pueda corroborar las posibles causas y de esta manera encontrar soluciones optimas que ayuden a la preservación de estos patrimonios culturales. 
Medina Alejandro Leonardo, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

EFECTO DEL APORTE TéRMICO DEL PROCESO SMAW (E6013, E7018, E6020) SOBRE EL ANCHO Y PENETRACIóN DEL CORDóN DE SOLDADURA EN UN ACERO ASTM A36


EFECTO DEL APORTE TéRMICO DEL PROCESO SMAW (E6013, E7018, E6020) SOBRE EL ANCHO Y PENETRACIóN DEL CORDóN DE SOLDADURA EN UN ACERO ASTM A36

Medina Alejandro Leonardo, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

En la actualidad podemos observar y darnos cuenta que muchas cosas de las que nos rodean (herramientas, maquinaria, construcciones, señalamientos, muebles, etc.) están compuestos en su mayoría por algún acero. Este mismo se divide en varios tipos para distintas tareas; uno de los mas comunes en la parte de la herrería, de maquinaria agrónoma, de uso industrial, uso casero y manufactura es el acero ASTM A36, este es una de las variedades más comunes debido a su bajo costo, ofreciendo una excelente resistencia y fuerza para un acero bajo en carbono y aleación. Gracias a las propiedades de este material, hace que los trabajos de manufactura, como la soldadura, sean muy sencillos de aplicar. En muchas ocasiones, el poco conocimiento que se tiene acerca de este material causa un mal trabajo aplicado con poca ciencia para sus fines. La presente investigación se enfoca en encontrar cual es la mejor soldadura (de los 3 tipos aplicados) para el acero dependiendo de su aplicación, respecto a la penetración en el material base y la fusión respecto al material de aporte.



METODOLOGÍA

1.- Selección y corte de probetas de acero ASTM A36 Se tomo placa de acero ASTM A36 de la cual se obtuvo una probeta de 34 mm x 10 mm x 6.35 mm, la cual se utilizó para obtener las características generales necesarias para realizar nuestra investigación. Primero se pasó al lijado con números desde 80 hasta 1500 girando la probeta 90° cada vez que se cambiaba de lija, con la meta de borrar las líneas marcadas por la orientación de la lija anterior; continuando con el pulido con alúmina en un paño a 500 rpm y finalizando con un micro ataque químico de Nital al 3% durante 5 segundos. 2.- Análisis metalográfico en condición de suministro Inmediatamente se tomó la probeta y se coloco en el microscopio con aumentos de x100 y x500, capturando la imagen de su composición metalográfica. 3.- Análisis de durezas en condición de suministro Posteriormente se paso al durómetro para obtener la dureza del material promediando la captura de 7 pruebas en igualdad de condiciones. 4.- Determinación del aporte térmico del proceso En esta parte pasamos a el lado teórico con la fórmula de aporte térmico, colocando valores sugeridos por fichas técnicas como lo fue el voltaje, amperaje, velocidad de soldeo y eficiencia del método de soldadura. 5.- Soldadura Bead-on-plate con y sin oscilación por empuje y arrastre. Se pasó al área de soldadura, donde se procedió a aplicar en el acero ASTM A36 el método SMAW con y sin oscilación por empuje y arrastre con los 3 tipos de electrodos que se condicionan en la investigación (E6010, E6013 y E7018). 6.- Corte y seleccionado de probetas. Al terminar de enfriarse nuestra placa, se pasó al corte de las 6 probetas de forma que el cordón de soldadura fusionado con el material base, fuera visible de manera frontal. Continuó con un lijado de 80 a 1500, pulido con alúmina y finalmente con un micro ataque químico de Nital al 3% por 5 segundos. 7.- Cuantificación del ancho y penetración. Después, ya al tener los datos obtenidos y el proceso SMAW aplicado, se pasó a cuantificar la penetración de la soldadura y la zona de afectación.


CONCLUSIONES

En primera, se pudo corroborar que la metalografía del acero ASTM A36 es simple, que facilita su uso general; también permitiéndonos hacer uniones tipo soldadura de forma sencilla y práctica. Posteriormente la dureza obtenida fue poco variante con valores muy cercanos a 47 Rockwell. Al aplicar la soldadura Bead-on-plate con y sin oscilación por empuje y arrastre, se noto que el material de aporte (electrodo E6013) y el material base (acero ASTM A36) tuvieron una unión notoria al igual que con el material de aporte E7018, solamente el electrodo E6010 presento poca escoria, salpicadura de material y porosidades. Se espera que, al cortar las probetas con sus respectivos cordones de soldadura, después de pulir y atacar químicamente, se logre observar cual de los 3 distintos electrodos presento una mejor penetración sobre el ancho, al igual que determinar cual de sus 2 formas fue más eficaz, con oscilación o sin oscilación. En esta parte final, se espera corroborar que dependiendo la utilidad que se le de al material, se pueda determinar cual es el mejor electrodo a utilizar por empuje, arrastre, con o sin oscilar.
Medina Anguiano Manuel Alessandro, Universidad de Colima
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIÓN DE LAS PROPIEDADES FÍSICO-MECÁNICAS DEL CONCRETO RECICLADO CON AGREGADOS DE LA REGIÓN DE MORELIA, MICHOACÁN


EVALUACIÓN DE LAS PROPIEDADES FÍSICO-MECÁNICAS DEL CONCRETO RECICLADO CON AGREGADOS DE LA REGIÓN DE MORELIA, MICHOACÁN

Medina Anguiano Manuel Alessandro, Universidad de Colima. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

            El crecimiento en la infraestructura del país no solo demanda una gran cantidad de materiales para el desarrollo de estos nuevos proyectos sino que, a su vez, genera un volumen considerable de desechos producto de construcciones que han terminado su vida útil. Entre estos materiales se encuentra el concreto, el cual una vez demolido de una estructura pasa a ser un contaminante mas que va a parar a lotes baldíos, basureros clandestinos y calles de la ciudad; acumulándose y generando contaminación visual y creando focos de infeccion por ser sitios para la proliferación de fauna nociva.             El daño a la orografía de la región debido a la creación de nuevos bancos de materiales; así como la contaminación en las ciudades y basureros causada por los desechos de la industria de la construcción, son los principales motivos para la realización del presente estudio.



METODOLOGÍA

            La obtención del concreto reciclado fue producto de la restauración de las banquetas que se encontraban en el Centro Histórico, el material fue llevado a las instalaciones del Laboratorio de Materiales de la Universidad Michoacana de San Nicolás de Hidalgo; debido a que este material no podía ser utilizado por su gran tamaño fue llevado a triturar de manera que las partículas sean trabajables.             El material fino fue obtenido de 3 diferentes bancos de materiales. El primero Los Nogales ubicado en el kilometro 124 de la carretera Morelia-Jiquilpan el cual según datos del Inventario de Bancos de Materiales 2018 de la SCT, menciona que el material es Tezontle y produce unos 100,000 m3 de material al año. El segundo material es del banco llamado Joyitas, ubicado en el kilometro 014+500 de la carretera Morelia-Jiquilpan, el banco produce material tipo Tezontle y al año extrae 100,000 m3. El tercero es extraído del banco llamado Piedras de Lumbre ubicado en el kilometro 112 de la carretera Toluca-Morelia, dicho banco extrae material tipo Caliza en un volumen de unos 50,000 m3 al año.             Una vez obtenidos los materiales se procedió a realizar la caracterización de los materiales, tanto a la grava de concreto reciclado como de las arenas. El proceso consistió en pruebas de: Densidad Humedad de absorción Masa Volumétrica Seca y Suelta Masa Volumétrica Seca y Varillada Análisis Granulométrico Es importante mencionar que todas las pruebas se realizaron de acuerdo con la Norma Mexicana y la ONNCCE, en su versión vigente. Una vez realizada la caracterización de los agregados, se procedió al diseño de la mezcla de concreto según el Método de la ACI. Para el diseño se consideró una desviación estándar aplicada a Michoacán, la cual se presenta en el Reglamento de Construcción de Michoacán. Para el diseño de todas las mezclas se consideró un Revenimiento de 10 cm y un f’c de 250 kg/cm2.             Una vez realizado el diseño se realizaron los cilindros de concreto, para cada diseño se realizaron 9 cilindros, de manera se tuvieran 2 muestras para cada periodo de fraguado (7, 14 y 28 días) y un cilindro extra en caso de que el resultado de alguna prueba tenga una desviación considerable y con esto poder obtener un resultado mas que permita ajustar el promedio, tanto para las pruebas destructivas como las no destructivas. Los cilindro se dejaron fraguar en una pileta con agua.             Finalmente se procedió a realizar las pruebas siguientes para los plazos de 7, 14 y 28 días:             Pruebas No Destructivas: Carbonatación Resistividad Eléctrica Velocidad de Pulso Ultrasónico Pruebas Destructivas: Resistencia a la Compresión


CONCLUSIONES

            Según las pruebas realizadas en la grava de concreto reciclado se obtuvieron los resultados mostrados a continuación. Humedad de Absorción: 8.79 % Densidad: 2.10 g/cm3 Masa Volumétrica Seca y Suelta: 1.19 g/cm3 Masa Volumétrica Seca y Varillada: 1.31 g/cm3 Tamaño Máximo del agregado: 1 Según las pruebas realizadas a las arenas se obtuvieron los resultados: Arena Piedras de Lumbre Humedad de Absorción: 2.75 % Densidad: 2.54 g/cm3 Masa Volumétrica Seca y Suelta: 1.635 g/cm3 Masa Volumétrica Seca y Varillada: 1.866 g/cm3 Módulo de Finura: 2.89 Arena Joyitas Humedad de Absorción: 3.89 % Densidad: 2.29 g/cm3 Masa Volumétrica Seca y Suelta: 1.34 g/cm3 Masa Volumétrica Seca y Varillada: 1.455 g/cm3 Módulo de Finura: 2.96 Arena Los Nogales Humedad de Absorción: 9.85 % Densidad: 2.18 g/cm3 Masa Volumétrica Seca y Suelta: 1.243 g/cm3 Masa Volumétrica Seca y Varillada: 1.351 g/cm3 Módulo de Finura: 3.05 Pruebas No Destructivas: Resistividad Eléctrica Mezcla Grava Concreto Reciclado-Arena Piedras de Lumbre: 7 días: 3,758.3 kohm-cm 14 días: 4,013.7 kohm-cm Mezcla Grava Concreto Reciclado-Arena Joyitas: 7 días: 4,816.7 kohm-cm 14 días: 4,985.3 kohm-cm Mezcla Grava Concreto Reciclado-Arena Los Nogales: 7 días: 4,120.4 kohm-cm 14 días: 4,674.2 kohm-cm Velocidad de Pulso Ultrasónico Mezcla Grava Concreto Reciclado-Arena Piedras de Lumbre:       7 días: 4,012 m/s       14 días: 4,057 m/s Mezcla Grava Concreto Reciclado-Arena Joyitas:       7 días: 3,980.5 m/s       14 días: 4,065 m/s Mezcla Grava Concreto Reciclado-Arena Los Nogales:       7 días: 3,996 m/s       14 días: 4,032 m/s               Se debe mencionar que los ensayos de Carbonatación no fueron posibles de realizar debido a que la edad mínima para esta prueba es de 50 días, por lo que solo fue posible una demostración de la prueba con un espécimen que cumplía con esta edad a manera de explicación.             Pruebas Destructivas: Resistencia a la Compresión Mezcla Grava Concreto Reciclado-Arena Piedras de Lumbre:       7 días: 222.75 kg/cm2       14 días: 289.65 kg/cm2       28 días: 285.85 kg/cm2 Mezcla Grava Concreto Reciclado-Arena Joyitas:       7 días: 229.25 kg/cm2       14 días: 262.25 kg/cm2       28 días: 296.80 kg/cm2 Mezcla Grava Concreto Reciclado-Arena Los Nogales:       7 días: 233.95 kg/cm2       14 días: 272.10 kg/cm2       28 días: 294.50 kg/cm2
Medina de la Torre Daniel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa

DESARROLLO DE PRUEBAS DE PENETRACIóN PENTESTING EN PYTHON Y KALI LINUX PARA COTOS PRIVADOS


DESARROLLO DE PRUEBAS DE PENETRACIóN PENTESTING EN PYTHON Y KALI LINUX PARA COTOS PRIVADOS

Medina de la Torre Daniel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las privadas residenciales o cotos privados empiezan a utilizar redes inalámbricas para conectar camaras ip en las diversas calles con el fin de identificar a delincuentes o causantes de daños en las propiedades de los condóminos o las áreas comunes,  han demostrado ser de gran ayuda, sin embargo se desconoce la vulnerabilidad de estos sistemas para algún atacante que pretenda vulnerar y hacer uso indebido de las cámaras para monitorear horarios de los vecinos o su rutina a fin de causar algún mal, es por eso que es necesario identificar las debilidades de seguridad, y para ello se prepararàn una serie de pruebas con Kali linux y Python a fin de adoptar las medidas necesarias, para hacer las pruebas pertinentes se realizarán en los cotos privados de Real del Valle



METODOLOGÍA

Se realizó un curso de Python para la familiarización del lenguaje y evalúo la necesidad de utilizar otro sistema operativo diferente a Windows. En este caso se utilizó el sistema operativo kali Linux puesto que este sistema ya tiene integradas distintas herramientas para realizar pruebas de penetración. Después de haber hecho una investigacion de cuáles son los puntos vitales para el pentesting nos enfocamos en 2 puntos vitales en las pruebas de red inalámbrica y pruebas de servicio de red Pruebas de red inalámbrica: examina todas las redes inalámbricas utilizadas en una corporación, así como el propio nombre afirma. Se realizan pruebas en protocolos de red inalámbrica, puntos de acceso y credenciales administrativas. Pruebas de servicio de red: se realizan análisis en la infraestructura de red de la corporación, en busca de fragilidades que pueden ser solidificadas. En este aspecto, se evalúa la configuración del firewall, pruebas de filtrado stateful, etc


CONCLUSIONES

En la estancia se adquirieron conocimientos ideales para la realización de test pentesting. Los pasos a seguir y en que enfocarse a la hora de hacer las pruebas pertinentes. Posteriormente después de haber hecho las pruebas necesarias se genera un reporte de cuáles son las vulnerabilidades y los problemas que se encontraron en la red y cuáles son las recomendaciones para la solución de los problemas de seguridad.
Medina Hernández Juan Gerardo, Instituto Tecnológico de Pachuca
Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey

EXPERIENCES IN PRODUCT, PROCESS AND MANUFACTURING SYSTEMS DEVELOPMENT – 3D FOOD PRINTER


EXPERIENCES IN PRODUCT, PROCESS AND MANUFACTURING SYSTEMS DEVELOPMENT – 3D FOOD PRINTER

Medina Hernández Juan Gerardo, Instituto Tecnológico de Pachuca. Asesor: Dr. Arturo Molina Gutiérrez, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Manufacturing processes are determinate by different types and variations, each one creating and transforming the material on its own particular way. Learning this processes is fundamental for any student and engineer, because this preludes the form of thinking and ideation of the different steps for the manufacturing of any product. This limitations are not full filed from books and theoretical knowledge, it is necessary to include different ways of learning for the different kinds of intelligences; more kinesthetic and visual exercises. Similar to subjects like chemistry and mechanic, adding practical classes helps to understand the way a process works and the different kinds of variations it has. Just by having the possibility to put into practice all the lessons and time invested during course offers the student and engineer the valuable experience of mainly understanding what can and cannot be done during and by the process. Most of public schools cannot afford to buy and install this kind of machines for educational and manufacturing proposes due to the complexity and huge variety offered in the actual market. This require a high level of investment, and most of this comes from projects of investigation and different kinds of incomes. Big investments require long periods of time and filters to be delivered, so it is imperative to look for the best option in relation between cost and quality.



METODOLOGÍA

As a framework for the creation and enrichment for the micro-reconfigurable machine was used the Integrated Product, Process and Manufacturing System Development Reference Model (IPPMD-RM) developed by Arturo Molina, which summarizes the concepts involved in the creation of a new product. Combining the concepts of CPPS and RMS, it is possible to adapt the needs of the new product to an integral system that allows the development of systems aimed at Industry 4.0. It is composed of three entities: product development, process development and manufacturing system development. For each entity, several stages are covered by undertaking specific activities and applying different tools and technologies. 1. Product development includes a collection of requirements and needs to solve customer problems. 2. Process development is the selection of material and manufacturing process based on individual components of the product to develop. 3. Manufacturing system development is the selection of supplier for standard components, process planning and facility design for manufactured components, any material used can be categorized in: Product transfer, Technology transfer or Facility design. (Cortés et al., 2018) For the ideation of the product first was needed to identify the user and all the characteristics associated with them. Who are your users? Who are your customers? Define their requirements (why do they need it? what is the pain? what is the satisfaction? where do they use it?) Describe the value added attributes Identify similar products What are the important brands?   This information let follow to the design and macrostructure of machine and service for learning and teaching propose. For this the expected qualities for the machine (functions) to learn from are:   Teaching the basics of coding for manufacturing Teaching pros and cons of food printing Printing with different qualities Teaching the maintenance of a machine Teaching how to adjust and adapt to the necessities Teaching the parameters for it to work and variations Teaching what kind of pastes it could use This functions can be solved with two products; the first one is the micro-reconfigurable machine, which is the main objective of the project, with already being at its second version full of new improvements. For the second product, as correlated to the first one, is an user manual, where is described and explained the way it works, how it functions, the kind of language it reads, and many others principles for the student and teacher to understand it and manufacture anything they can imagine with related with the restrictions they can both learn. The design of the manual and description of the principles of functioning are the main goal of the investigations. With continuous testing and designing of the parameters and coding for the machine to work. Cortés, D., Rodríguez, B. E., Gutiérrez, J. A., Welti, J., Serna, S., Montoya, J., … Molina, A. (2018). A REFERENCE FRAMEWORK TO SUPPORT INNOVATION IN PROCESS SYSTEM : 3D FOOD PRINTER CASE OF STUDY. (July), 19-21.


CONCLUSIONES

As most of students know the kind of manufacturing process that exists,  but learning how to fix it, what not to do, how to change parameters and reconfigure it is the real way of learning. It can be compared to learning an experience in real life work, but without big mistakes; as you can learn by testing different ways of manufacturing the same piece and more importantly, the limitations it has. The main objective was with the food printing machine module, where it was needed to understand an outside open source program for slicing virtual objects, working with the parameters it includes as layer height, nozzle diameter, speed, filling mesh and so many other qualities for the finishing of the piece. As the program was initially designed for plastic 3D printing, and food is different to conventional filaments; some parameters were difficult to adjust and some others to eliminate. Continuous testing and mistakes were made, but it was important to record and write down this adjustments for the next user to keep working on it because the project was established for the long term.
Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato

HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO


HACKING WEB Y PENTESTING BAJO UN ENTORNO CONTROLADO

Cortes Alvarado Mariana, Instituto Tecnológico Superior de Guanajuato. Cortes Rojas Cortes Rojas Luis Angel, Instituto Tecnológico de Zitácuaro. Delgadillo López Juan Ignacio, Universidad Autónoma de Nayarit. González Colmenero Lizeth, Instituto Tecnológico Superior de Guanajuato. Guzmán González Andrea, Instituto Tecnológico Superior de Guanajuato. Hernández Murillo Laura Michell, Instituto Tecnológico Superior de Guanajuato. Medina Lara Joel Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La presencia de vulnerabilidades dentro de sitios web y sistemas operativos son problemas que el usuario común no percibe como graves o importantes. Y como se sabe que el usuario final no percibe estas anomalías, bien, esto se demuestra con la encuesta realizada en el instituto tecnológico superior de Guanajuato, teniendo como población a 115 estudiantes y 62 del personal administrativo, se obtiene el conocimiento de que el 92% de la muestra encuestada afirma usar el sistema operativo Windows, a su vez, el 86% de la muestra son usuarios del buscador de Google Chrome. Cabe mencionar, que 52% de la población asegura conocer los riesgos que existen al entrar en páginas web que no son confiables, sin embargo, el 92% no pudo mencionar por lo menos uno. Estos datos indican que el foco principal para el robo de información se centra en el sistema operativo Windows y en el buscador de Chrome, aumentando la probabilidad de obtener huecos de seguridad importantes que afectan de manera directa a los usuarios finales. Lo anterior radica en que servicios que se ofrecen por medio de un sitio web, no cuentan con las suficientes características de seguridad, como lo son la publicidad maliciosa, captura de información personal o certificados SSL, esto último para autentificar la identidad de un sitio web.



METODOLOGÍA

Para la realización de pentesting en un ambiente controlado, se integraron softwares libres siendo estos; Windows 7, usado como víctima de ataques informáticos, siendo el usado en todo el mundo, haciéndolo vulnerable y la principal atención de los ciberdelincuentes. También se usa un sistema llamado Metasploit, el cual cuenta con una serie de configuraciones pensadas para permitir ejecutar técnicas de hacking utilizando exploits, los cuales son comandos o acciones usadas con el fin de aprovechar huecos de seguridad. Por último, el sistema principal de la práctica, Kali Linux, diseñada principalmente para la auditoría y seguridad informática en general. Este tiene preinstaladas diversas herramientas para escaneo de puertos, robo de credenciales o datos (phishing), pruebas de seguridad en redes inalámbricas, entre otras. Inicialmente, se realiza un estudio a una muestra de una población en el fin de conocer que se sabía del tema de seguridad informática, cuáles eran los sistemas operativos que se usaban, si conocían cuales eran los componentes que determinaban una página web insegura, con que regularidad estaban en internet y que sitios web frecuentaban. Dentro de las prácticas de pentesting, las cuales refieren a los ataques a un sistema para poder reconocer las vulnerabilidades existentes con el objetivo de disminuirlas,  se realizan varias pruebas para conocer las vulnerabilidades de los sitios con mayor demanda de acceso a ellos para recolectar e identificar la información de páginas de internet necesaria y realizar ataques de seguridad, cuáles son las tecnologías que se usan para ello, a que dominios pertenecen específicos sitios web, que tipos de ataques se pueden efectuar y con qué fin se hacen. Algunas de las pruebas que se realizan son el robo de credenciales desde sitios web ya reconocidos por los usuarios, tales como Facebook y Google, clonando las páginas con la herramienta setoolkit perteneciente al sistema operativo de Kali Linux, pudiendo así robar nombres de usuarios y contraseñas dentro de un entorno controlado con fines de advertir y descubrir vulnerabilidades en páginas web. Durante la actividad se compila la información necesaria para conocer más de las vulnerabilidades a las que se encuentran expuestas las páginas web, teniendo como resultado interferir llamadas telefónicas por medio del software disponible en Kali Linux; Wireshark. Para ello, las victimas conectadas a la red realizan una llamada a través de una extensión, en ese momento se comienza a hacer una búsqueda en WireShark de todos los datos que recorren la red. Para identificar la llamada IP, es importante buscar el protocolo SIP, que no es más que el indicador del inicio de una sesión. Más de las vulnerabilidades encontradas incluyen el infectar archivos por medio de DVWA (herramienta disponible mediante la conexión de Metasploid y el sistema operativo principal) y la manipulación de bases de datos para la obtención de contraseñas de usuarios registrados o de información sensible de estos, esto gracias a una herramienta de nombre Mutillidae proporcionada también por los sistemas operativos ya mencionados. El proyecto está basado en la metodología OWASP (Open Web Application Security Project) siendo esta de seguridad de auditoría web, abierta y colaborativa, orientada al análisis de seguridad de aplicaciones Web, advirtiendo que las vulnerabilidades dentro de los sistemas informáticos nunca dejarán de existir, pero pueden disminuirse con el propósito de fortalecer la seguridad para futuros ataques.


CONCLUSIONES

Se obtiene el conocimiento de cómo diagnosticar, identificar y disminuir vulnerabilidades en sitios web y aplicaciones de software, con ayuda de las técnicas de hacking web y el pentesting que son pruebas de penetración autorizadas por una empresa para descubrir lo vulnerables que son, calcular el riesgo de posibles ciberataques, como pueden actuar ante una situación de hackeo y como mejorar sus medidas de seguridad para prevenir futuras agresiones hacia su sistema. Gracias a la información recopilada durante la estancia, es posible asegurar que no existe un sistema 100% seguro, pero si se puede estar preparado ante una situación vulnerable, es importante que los usuarios de cualquier sitio web sean conscientes que al brindar información, esta pueda llegar a manos equivocadas y es relevante resaltar que solo se proporcione los datos necesarios y estar seguros de que se trata de páginas confiables y oficiales, pues existen páginas que se hacen pasar por las originales con la única intención de robar credenciales y obtener información para un mal uso.
Medina Morales Mariela Susana, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Mtro. Royer David Estrada Esponda, Universidad del Valle (Colombia)

PRáCTICAS DE SEGURIDAD EN LAS REDES DE NIVEL EJECUTIVO DE LA POLICíA NACIONAL DE COLOMBIA


PRáCTICAS DE SEGURIDAD EN LAS REDES DE NIVEL EJECUTIVO DE LA POLICíA NACIONAL DE COLOMBIA

Medina Morales Mariela Susana, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Mtro. Royer David Estrada Esponda, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el uso de las TIC se ha vuelto una herramienta importante para todas las personas, ya que esto ha tenido desde ya hace algún tiempo atrás, un gran avance, en cuanto a comunicación, servicios de pago por la web, transacciones en cuentas bancarias vía internet, etc. Pero realmente la pregunta aquí es: ¿Hacemos buen uso de estas herramientas?, ya que muchas veces nos podemos conectar desde computadoras en establecimientos públicos, hasta distintos puntos de internet gratuitos, y no somos conscientes de que nuestra información personal, así como bancaria, pueda resultar afectada por este tipo de sitios sin ser protegida adecuadamente.



METODOLOGÍA

La presente investigación es una investigación aplicada, complementada con enfoques cualitativos, obtenidos con base en la aplicación de instrumentos de recolección de información y cuantitativos por medio de un grupo focal (con oficiales y suboficiales), de modo que los resultados arrojados, podrán ser puestos en contexto y no solo ser útiles en el ámbito de la generalización. Las fases de la investigación: iniciará con una fase exploratoria, en donde delimitaremos el tema a investigar, así como sus objetivos, su marco referencial y construcción y validación de instrumentos, y la fase descriptiva, en donde se sacarán las conclusiones de la población que ha sido estudiada a partir de la recopilación de información obtenida en base al instrumento aplicado a los usuarios.    


CONCLUSIONES

Resultados Parciales Se realizó la revisión de los artículos científicos antes mencionados, redactados en español y en inglés, y realizados en distintos países, como lo son México, Colombia, Estados Unidos, etc., con el fin de analizar los instrumentos utilizados en los estudios de seguridad informática, muchos utilizaron distintas variables como lo eran:  Familiaridad con las computadoras  Security practice - TechnologyAspect - Prácticas de seguridad -Aspecto tecnológico  Security practice - Security conscious care  Con estas variables y cuestionarios recopilados, creamos nuestro propio instrumento para llevar a cabo la investigación, de ahí pudimos formular 5 variables importantes, enfocadas cada una en ámbitos diferentes en la utilización de la tecnología, así como 30 sub-variables las cuales fueron identificadas como las preguntas a complementar el instrumento. Gracias a la recopilación de esta información, fue posible crear nuestro propio cuestionario y así aplicar una prueba piloto con 9 estudiantes a patrullero. Conclusiones Parciales Una vez obtenida la prueba o el cuestionario se decidió realizar esta prueba a un grupo de estudiantes de la escuela de policía nacional de Colombia. En la cual se logró obtener un 84% de Alpha de Combrach, la cual nos indica que nuestra prueba de pilotaje antes realizada es fiable para aplicar a un grupo de personas de por lo menos 500 asistentes y así obtener resultados más concretos. También se descubrió que de todos los artículos revisados, la mayoría tiene variables con muchas similitud, como lo es la seguridad informática, conocimiento de las tecnologías, etc., llegando así a la conclusión, de que la mayoría de los autores de estos artículos, tienen cierta preocupación, de como es que nosotros manejamos las TIC en la actualidad.
Medina Vázquez Emanuel, Instituto Tecnológico Superior de Uruapan
Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan

METODOLOGíA SIX SIGMA, MEDIANTE EL APRENDIZAJE LúDICO.


METODOLOGíA SIX SIGMA, MEDIANTE EL APRENDIZAJE LúDICO.

Hernández López Andrés, Instituto Tecnológico Superior de Uruapan. Medina Vázquez Emanuel, Instituto Tecnológico Superior de Uruapan. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

La utilización de juegos en el aprendizaje no deja de ser una técnica más para la facilitación del aprendizaje y si, igual que hablamos de aprendizaje basado en proyectos o aprendizaje basado en problemas o retos, hablamos de aprendizaje basado en juegos (ABJ) o Game based learning (GBL). Sin embargo, lo verdaderamente transformador es el juego entendido como actitud lúdica. Actitud que tiene que ver con la capacidad para asombrarnos, con la curiosidad, con las ‘ganas de…’, con la creatividad y el tratamiento no convencional de objetos e ideas. Es una actitud ante la vida capaz de transformar la educación, porque transforma al profesorado y al alumnado de manera recíproca. (Marín, 2018). Por otra parte, la metodología Six Sigma está obteniendo hoy en día unos magníficos resultados en multitud de campos y sectores tanto industriales como de servicios así que es de suma importancia que los estudiantes de Ingeniería Industrial la conozcan manejen y apliquen su metodología, herramientas y conceptos. Entre los problemas que se presentan para realizar prácticas sobre esta metodología, son los costos de los equipos o kit que  existen en el mercado, así como no es sencillo el poder conseguirlos, ya que la mayoría de ellos se consiguen en línea y no son fabricados en nuestro país y algunas de las propuestas alternas que existen a la hora de aplicar o desarrollar el juego las instrucciones no son claras y en algunas ocasiones parecieran que son incompletas por lo que se complica mucho reproducirlas y lograr los objetivos que se pretenden.



METODOLOGÍA

Se inicio con la búsqueda de la bibliografía y trabajos de referencia, para ir construyendo el marco conceptual y conocer que trabajos similares se han realizado en función de la temática a abordar. Se profundizo en el conocimiento de la metodología de Six Sigma, ¿qué es? ¿para que sirve?, conceptos básicos, la metodología DMAIC, herramientas fundamentales, aplicaciones, casos de aplicación. Se determino como trabajar a partir de diversas opciones de juegos que se revisaron en función de trabajos ya realizados, la facilidad para implementar y aplicar los conceptos y herramientas de la metodología, sus costos y la facilidad de conseguir los materiales necesarios. Ya con los materiales y la idea clara del juego a desarrollar, se comenzó a definir las actividades a realizar, es decir determinar los distintos escenarios donde se puedan llevar acabo, los objetivos, los materiales necesarios, las instrucciones e indicaciones, los formatos a utilizar, etc. Dar un nombre al juego, aplicarlo o llevarlo a cabo a nivel de prueba o piloto, para la realización de los ajustes necesarios en función del cumplimiento y logró de los objetivos planteados, y tener siempre la retroalimentación y mejora como parte de la robustez del juego desarrollado. Y por último la reproducción por parte de externos a través de la guía e instructivo desarrollado, para comprobar su reproducibilidad dentro de los parámetros y objetivos sobre los cuales se desarrollo el juego.


CONCLUSIONES

El juego desarrollado lleva por título six sigma bloquelandia es una dinámica en la cual se puede contrastar los distintos procesos que se pueden tener con dos productos similares. El objetivo es implementar conceptos de Six Sigma, aplicándolos en el proceso para la mejora del dicho, para así darlos a conocer de una manera dinámica y obtener un mejor resultado en el aprendizaje de dichos conceptos y aplicaciones. La realización del aprendizaje de Six Sigma mediante el uso del juego consistía en que los participantes de este mismo pudiesen aprender de una manera práctica lo que conlleva aplicar los conceptos de estas metodologías y de esta manera obtener conocimientos más profundos teórico-prácticos. Y que este haya sido desarrollado de una manera didáctica y con la ayuda de bloques similares a los Lego hace que la experiencia del mismo taller sea más versátil y de mayor inmersión. Es importante mencionar que el juego se está desarrollando a tres niveles: El primero la realizar promoción de la carrera de ingeniería Industrial a través del uso de esta metodología como ejemplo, la otra para desarrollar manuales de practicas para el desarrollo de esta metodología como materia dentro del programa de ingeniería industrial y por último como taller en el aprendizaje de dicha metodología, actualmente al momento de esta redacción se terminado la realización de los dos primeros niveles. En el transcurso de esta estancia de verano se logró no solo adquirir diversos conocimientos sobre el aprendizaje y las metodologías usadas y de esta manera aplicarlas a desarrollo de este taller, no obstante, al ser este un proyecto bastante ambicioso se encuentra aún en una fase de desarrollo no es posible mostrar los datos obtenidos. Se espera que el presente taller sea objeto de cambios en el mismo, para de esta manera el taller sea ampliado para conocer una mayor cantidad de conceptos más, y de igual manera el taller sea más completo.
Medrano Villanueva Francisco de Jesús, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

PERCEPCIóN Y VALORACIóN DEL ARTE EN LA CREATIVIDAD COMPUTACIONAL.


PERCEPCIóN Y VALORACIóN DEL ARTE EN LA CREATIVIDAD COMPUTACIONAL.

Medrano Villanueva Francisco de Jesús, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

Las ciencias computacionales han sido parte de nuestra vida diaria desde hace algunas décadas, aumentando su auge cada día de manera exponencial en diferentes ramas y diferentes áreas, desde la química, médica, deportiva y hasta artística. A través de los años, la tecnología ha logrado que las máquinas que empleamos para dichas actividades puedan aprender a llevarlas a cabo de manera autónoma, abriendo paso a la inteligencia artificial, y a la capacidad de análisis computacional automatizado. Inteligencia artificial no es más que la inteligencia que los dispositivos poseen para desarrollar actividades por ellos mismos. Esta capacidad se ha llevado a cabo a través de la imitación de ciertos patrones de conducta humanos, para entender el comportamiento de los seres, así como el funcionamiento de la máquina. La creatividad computacional puede definirse como el esfuerzo por comprender la creatividad humana para abrir paso a los sistemas que la simulen, cuenten con la propia o incluso puedan impulsar a los artistas. Pero, ¿cómo medir algo tan abstracto y relativo como lo es el arte y su percepción? George Birkhoff fue un científico quien, en el siglo XX se popularizó, entre otras cosas, por su obra La medida estética trabajo que pretendía medir el valor estético de las obras artísticas. Birkhoff proponía tres aspectos o fases de apreciación: la percepción, el sentimiento de valor que mide el esfuerzo del artista al elaborar la obra y el orden o armonía que la obra supone para determinar su belleza. De esta manera, postuló una ecuación que pretendía obtener una medida estética a través del orden en una obra, de acuerdo a la complejidad de la misma (M=O/C), abriendo paso a una nueva línea de investigación que vincula a la ciencia con el arte, despertando el interés de los investigadores por conocer esa parte de la percepción humana y otorgándole a la inteligencia artificial la posibilidad de replicarla, trabajo que, al día de hoy, sigue en desarrollo y crecimiento y en el cual se trabajó durante el verano de investigación. El presente resumen expone el experimento de la evaluación del arte por medio de la percepción visual del ser mismo frente a una pintura y/o una fotografía. Asimismo, pretende medir la capacidad de predicción del gusto de una persona cercana al usuario.



METODOLOGÍA

Por medio de un sitio web, el sujeto fue sometido a un test de apreciación a las obras de diferentes artistas y algunas fotografías, evaluando en un rango de números enteros del 1 al 10, el impacto que esta obra tuvo en el mismo y el que espera que tenga en su pareja. Finalmente, se le pidió el correo electrónico a manera de identificación. Asimismo, este ejercicio fue repetido de la misma manera por el lado restante de la dupla. Los datos como las imágenes, las respuestas y las encuestas fueron almacenados en una misma base de datos de manera local, que pretende ser manipulable para estudios futuros de los resultados, así como el entrenamiento por medio de Deep y/o Machine Learning de redes neuronales artificiales para el desarrollo de un software de juicio estético y un artista digital, mismos que se pretende seguir desarrollando una vez finalizado el verano de investigación, pues, si bien el grupo de investigación se encuentra ya trabajando en ello, el tiempo fue insuficiente para desarrollar esta actividad. El análisis de esta información permitirá, entre otras cosas, la posibilidad de tener datos más concretos de personas con gustos diferentes aleatoriamente, para desarrollar, por medio de la inteligencia artificial, sistemas que asemejen estas maneras de procesamiento artístico y las combine en uno solo, volviéndolo capaz de un sinfín de actividades, como las que el grupo lleva tiempo desarrollando y que se han mencionado con anterioridad.


CONCLUSIONES

Durante el verano de investigación se estudió, aprendió y reflexionó a cerca de la percepción del arte y la forma de su computarización con fines científicos para desarrollar software capaz de emitir un juicio estético de cualquier imagen y/o un artista digital. Por la complejidad del estudio, la carencia de información y su desarrollo limitado, este proyecto sigue en fases de análisis y recolección de datos, punto al que se esperaba llegar durante el verano de investigación. Sin embargo, se espera seguir siendo estudiado en tiempo futuro y ser completadas a distancia las actividades que preceden. El uso e implementación de redes neuronales artificiales abre paso a un estudio más profundo de los patrones de conducta humanos en el arte, pero su correcta aplicación e interpretación podría ampliar su usabilidad hacia diferentes ámbitos multidisciplinarios de mayor o igual impacto económico, social o ambiental, etc.
Mejía Ferreyra Luis Daniel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

DISEÑO DE REPRESAS PARA EL CONTROL DE INUNDACIONES EN LA ZONA SUR DE MORELIA


DISEÑO DE REPRESAS PARA EL CONTROL DE INUNDACIONES EN LA ZONA SUR DE MORELIA

Mejía Ferreyra Luis Daniel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La ciudad de Morelia enfrenta la amenaza de inundaciones, deslaves, encharcamientos, y afectación a viviendas por la cercanía con canales, ríos, drenes y vasos reguladores. Es necesario implementar medidas de protección y/o regulación que ayuden a prevenir y mitigar inundaciones en zonas con alto riesgo de inundación.



METODOLOGÍA

Es por ello por lo que se optó por realizar un estudio de los afluentes de la zona sur de la ciudad, para posteriormente modelarlos a condiciones naturales y así proponer sitios y posteriormente diseñar estructuras para el control de avenidas, analizar sus efectos y modelar la afectación que tendría con dichas obras. Para realizar las modelaciones fue necesaria la topografía de la zona, para lo cual, se obtuvo un levantamiento topográfico de los afluentes de la ciudad de Morelia, realizados por la CONAGUA en el año de 2014. En cuanto a la información hidráulica de los afluentes, fue necesario hacer un estudio hidrológico para determinar los gastos para diferentes periodos de retorno, esto se realizó empleando ArcGIS 10.5 para el estudio hidrológico de las cuencas, y el HEC-HMS 4.3 para obtener los hidrogramas. Las modelaciones a condiciones naturales se hicieron con el software HEC-RAS 5.0.7 el cual permite simular el flujo bidireccionalmente, de este programa se obtuvo un mapa de inundaciones, que indicaba las zonas donde el tirante del agua era mas alto y las zonas donde el agua se salía de los cauces. Con base a la información obtenida en HEC-RAS, se pudieron proponer zonas donde colocar presas rompepicos, las cuales tienen la función de retener el agua cuando ocurre una precipitación intensa, después de proponer los sitios, se realizó el diseño de algunas de ellas empleando Excel, después dicha propuesta de diseño se modeló nuevamente en HEC-RAS para determinar si la opción es viable o no.


CONCLUSIONES

Con la construcción de estas obras, la población tendrá la tranquilidad de que las lluvias intensas no ocasionarán inundaciones, producto del desbordamiento de los afluentes de la ciudad.
Mejia Nava Mario, Universidad de Guadalajara
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Mejía Pacheco José Roberto, Universidad de La Salle Bajío
Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)

DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.


DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.

Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca. Mejía Pacheco José Roberto, Universidad de La Salle Bajío. Muñiz Pérez Evelyn Angélica, Universidad Tecnológica de Nayarit. Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La problemática planteada va en conjunto a la muestra de resultados que se presenta ante el cliente, al realizarse un aclaramiento en la zona intima femenina, ya que dicho aclaramiento se realiza con el uso de tecnología láser. De tal manera que, se requiere un método que muestre el porcentaje de aclaramiento, con la comparación de la primera imagen antes del tratamiento y con una segunda imagen después de este, para así obtener una tercera imagen que dé como resultado con uso de filtros ya que de no tener el software es muy subjetivo la interpretación de resultados.



METODOLOGÍA

Haciendo uso de las comparativas realizadas por los ginecólogos pudimos observar cuales son las áreas de tratamiento y cuales son las zonas especificas en las cuales el acercamiento al tono original de piel toma efecto, con estos datos desarrollamos un software que haciendo uso de algoritmos matemáticos y operaciones con matrices analice pixel por pixel para así encontrar un color promedio de las zonas tratadas, esto para poder analizar de una mejor manera los resultados obtenidos después de cada sesión de tratamiento y que el paciente tenga un mejor panorama respecto a los resultados obtenidos y pueda el verlo a través de la interfaz gráfica. Así mismo se dan las recomendaciones pertinentes para que al momento de la recolección de datos, los resultados finales sean más acertados, esto debido a que si las imágenes se capturan desde diferentes ángulos o con diferente método de iluminación los datos obtenidos carecerán de factibilidad.


CONCLUSIONES

Al realizar las sesiones de acercamiento a tono natural de la piel se notaron mejoras en el desarrollo del software ya que tanto hubo un avance en el ámbito medico como ante el mejoramiento del software mismo, esto debido a que teniendo una mejor calidad a la hora de detección de las zonas que requieren de un mejor cuidado se le puede dar un tratamiento mas especifico a las personas y con ello ofrecer más datos de calidad para utilizarlos en las comparaciones obtenidas para la mejora del código del software. Al utilizar un software para el manejo de los resultados queda descartado el factor humano que puede ser susceptible a los cambios debidos a la fatiga, la forma en cómo se presentan los datos, etc., a contraparte de un software que sin importar el contexto va a arrojar los mismos datos como resultado de la comparativa y así tener una conclusión más certera de los cambios en la tonalidad de la piel, siempre y cuando se sigan las recomendaciones al momento de recolectar los datos (tomar las fotografías).
Mejia Rivera Marco Antonio, Universidad de Sonora
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES


FITORREMEDIACIóN: DEGRADACIóN DE AZUFRE CON GIRASOLES

Carrasco Martínez Nydia Lizeth, Instituto Politécnico Nacional. Centeno Torres Brandon Ernesto, Universidad de Guadalajara. Ibarra Salazar Juan Pablo, Universidad de Sonora. Martínez Ramírez Brian Yannick, Universidad de Guadalajara. Mejia Rivera Marco Antonio, Universidad de Sonora. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Actualmente el mundo está pasando por una serie de problemas ambientales bastante graves, en su mayoría ocasionadas por el ser humano, pero también ocasionadas por la naturaleza.  Un problema ambiental que se puede atacar es la contaminación debido a la ceniza volcánica, El gas emitido por un volcán se compone en su mayoría (75% aprox.) por vapor de agua (H2O), la fracción restante es conformada por dióxido de carbono (CO2), dióxido de azufre (SO2), sulfuro de hidrógeno (H2S), ácido clorhídrico (HCl), ácido fluorhídrico (HF); estos elementos son los productos principales y se caracterizan por ser emisiones ácidas.  El SO2 emitido se convierte lentamente en ácido sulfúrico (H2SO4), que se condensa en la atmósfera y se precipita en forma de lluvia con partículas muy finas. La concentración de estas partículas origina el llamado aerosol. Cuando éste se forma a partir del azufre se conoce como aerosol de sulfato. El objetivo de este trabajo es utilizar una manera de poder remediar los efectos por la contaminación en el suelo mediante una técnica que no genere contaminantes secundarios, por lo que se utilizó el método de fitorremediación; el cual consiste en aprovechar la capacidad de ciertas plantas para absorber, acumular, metabolizar, volatilizar o estabilizar contaminantes presentes en el suelo, aire, agua o sedimentos como: metales pesados, metales radioactivos, compuestos orgánicos y compuestos derivados del petróleo. Se reporta que algunas especies pertenecientes a las Asteraceas, toleran altos niveles de metales pesados en comparación con otros grupos taxonómicos y se les ha propuesto como especies fitorremediadoras. Helianthus annuus girasol pertenece a la familia de las Asteraceae , posee una facilidad de manejo en su cultivo, se adapta fácilmente a un amplio intervalo en la variación de temperatura. La época de la siembra es variable y depende de las características climatológicas de cada región. El girasol es reportado por su capacidad de acumular metales y responder con una alta biomasa radicular no obstante una baja tolerancia al cromo comparado con otras plantas acumuladoras.  



METODOLOGÍA

Para poder lograr nuestro objetivo de biorremediar zonas contaminadas tuvimos que hacer consideraciones y seguir una serie de pasos para que el desarrollo del proyecto fuera el óptimo, a continuación, en los siguientes puntos se establece el plan que seguimos a lo largo de nuestra estancia: ·         Muestreo de suelo con la que se trabajó. El material poroso tiene el fin de mantener la humedad apropiada para el crecimiento de la planta y de esta forma suministrar el oxígeno necesario, ya que la falta de oxígeno afecta el metabolismo del sistema radical y produce cierre de estomas . La selección de dicho material estuvo limitado a la disponibilidad de materiales en el laboratorio y a la conveniencia de utilizarlos en el sistema. El material seleccionado resultó ser el aserrín. ·         Preparación de la mezcla de suelo. Una vez obtenido el suelo que se usará para plantar el girasol, se limpió el suelo removiendo piedras, trozos de madera, raíces de plantas del lugar donde muestreamos la tierra, quitarle lombrices y otros animales que interfieran en el crecimiento del girasol, se mezcló teniendo como resultado 9 % de aserrín y el 91 % de tierra, esto con el propósito de retener la humedad. ·         Selección de la planta y germinación. Se seleccionó el girasol como planta a trabajar por su capacidad fitorremediadora que esta contiene además de que el tiempo de germinación de la planta es corto y los cuidados del girasol son relativamente sencillos. ·         Selección de un contaminante. Se eligió el azufre como contaminante debido a que el sitio de muestreo se encuentra en una zona que pertenece a los alrededores de los volcanes Iztaccíhuatl y Popocatépetl, y el azufre es un compuesto que se encuentra en cierta cantidad en la ceniza volcánica. Dicho contaminante fue seleccionado de acuerdo con la disponibilidad de reactivos en el laboratorio, así como la relación que este tiene con el campo de aplicación que se tiene. ·         Contaminación de la mezcla de suelo. se contaminó con azufre en diferentes concentraciones para su posterior análisis. Se decidió contaminar con concentraciones que van desde el 1 % hasta el 5 %, haciendo por triplicado cada concentración obteniendo quince macetas contaminadas con azufre. ·         Trasplante de los girasoles germinados al suelo contaminado. Una vez teniendo el girasol germinado (aproximadamente una semana después crecieron los tallos) se plantó en macetas con suelo ya contaminado y así iniciando el proceso de fitorremediación para su posterior análisis. ·         Cuidado de la planta por las siguientes cuatro semanas. Se mantuvieron las condiciones idóneas de humedad, temperatura y exposición solar para el adecuado crecimiento de la planta, además que se medía el pH y humedad dos veces por semana. El girasol es una planta que no necesita tanta agua para sobrevivir por lo que fue fácil su cuidado, en cuanto al pH necesita entre 7 y 7.5, logramos mantener el potencial de hidrógeno en ese rango. ·         Medición Cuantitativa de la degradación del contaminante en la tierra. Una vez pasadas las cuatro semanas se deberá medir el contenido de azufre en el suelo para conocer la cantidad que el girasol proceso.


CONCLUSIONES

La fitorremediación es una prometedora técnica que se puede usar para resolver diferentes problemas ambientales que incluyan dañinos contaminantes en los suelos. En este proyecto, mediante técnicas espectrofotométricas, se  determinará el nivel de degradación del azufre que tiene el girasol siendo seleccionada esta planta para su estudio gracias a las propiedades biorremediadoras que en la literatura se reporta.
Melano Romo Luz Adriana, Universidad de Guadalajara
Asesor: Dr. Lorena Leticia Garza Tovar, Universidad Autónoma de Nuevo León

MÉTODO PECHINI PARA SÍNTESIS DE NA2.5V0.5SI2O6 COMO CÁTODO EN BATERÍAS DE SODIO


MÉTODO PECHINI PARA SÍNTESIS DE NA2.5V0.5SI2O6 COMO CÁTODO EN BATERÍAS DE SODIO

Melano Romo Luz Adriana, Universidad de Guadalajara. Asesor: Dr. Lorena Leticia Garza Tovar, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La demanda de energía que se requiere actualmente es de grandes cantidades, por lo cual es necesario un cambio a la energía verde, que se obtiene por medio de paneles solares, energía eólica, entre otras, esto conlleva a la necesidad de desarrollar dispositivos de almacenamiento de energía y así mejorar la tecnología que se tiene actualmente para un desempeño mayor, de alta vida útil, a un menor costo y con materiales de fácil obtención. Hoy en día las baterías de litio han dominado el mercado de la electrónica portátil y no se detiene en eso, sino que también están impulsando los vehículos tanto eléctricos como híbridos. A diferencia del litio, el sodio es uno de los elementos más abundantes en la tierra, presenta propiedades químicas similares, es más reactivo, lo que indica que la química del sodio podría ser aplicada a un sistema de batería similar al que conocemos. Recientemente, el interés por investigar las baterías de sodio ha sido impulsado por su bajo costo y a las nuevas aplicaciones con requisitos diferentes a los aparatos, dichas baterías podrían proporcionar una alternativa a la química de las baterías de litio, incluso podrían llegar a ser igual de competitivas como estas en otros mercados. El método Pechini se ha investigado para preparar una amplia variedad de óxidos metálicos. Este método se inicia disolviendo primero óxidos o alcóxidos de elementos en un alcohol polihidroxilado como el etilenglicol, con un agente quelante, ácido cítrico, este método se lleva a cabo en disolución. En dicho proceso, la formación del gel sucede por una reacción de tansesterificación del ácido cítrico con el etilenglicol. La mayor problemática que existe es que por el momento se utilice más las baterías de Litio, pero por su alto costo, que sea un elemento tóxico y que sólo en algunas regiones lo puedan distribuir hace que en gran medida no se mejore la capacidad de la energía verde, por lo tanto, en este verano de investigación se pretende realizar síntesis de materiales con aplicaciones para baterías de sodio.



METODOLOGÍA

Para la síntesis de  se pesó la cantidad estequiométrica de los siguientes reactivos: Nitrato de Sodio (NaNO3, 99.73%), en 10 mL de agua; Metavanadato de Amonio (NH4VO3, 99.9%), en 10 mL de agua; TEOS (Sí(OC2H5)4, 98%), en 10 mL de etanol y  ácido cítrico (C6H10O7•2H2O, 100.1%, por acidimetría), en 10 mL de agua.  Este último en agitación magnética, en este proceso se deberá mantener a Temperatura de 50 ºC , se añadió cada solución poco a poco hasta disolverse, transcurrido 20 minutos en agitación continua se le añadió etilenglicol (CH2OHCH2OH, 99.97%) en la misma relación molar del TEOS, se mantiene por 20 minutos.  Finalizado el tiempo se midió el pH entre 8-9 agregando Hidróxido de Amonio (NH4OH, 30.16%), del cual fueron 41 gotas añadidas. La solución resultante se lleva a reflujo a una temperatura de 80 °C hasta la formación del gel. El gel se secará en una estufa a 100°C durante una hora para evaporar los solventes en el gel. El gel se introducirá a una estufa a 300 ºC por dos horas. Transcurrido este tiempo, se procede a pulverizar en un mortero de ágata y con el polvo se formarán pastillas en una prensa hidráulica, utilizando una presión de 4 toneladas por 1 minuto. En la base donde se pusieron las pastillas, llamada alumina, se hizo una cama de polvo debajo de las pastillas y encima de estas para evitar el contacto directo con el nitrógeno y si llegase a encontrar un poco de oxígeno. Finalmente, se realizarán tratamientos térmicos en atmósfera inerte de nitrógeno, para evitar presencia de oxígeno, esto en un horno tubular a 500 ºC durante 8 horas. Cumplido este tiempo de calcinación, se observó que el producto estaba fundido, se supuso que fue porque el sodio reaccionó con la alumina. El producto se pulverizó en el mortero para realizar análisis en rayos X y Raman, en donde se identificó que se formaron silicatos y en uno de estos probablemente se encontraba el Vanadio. Además, se analizó que había la probabilidad de que el  aún se encontraba presente y este probablemente había hecho que se fundiera en el horno. No se obtuvieron los resultados deseados, se puede utilizar el acetato de sodio en lugar del nitrato para así evitar el que se fundiera el producto en el horno tubular. Lo que se busca es que se forme una síntesis adecuada para el armado de una batería, para proceder a hacer pruebas en cuanto al rendimiento, los ciclos que tenga de vida y comparar con respecto a otras baterías de sodio.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de cómo sintetizar materiales por el método Pechini y así lograr un sol gel, así como el armado de una batería con todo el procedimiento debido y el cómo las baterías realizadas se puede determinar su ciclo de vida con un aparato electrónico. Debido al corto tiempo de estancia y los contratiempos que se presentaron en la síntesis, no se pudo realizar la batería del material seleccionado, pero se espera que la vida útil de esta sea de por lo menos 40 ciclos.
Meléndez López Anahi, Universidad Autónoma de Baja California
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Meléndez Trujillo Deidad Deina, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Mtro. Patricia Margarita Aguilar Alvarado, Instituto Tecnológico Superior de Cintalapa

BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTOBAL DE LAS CASAS, CHIAPAS


BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTOBAL DE LAS CASAS, CHIAPAS

Meléndez Trujillo Deidad Deina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Mtro. Patricia Margarita Aguilar Alvarado, Instituto Tecnológico Superior de Cintalapa



PLANTEAMIENTO DEL PROBLEMA

En San Cristóbal de las Casas, Chiapas se identificaron 7 socios del sector llantero los cuales se determinaron como los más competitivos de dicha ciudad, para realizar un estudio con el objetivo de conocer las prácticas de gestión de calidad y procesos   que cada uno realiza, además de los productos y marcas que manejan con el fin de establecer las estrategias que les ayudan a colocarse como los más competitivos en este sector.



METODOLOGÍA

El análisis bibliométrico inicia con la primera fase donde se realiza la técnica del estado del arte con criterios de selección de artículos centrando su temática en Benchmarking, negocio llantero, y metodología benchmarking esto plasmado en una matriz de revisión bibliográfica donde se podrá visualizar cada característica de la información encontrada en cada artículo y dando cumplimiento a la temática ya establecida en la investigación. Dentro de esta primera fase también se encuentra la caracterización de socios del benchmarking empresas llanteras de la ciudad de San Cristóbal de las casas, Chiapas, como criterio que cumplan con el mínimo de especificaciones como venta e instalación de llantas y otros servicios, sin tener en cuenta las microempresas, esto por medio de una entrevista estructurada dirigida al gerente de cada empresa. Después de lo anterior se procedió a agrupar la información de las llanteras y realizando una matriz donde se visualiza los servicios, productos, marcas de llantas y otros aspectos que manejan las mencionadas anteriormente. Posteriormente se define los indicadores de desempeño a evaluar para realizar comparación entre empresas y de acuerdo con los investigadores se establecerá los datos como nivel de confianza y margen de error, para definir el tamaño de la muestra con respecto a una población finita (Ec. 1) de la cual se realizará las prácticas necesarias para medir el nivel en que se encuentra cada empresa.               n=(z^2*p*q)/(d^2*(N-1)+Z^2*p*q) Ec(1) Para una segunda fase se estructura una serie de encuestas dirigidas a empleados y clientes para evaluar los indicadores a medir, y se aplica el cálculo de fidelidad de las encuestas; además de esto se realizar una identificación de las prácticas de gestión de calidad en cada una de ellas. Como tercera fase se realiza una serie de recomendaciones y mejoras para subir el nivel de competencia entre los socios del Benchmarking y mostrar las fallas actuales en la organización, con esto se establece el alcance de la investigación


CONCLUSIONES

Durante la estancia se logró poner en práctica los conocimientos del Benchmarking a los 7 socios de la industria llantera de la ciudad de San Cristóbal de las Casas. Obteniendo un promedio general de 80.17% , superando el mínimo esperado del 70%, reflejando este promedio en los indicadores de satisfacción del cliente, calidad del servicio, mejora del proceso, instalaciones y ubicación. Sin embargo, al ser un estudio que se hace un poco extenso de parte de los socios participantes y resistencia al cambio de estos mismos, se queda inconcluso en la fase 3 dando las respectivas recomendaciones para cada socio participante.
Melgar Chavez Brenda, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. David Morales Morales, Universidad Nacional Autónoma de México

ESTUDIO CATALíTICO DE NHC-RU(II) PARA LA N-ALQUILACIóN DE AMINAS AROMáTICAS CON ALCOHOL BENCíLICO.


ESTUDIO CATALíTICO DE NHC-RU(II) PARA LA N-ALQUILACIóN DE AMINAS AROMáTICAS CON ALCOHOL BENCíLICO.

Melgar Chavez Brenda, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. David Morales Morales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La síntesis de carbenos N-heterociclo (NHC) ha sido un tema de interés en los últimos años para el desarrollo de moléculas con actividad biológica y actividad catalítica. Por otro lado, la síntesis de compuestos de rutenio se ha ampliado a diversas áreas, al ser un metal que ha presentado actividad anticancerígena; además de ser usado como catalizador en varias reacciones. Al presentar estos puntos, se ha planeado desarrollar la síntesis de una serie de NHC-Ru(II) derivados de benzimidazol con sustituyentes de bencilo y bencilo fluorado. Con el fin de estudiar la actividad catalítica de estos compuestos en la síntesis de aminas secundarias a partir de anilina y alcoholes bencílicos.



METODOLOGÍA

-Síntesis de cloruro de [bis((perfluorofenil)metil)-benzimidazolid-2-eno](η6-p-cimeno)rutenio II () En un matraz bola se realiza una mezcla de la respectiva sal de azolio: bromuro de 1,3-bis((perfluorofenil)metil)-1H-benzimidazolio () (192.3 mg,0.344 mol) y  (40 mg, 0.172 mmol). Los sólidos son disueltos en 20 ml de dicloroetano. La reacción se deja 18 horas a temperatura ambiente. Pasando el tiempo de reacción se agrega rutenio p-cimeno (106 mg, 0.172 mmol) in situ y la reacción continua en las mismas condiciones por 16 horas. Transcurrido el tiempo de rección, la disolución es filtrada sobre celita, posteriormente la solución es concentrada por medio de presión reducida. El compuesto fue precipitado mediante mezcla de disolventes dicloroetano/hexano y filtrado al vacío, obteniendo un sólido marrón. -Síntesis de cloruro de [1,3-dibencil-benzimidazolid-2-eno](η6-p-cimeno)rutenio II ) En un matraz bola (previamente forrado con aluminio) se realiza una mezcla de sal de azolio Bromuro de 1,3-dibencil-1H-benzimidazolio () (130.4 mg, 0.344 mmol) y  (40 mg, 0.172 mmol) se disuelven 20 ml de dicloroetano. El tratamiento de la reacción es el mismo que el indicado para la obtener el compuesto R1Ru. Obteniendo un sólido anaranjado oscuro. -Síntesis de cloruro de [1-bencil-3((perfluorofenil)metil)-benzimidazolid-2-eno](η6-p-cimeno)rutenio II En un matraz bola (previamente forrado con aluminio) se realiza una mezcla de sal de azolio bromuro de 1-bencil-3((perfluorofenil)metil)-1H-benzimidazolio () (161.4 mg, 0.344 mmol) y Ag2O(40 mg, 0.172 mmol) se disuelven 20 ml de dicloroetano. El tratamiento de la reacción es el mismo que el indicado para la obtener el compuesto R1Ru. Obteniendo un sólido anaranjado oscuro. -Catálisis En un matraz Schlenk previamente purgado en atmosfera de nitrógeno se agrega el compuesto R2Ru (5 mg, 0.009 mmol), terbutoxido de potasio (1535.6 mg, 13.67 mmol), anilina (0.8314 ml, 9.1 mmol) y alcohol bencílico (3.5 ml, exceso de 127%). Se deja calentar (110 °C) a reflujo en atmosfera de nitrógeno. Cada hora se sacan alícuotas de 100 µl por 5 horas.


CONCLUSIONES

Se realizó el estudio de la cinética de la reacción, para la primera hora se obtuvo;  imina con un porcentaje de conversión del 35% y amina con un porcentaje de conversión del 15.95%, para la segunda hora se obtuvo; imina con un porcentaje de conversión del 16.78% y amina con un porcentaje de conversión del 59.87%, para la tercera hora se obtuvo; imina con un porcentaje de conversión del 3.72% y amina con un porcentaje de conversión del 93.54%, para la cuarta hora se obtuvo; imina con un porcentaje de conversión del 1.15% y amina con un porcentaje de conversión del 98.84% y para la quinta hora se consumió por completo la imina dando un porcentaje de conversión del 100% para la amina. En términos generales los resultados experimentales nos muestran que la cinética de esta reacción es muy favorable al realizarla en las condiciones establecidas debido a que resultó en una conversión del 97.70% con una selectividad del 100%. Podemos concluir que las proporciones de base utilizada en la catálisis tiene un efecto crucial en la reacción, esto se debe a la desprotonación del alcohol bencílico es importante en el paso de reacción para la formación del aldehído, el cual sufrirá un ataque nucleofílico por parte el nitrógeno al carbono carbonílico lo que propiciará la formación de la imina, la cual será reducida posteriormente a la amina secundaria correspondiente.
Melo Guerrero Karla Irene, Universidad Autónoma de Guerrero
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

DISEÑO DE UN BIOFILTRO PARA EL TRATAMIENTO DE AGUAS NEGRAS Y GRISES DE LA PENÍNSULA EN LA YUCATÁN USANDO MEMBRANAS DE CELULOSA A PARTIR DE SARGAZO


DISEÑO DE UN BIOFILTRO PARA EL TRATAMIENTO DE AGUAS NEGRAS Y GRISES DE LA PENÍNSULA EN LA YUCATÁN USANDO MEMBRANAS DE CELULOSA A PARTIR DE SARGAZO

Melo Guerrero Karla Irene, Universidad Autónoma de Guerrero. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El crecimiento de la población y el desarrollo industrial han multiplicado los problemas de contaminación del agua tanto de procedencia superficial como subterránea. La contaminación del agua es producida principalmente por vertimiento de aguas servidas, basura, relaves mineros y productos químicos. Para analizar esta problemática es necesario mencionar sus causas, entre ellas tenemos el gran número de habitantes, la mala ubicación geográfica de los pobladores, sumado a ello la falta de cultura y conocimientos ambientales, la cual da como resultado el mal uso del agua. En la actualidad la problemática de arribo desmedido de sargazo en playas de Yucatán representa un reto ante la sociedad mexicana, sumando a esto, las afecciones por la contaminación del agua procedente del mal manejo de residuos provenientes de comunidades rurales con falta de sistema de alcantarillado y drenaje, ejercen un daño ecológico cada vez mayor que de no atender de inmediato reflejará una crisis ambiental severa en este estado, así como en estados colindantes del caribe mexicano. El sargazo es un macroalga marina parda perteneciente al género Sargassum y componente importante de la flora marina de zonas tropicales y subtropicales. Este fenómeno se presenta por diversas causas, entre ellas, el aumento de los nutrientes en el mar, el cambio climático y las variaciones meteorológicas y oceanográficas. Los daños ambientales provocados por el recale de esta macroalga y su descomposición abarcan la playa y arrecifes, donde se generan gases tóxicos y modifica el pH del agua, forma además una marea café que a su vez reduce el paso de la luz solar causando mortalidad de fauna submarina y pastos marinos. En la investigación se tuvo como finalidad dar una alternativa de solución a la problemática mencionada, para demostrar que es posible la utilización de esta macroalga como materia prima biológica para el diseño de un biofiltro de uso doméstico, que mejore las condiciones organolépticas y sanitarias de las aguas negras y grises emitidas en la península de Yucatán que se almacenan con el tiempo en los mantos acuíferos profundos y superficiales de este lugar.



METODOLOGÍA

El trabajo fue realizado en el Laboratorio Biomateriales Aplicados del Centro de Física Aplicada y Tecnología Avanzada (CFATA) perteneciente a la Universidad Nacional Autónoma de México (UNAM) campus Juriquilla.La muestra de sargazo pelágico del género Sargassum fue otorgada por el laboratorio de biomateriales aplicados. El mismo era procedentes de la Península de Yucatán, se encontraba fresco, conservado en agua marina y arena; tal cual fue recolectado de la playa, sin ningún tratamiento químico. La muestra fue donada por parte de un grupo de colaboradores con la universidad. Posteriormente se tomó una muestra de 900g de sargazo hidratado con agua marina y fue sometido a un proceso de lavado; bajo condiciones de temperatura ambiente (14ºC), lavado únicamente con agua de grifo eliminando restos de suelo marino, coral, plásticos, moluscos y cualquier tipo de unidad biológica ajena a la macro alga. Seguido de este proceso, se extendió en papel reciclado y en una  charola metálica, la muestra previamente lavada, se colocó bajo el sol y al aire libre para el proceso de secado que duró 3 días. El peso final después de estos procesos fue de 745g. Se preparó una solución madre de 25 ml al 1% de azul de metileno .Continuamente se generaron 8 diluciones a partir de la solución madre a 200 ppm, 100 ppm, 80 ppm, 60 ppm, 60 ppm, 40 ppm, 20 ppm, 10 ppm, y 5 ppm aforadas a 5 ml cada una; se realizó una curva de calibración con las diluciones de azul de metileno. Fueron analizadas bajo espectrofotometría UV-WR  de marca MAPADA UV-1600 PC en un rango de 200 a 900 nm con intervalo de 1 en 1, colocando las muestras unitariamente; las lecturas fueron representadas en una PC dando los valores máximos  y mínimos de absorbancia. Con esto datos se realizó la curva de calibración con respecto a las muestras; en el eje de las Y se representa las absorbancias y en el eje de las X las diversas concentraciones de las diluciones. Se obtuvo un rango de lectura para el colorante (550-725 nm). Posterior a esto se montó el sistema de biofiltración utilizando 1 bomba sumergible de pecera marca Pawfly UL80, 150 g de sargazo, 2 tapones de corcho, 1 manguera flexible transparente y un recipiente plástico transparente de 2 litro de capacidad, membranas de celulosa; estas fueron otorgadas por personal que trabajó en el laboratorio de biomateriales aplicados., obtenidas bajo procesos de síntesis de celulosa. Se añadió 500ml de solución madre a una concentración de 200 ppm a este sistema de filtrado. Durante cada 15 minutos de la primera hora de haber encendido el sistema se tomaron alícuotas de 3 ml cada una y fueron analizadas en el espectrofotómetro, posteriormente cada 30 min y cada hora hasta culminar las 8 horas del tratamiento. Se repitió el proceso por 3 días bajo las mismas condiciones planteadas anteriormente, solo variando la cantidad de sargazo que se introdujo en el tubo refrigerante. Como segunda repetición del tratamiento se introdujo 250 g de la macroalga y finalmente 300 g.  El análisis de varianza y comparación de datos con la prueba de Tukey se realizó usando el programa Infostat (2018).


CONCLUSIONES

La utilización del sargazo como materia biológica en el biofiltro destacó por su capacidad de absorción y purificación del agua a través de las porosidades que morfológicamente presenta, así como sus componentes biológicos. Consecutivamente se mostró el aclaramiento de la solución de azul de metileno por unidad de tiempo medido, esto como simulación de aguas residuales, lo que cualitativamente demuestra el impacto positivo en el tratamiento de aguas residuales mezcladas con colorantes orgánicas. Se espera que esta investigación sea un parteaguas para próximas investigaciones que evalúen la viabilidad de la utilización de sargazo en diferentes áreas del conocimiento científico o la comparación de un biofiltro comercial y el sistema de biofiltración realizado en este trabajo.
Méndez González Aldo Sebastián, Instituto Tecnológico de Chilpancingo
Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)


SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)

Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango. Hernández Lara Raúl, Instituto Tecnológico Superior de Huauchinango. Méndez González Aldo Sebastián, Instituto Tecnológico de Chilpancingo. Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la tecnología ha avanzado a pasos agigantados, sin embargo, en las aulas de clases a nivel superior apenas se hace uso de ella, no más allá de emplearse en forma de una plataforma facilitadora para la comunicación y una herramienta de proyección de archivos de texto y audiovisuales. Siendo escasas o nulas las opciones de software enfocadas en un diseño o programa educativo especifico, en pos de mejorar la retención y reafirmación del conocimiento que adquiere el alumno. Se han realizado diversas investigaciones para la construcción de software educativo, especialmente para el área científica, siendo creados diferentes modelos de evaluación que permiten tener una guía para el desarrollo de este tipo de software. A pesar de ello, en el mercado existen muy pocas opciones donde el docente pueda discernir entre las aplicaciones que se adapten a sus necesidades y la de sus alumnos en el aula. Es por ello necesario el desarrollo de un software que funcione como una herramienta complementaria adaptada a los menesteres del aula, creando una relación tripartita entre el docente, el alumno y el equipo de desarrollo y diseño del software, implementando lo más reciente en la tecnología que el equipo pueda utilizar, para asegurar una experiencia de usuario y funcionalidad exitosa.



METODOLOGÍA

Para el diseño de las propuestas de las interfaces de usuario se utilizó la herramienta Balsamiq Mockup y el drag and drop de NetBeans, Al mismo tiempo que se hacia la selección de colores según las emociones, sensaciones y virtudes que cada uno de estos transmite, según lo que la autora Eva Heller describe en su libro Psicología del color. Después de haber seleccionado el diseño de interfaces y la paleta de colores para el programa, se siguio con la investigación en distintas fuentes para el contenido de las primeras cuatro unidades, con base a el temario del Tecnológico Nacional de México. También se creo ilustraciones propias para hacer más amena la lectura del alumno. Para la sección de evaluación del programa, se acudio a la escuela normal Profesor Fidel Meza y Sánchez, ubicada en la ciudad de Huauchinango, Puebla, donde maestros y estudiantes de la institución dieron su asesoria, dando sus opiniones acerca de nuestro proyecto. Aclarándonos que la mejor forma de evaluación que se podía utilizar era la evaluación formativa. Un asesor externo, docente del Instituto Tecnológico Superior de Huauchinango, nos guio para incluir la herramienta de evaluación con preguntas de opción múltiple y ejercicios teóricos acerca de cada unidad. Se continu con el desarrollo de applets para la parte interactiva del programa, inspirados por los temas que trata la materia, como: la resultante de fuerzas coplanares, la segunda ley de Newton, la óptica, la termodinámica, entre otros. Haciendo uso de las tecnologías disponibles para la graficación en 2D y 3D para el lenguaje de programación Java. Después se siguio con la migración del código, que ya se había avanzado anteriormente, al Modelo Vista Controlador, para lograr que el programa fuera escalable, modular y robusto. Para la creación de las vistas y para que estas se adaptasen a cualquier resolución de pantalla, se utilizó la librería MigLayout, siguiendo el prototipado del diseño elegido. Para cuando todo el código estaba unido, se comenzaron con las pruebas en busca de errores para luego corregirlos. Posteriormente se diseñó e implemento la página web oficial del proyecto, donde se describe de qué trata, sus objetivos y como funciona, además de mostrar una vista previa del programa. Se trabajó con el framework Laravel, para después montarlo en el hosting de Heruko en su versión gratuita. Para el diseño de la página, se optó por uno de tipo scrolling y responsivo utilizando el framefork Bootstrap.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos de las formas de diseño y desarrollo para un software interactivo con un enfoque educativo y ponerlos en práctica con las técnicas de la ingeniería de software, mas al ser un proyecto extenso, aún se encuentra en desarrollo y solo se ha acabado una versión alpha del mismo, lo que quiere decir que ya se puede probar el software, pero no contiene toda la funcionalidad que tiene contemplado el producto final.
Mendez Osorio Leoncio Nepthali, Universidad Autónoma de Tamaulipas
Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas

SISTEMA BASADO EN WEB SEMáNTICA PARA LA REPRESENTACIóN DE SITIOS DE INTERéS DE CIUDAD VICTORIA TAMAULIPAS.


SISTEMA BASADO EN WEB SEMáNTICA PARA LA REPRESENTACIóN DE SITIOS DE INTERéS DE CIUDAD VICTORIA TAMAULIPAS.

Mendez Osorio Leoncio Nepthali, Universidad Autónoma de Tamaulipas. Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la utilización de la Web Semántica no es muy utilizada a pesar del gran aporte que es y la versatilidad que contiene. Para aprovechar las características de la web Semántica se decido implementarla y crear una ontología con la cual se planea obtener y representar la información existente acerca del dominio de sitios de interés de ciudad Victoria Tamaulipas, la cual se podrá ser utilizada para analizar y compartir el conocimiento del dominio, además podrá ser reusada la base del conocimiento para facilitar la integración a póstumas investigaciones del dominio.



METODOLOGÍA

No hay una única forma de modelar un dominio, la mejor solución suele depender de las aplicación y extensiones previstas, los conceptos ontológicos deben ser cercanos a los objetos y a las relaciones del dominio de interés. Existen algunos criterios para el diseño por ejemplo debe ser:             - Intuitiva.             - Extensible.             - Mantenible.             - Debe ser un modelo de la realidad.   Pasos tomados en cuenta para la creación de la ontología. Dominio y alcance de la ontología. Utilización de ontologías existentes. Definir las clases. Definir los conceptos de las clases y su jerarquía. Definir las propiedades de las clases. Crear las instancias. Posteriormente la ontología será revisada para su evaluación por un experto en el dominio.


CONCLUSIONES

A manera de conclusión a través de la creación del dominio de sitios de Interés en Ciudad Victoria Tamaulipas, el cual fue creado utilizando el software protege, se pudo observar la gran importancia que representa la Web Semántica en una ontología de un dominio para su interpretación y utilidad. Una de las principales hipótesis acerca de los resultados es que efectivamente a través de la creación de una ontología se puede representar información y características de ciertos dominios tal es el caso de sitios de Interés de Ciudad victoria Tamaulipas.
Mendiola de Paz David Aarón, Universidad Politécnica de Tecámac
Asesor: Mtro. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac

SISTEMA PARA ANáLISIS DE TUTORíAS Y ASESORíAS ESPECIALES


SISTEMA PARA ANáLISIS DE TUTORíAS Y ASESORíAS ESPECIALES

Mendiola de Paz David Aarón, Universidad Politécnica de Tecámac. Asesor: Mtro. Ana Luisa Fonseca Reyes, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

La Universidad Politécnica de Tecámac cuenta con un sistema de información denominado SUIEUPT, el sistema cuenta con un apartado de Tutorías y Asesorías, las tutorías son registradas por el tutor asignado para ese cuatrimestre y las asesorías son registradas por cada uno de los profesores de asignatura que fueron elegidos para los horarios de cada grupo. El problema radica en que se presentan situaciones especiales tanto en tutorías como asesorías, en las cuales dichos registros deben ser realizados por otros profesores los cuales no fueron asignados como tutor y/o profesor de asignatura. De esta manera se presentan casos en los que el profesor por alguna circunstancia especial o incapacidad deja al grupo sin poder levantar una tutoría y asesoría o simplemente un alumno requiere una asesoría de algún tema con un docente que no es su asesor. También existen situaciones especiales en las que se requiere que el director de división o el encargado de acciones de acompañamiento sea la persona que puede realizar esta actividad. La mayor problemática que se presenta en la actualidad es que este tipo de necesidades se resuelven a través de papeleo que resulta tedioso y requiere mayor tiempo para su consulta y recaudación de la información.  



METODOLOGÍA

Para comenzar el proyecto fue necesario investigar el modelo cliente/servidor, en el mundo de TCP/IP las comunicaciones entre computadoras se rigen básicamente por lo que se llama modelo Cliente-Servidor, éste es un modelo que intenta proveer usabilidad, flexibilidad, interoperabilidad y escalabilidad en las comunicaciones. Derivado de esto fue necesario conocer el protocolo HTTP y TCP/IP, además de la librería HttpWebRequest para C#. Una vez adquirida la información de estos conceptos se procedió a utilizar el software adecuado para poder trabajar El software utilizado fue el siguiente: Visual Studio 2019 SQL Server ASP.Net Entity Framework Posteriormente comenzamos a utilizar Visual Studio 2019 donde se nos dio acceso al sistema de migración (servidor de la Universidad) y al sistema SUIEUPT (Sistema), dentro del sistema comenzamos a crear un formulario web con página maestra y de este modo iniciar con la introducción del módulo de asesoría especial y tutoría especial. Luego continuamos con el diseño de la interfaz de usuario necesaria para cubrir los requerimientos y los campos que llevaría el formulario haciendo uso de una librería dinámica de la institución y aplicando el conocimiento de Entity Framework para poder ver reflejado el modelo cliente/servidor. De esta forma se dio paso a la programación para la realización de las consultas que se necesitan para el llenado de las tablas. Una vez teniendo esto, se diseñaron las tablas para la base de datos relacional. Cumplido este paso nos dirigimos al programa de SQL Server para poder crear las tablas de la base de datos. Finalmente se iniciaron las pruebas pertinentes para poner en marcha el nuevo módulo dentro del sistema.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de programación y del modelo cliente/servidor para posteriormente ponerlos en práctica con el equipo de cómputo adecuado. De esta forma el sistema fue actualizado con módulos para resolver la problemática y satisfacer las necesidades administrativas de la institución permitiendo la generación de consultas e informes sobre las bases de datos de las tutorías y asesorías registradas.
Mendiola de Paz Joel Jonathan, Universidad Politécnica de Tecámac
Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac

SISTEMA AUTOMÁTICO DE SINCRONIZACIÓN DE SEMÁFOROS EN TIEMPO REAL VÍA GPRS.


SISTEMA AUTOMÁTICO DE SINCRONIZACIÓN DE SEMÁFOROS EN TIEMPO REAL VÍA GPRS.

Domínguez Ramírez Graciela Joseline, Universidad Politécnica de Tecámac. Mendiola de Paz Joel Jonathan, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Hoy en día con el crecimiento de las zonas urbanas y debido al gran uso de los automóviles es común encontrar tráfico en distintas zonas; un embotellamiento puede estar provocado por varios motivos, uno de ellos, es por un volumen muy alto de vehículos circulando al mismo tiempo, además el tráfico puede estar provocado por incidentes como averías de vehículos, accidentes, derramamientos de objetos en la calzada, lluvia, nevadas, desincronización de semáforos, etc. La congestión de tránsito ha ido en aumento en gran parte del mundo y todo indica que seguirá agravándose, constituyendo un peligro. La generación de estrés agudo es un consecuente del tráfico debido a que el llegar temprano a un cierto lugar es una exigencia hacia nosotros mismos y al estar mucho tiempo bajo este problema se genera en las personas estrés agudo episódico lo cual genera accidentes como choques o incluso peleas sin sentido alguno. Para comprender bien lo anterior, lo ejemplificaremos: A todos nos ha ocurrido en alguna ocasión que en una avenida donde la congestión vehicular es común haya más de un semáforo y si apenas lograste pasar uno, el siguiente no nos lo permite. A esto le llamamos desincronización, pues no existe un flujo correcto de los vehículos y una de las múltiples consecuencias que esto puede provocar es el problema ya mencionado anteriormente en conductores y provocar múltiples accidentes, debido a esto, nosotros iniciamos con el estudio y el desarrollo de este proyecto.



METODOLOGÍA

El método utilizado para la realización de nuestro proyecto fue el método de investigación inductivo ya que es un proceso utilizado para poder sacar conclusiones generales partiendo de hechos particulares, éste método se basa en la observación, el estudio y la experimentación de diversos sucesos reales para poder llegar a una conclusión que involucre a todos esos casos, la acumulación de datos que reafirmen nuestra postura es lo que hace al método inductivo.  La metodología que utilizaremos será el modelo de prototipos pues el desarrollo y prototipo de nuestro sistema debe ser construido en poco tiempo, usando los programas adecuados y no se debe utilizar muchos recursos; algunas de las etapas para su desarrollo serán las siguientes: Recolección y análisis de requisitos Modelado Construcción del Prototipo Desarrollo, evaluación del prototipo  Refinamiento  En el proyecto serán creadas dos aplicaciones móviles la primera recolectará datos de la ubicación de los usuarios sin violar ninguna norma de su privacidad, ya con los datos recolectados y entendiendo la longitud y latitud recibidas (La longitud es la distancia expresada en grados del meridiano de Greenwich 0°  a cualquier lugar de la superficie terrestre; la latitud se expresa en grados de cualquier lugar de la superficie terrestre al ecuador; la altitud es la distancia vertical de un lugar, medida a partir del nivel del mar.), en un servidor se aplicará un algoritmo de inteligencia Artificial para enviar a la segunda aplicación las instrucciones de qué semáforo y qué luz de este es la que debe encender para permitir un mayor flujo de vehículos y así lograr una correcta sincronización. Para el desarrollo de nuestro sistema necesitabamos de un alto conocimiento y análisis sobre el campo, por lo tanto los siguientes temas fueron fundamentales de comprender, entre otros: Funcionamiento de dispositivo GPRS Protocolo TCP Conceptos básicos de un GIS Funcionamiento de un GPS Protocolos de aplicación (en especial HTTP) Además, se hizo uso de la metodología de elementos  ya que consta de diversos elementos y comunicación. Como ya fue explicado se utilizó un esquema cliente/servidor, nuestro cliente sera nuestro primer elemento que estará trabajando como la aplicación que recolecta las ubicaciones y nuestro servidor es nuestro segundo elemento, el cual fue creado por nosotros mismos donde se procesan los datos para ser enviados a nuestro último elemento el cual será la aplicación que actuará como controlador de los semáforos.


CONCLUSIONES

En conclusión, la primera aplicación se encarga de la recolección de datos, la eficacia de la aplicación al momento de implementarse fue del 95% y las pruebas fueron hechas con 3 distintos dispositivos en tiempo real en nuestro trayecto. El servidor nos permitió de forma correcta manipular los datos obtenidos y con estos mismos se logró identificar los lugares con tráfico y así tambien dar las instrucciones necesarias a los semáforos. Con la segunda aplicación logramos la correcta comunicación con los semáforos mandandole las instruciones para su correcta sincronización. Con los resultados obtenidos podemos concluir que la implementación más extensa de este sistema ayudará al flujo correcto de vehículos en calles y avenidas demasiado concurridas.
Mendiola Luz Erica, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo

MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.


MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.

Mendiola Luz Erica, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Avila Kevin Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Quiroz Cruz Erika Rubi, Instituto Tecnológico Superior de Ciudad Hidalgo. Romero Verdugo Steve, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La calidad es uno de los pilares fundamenntales para toda empresa ya que esta deja una gran marca en el mercado a competir.



METODOLOGÍA

Durante nuestra estancia de investigación científica, se llevó a cabo lo siguiente: Se nos hizo una capacitación al equipo de trabajo Nos presentarnos como equipo de trabajo ante la empresa Se realizó un diagnóstico de inicio en toda la empresa. Ya obtenido el diagnostico se prosiguió a realizar un FODA de la empresa. Seguido de una encuesta de satisfacción. Identificar los 7 desperdicios. Diseñar propuesta de mejora. Implementación de la propuesta de mejora Y como final  Presentar la información de los resultados  ante la empresa.


CONCLUSIONES

En el resumen anterior se muestra lo que se llevó a cabo en la estancia del programa delfín. A lo largo de la estadía hemos realizado un diagnóstico en base a la matriz F.O.D.A y los siete desperdicios, gracias a esto logramos conocer la situación en la que se encontraba la organización para posteriormente analizar los resultados obtenidos y establecer propuestas de herramientas Lean y mercadológicas, complementando con capacitaciones a todos los colaboradores para así ayudar a mejorar la calidad y productividad dentro de la empresa desde el departamento de calidad en el que fuimos residentes. El haber tenido la oportunidad de trabajar con compañeros de diferentes semestres, pertenecientes a la carrera de ingeniería industrial nos ayudó a conocer más herramientas de mejora continua, así como llevarlas a cabo en un ambiente laboral y no solo conocerlas de manera teórica.   Este verano científico nos deja una gran experiencia de aprendizaje al forjar nuestros conocimientos institucionales. Agradecemos el haber participado pues nos dio visión como futuros ingenieros.
Mendoza Calderón Katia Valeria, Instituto Tecnológico Superior Purépecha
Asesor: Dr. Georgina Carbajal de la Torre, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO Y DISEñO DE ANDAMIOS PARA USO EN INGENIERíA TISULAR óSEA


DESARROLLO Y DISEñO DE ANDAMIOS PARA USO EN INGENIERíA TISULAR óSEA

Mendoza Calderón Katia Valeria, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Georgina Carbajal de la Torre, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Los defectos de tamaño crítico generados por traumas o enfermedades en tejidos blandos o duros son muy difíciles de reparar por medio de crecimiento natural de tejido e imposibilitan al paciente para la realización de sus actividades cotidianas, esto ha generado en el ámbito científico una búsqueda de nuevas técnicas y nuevos materiales que ayuden al paciente a su recuperación de una manera rápida y cómoda. En esta búsqueda se pretende la interacción de materiales compuestos con las células, factores de crecimiento y moléculas adecuadas que podrían promover la regeneración de nuevo tejido, que es el principio básico de la ingenería de tejidos. En este sentido, los materiales compuestos polímero-cerámico han ganado considerable atención por sus inherentes propiedades mecánicas debido a la combinación de la flexibilidad del material polimérico y la dureza y biocompatibilidad del material cerámico.



METODOLOGÍA

Los polímeros biodegradables en combinación con cerámicos tienen la finalidad de obtener materiales con morfologías diferentes con macro estructuras buscando optimizar sus propiedades y desarrollar materiales que estimulen respuestas celulares específicas a nivel molecular mediante la combinación de la bioactividad y la bioabsorbabilidad de forma controlada. En este proyecto se realizó la síntesis de hidroxiapatita por el método de coprecipitación, el cual consiste en preparar una solución 1M de hidróxido de amonio (), seguido de esto se prepara una solución a partir de de nitrato de calcio tetrahidratado (Ca(NO3)2.4H2O) en agua destilada, se elabora otra solución de fosfato ácido de amonio ( en  agua destilada; se agrega la solución de nitrato de calcio tetrahidratado a un vaso de precipitados con una temperatura de 60°C mientras que la solución de fosfato ácido de amonio se agrega mediante una bureta de goteo con 30 gotas por minuto, el pH de esta solución se debe mantener entre 8.5 y 9 mediante la adición de la solución de hidróxido de amonio que se preparó anteriormente. Una vez que se diluyó la solución es necesario filtrarla con la ayuda de papel filtro y un embudo, mientras se lava con agua caliente dentro del mismo embudo y se seca a 60°C por 24 horas en un horno mufla. Ya que se secó la muestra se muele con un mortero para obtener un polvo muy fino y se tamizó a un tamaño de 35. Seguido de esto se realizó la síntesis del ácido poliláctico, en cual se hizo una conjugación de dos protocolos debido a que tenían ciertos pasos innecesarios, para esto se agregó octato de estaño al ácido láctico, agitando en vacío durante 6 horas, una vez pasadas las seis horas se lavó con acetona y seguido de esto se vertió a un vaso de precipitado con agua destilada, por último se filtra, se deja en reposo durante 24 horas a 30°C y se le da un tratamiento térmico hasta llegar a 180°C subiendo 10 °C cada media hora la temperatura. El siguiente paso ha sido la realización de los andamios de HAp-PLA-PCL con una concentración específica, por la técnica de solvent casting y lixiviado, se agregaron los tres compuestos pesados cada uno por separado en la concentración deseada; una vez pesados se agregaron a un vaso de precipitados mientras se le añadió un disolvente orgánico (en este caso cloroformo) con 90 ml durante una hora. Seguido de esto se le añadió el agente porógeno, cloruro de sodio, y se revolvió hasta espesar. Se preparan los andamios vertiendo la pasta obtenida en moldes y dejando secar por 24 horas y posteriormente se lavan para quitar el cloruro de sodio que haya quedado, se llevan a secado por 2 días y están listos para iniciar la prueba de proliferación celular.


CONCLUSIONES

Dentro de la estancia de verano de investigación, estuve realizando un proyecto en el cual se desarrolló la síntesis de hidroxiapatita por el método de coprecipitación, la síntesis se realizó por este método porque al ver la propiedades que se obtienen por el método de sol-gel se logra apreciar que este contiene menos químicos que son dañinos para el cuerpo y como se aplica para regeneración ósea es necesario que sea totalmente biocompatible con cada una de las células; así como el desarrollo de la síntesis del ácido poliláctico, el cual su proceso es tardado, pero se tiene la ventaja de ser sintetizado en el laboratorio y obtener el polímero láctico con los parámetros requeridos, mientras que en la síntesis de la hidroxiapatita el tiempo es menor y más sencillo. El objetivo principal fue obtener andamios del compuesto de dos polímeros-hidroxiapatita, para su posterior evaluación en células osteoblásticas Saos2. Esta parte queda pendiente para continuar después el trabajo.
Mendoza Garcia Jesus Roberto, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México

APRENDIZAJE MAQUINAL PARA PROCESAMIENTO DE IMáGENES MéDICAS


APRENDIZAJE MAQUINAL PARA PROCESAMIENTO DE IMáGENES MéDICAS

Mendoza Garcia Jesus Roberto, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Una de las problemáticas que presenta el procesamiento de imágenes médicas es la dificultad que existe a la hora de generar información válida para ser procesada, pues poseen gran cantidad de ruido y una enorme variabilidad en sus propiedades. En el presente proyecto se realiza una fase de extracción de puntos por medio de algoritmos tales como SHIF, HARRIS, BRISK, KAZE y SURF, ambas realizados en el software de Matlab. Cada uno cuenta con distintas finalidades entre ellas está la precisión y delineación de diversas formas y la detección de los puntos más característicos en la imagen médica, las cuales ayudaran a reducir errores en la segmentación y en la localización.



METODOLOGÍA

El proyecto consiste en una clase de procesamiento de señales que puede tomar imágenes o fotogramas de vídeo y someterlos a un procesado de perfil bajo con el fin de extraer determinadas características o parámetros, o bien para elaborar nuevas imágenes procesadas como material de salida por medio de diferentes algoritmos tales como SHIFT, HARRIS, BRISK, SURF, KAZE, MESER en donde después teniendo los puntos más sobresalientes aplicarle flujo óptico a la imagen o a los fotogramas de un video. Gabor es un filtro que esta sintonizado a diferentes frecuencias y orientaciones., si le asignamos una determinada frecuencia y dirección obtenemos una reducción del ruido a la vez de preservar una dirección de la imagen original, este filtro se aplicó a diferentes imágenes médicas, mediante el software Matlab. El conjunto de frecuencias y orientaciones está diseñado para localizar subconjuntos de información de frecuencia y orientación por medio de extracción de características de la magnitud y fase mediante el software Matlab.


CONCLUSIONES

La extracción de puntos más característicos hace posible la reducción de la dimensionalidad de una imagen mediante la transformación de los datos de entrada en un conjunto de rasgos que representan las características esenciales de la imagen. Este filtro es aplicable en imágenes médicas, ya que debemos tomar en cuenta que las imágenes a estudiar presentarán localmente una orientación y frecuencia definidas.
Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES


SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES

Macuixtle Malpica Jesús Concepción, Benemérita Universidad Autónoma de Puebla. Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla. Rojas Baez Rosario Jessica, Instituto Tecnológico de Toluca. Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, el sector textil ocupa el séptimo lugar entre las industrias que originan mayores volúmenes de aguas residuales, los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, sólidos suspendidos y sales disueltas, debido a que los colorantes presentan una compleja estructura química los métodos actuales empleados para el tratamiento de efluentes textiles resultan poco eficientes para su degradación.  El dióxido de titanio (TiO2) es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción directa o indirecta de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm, una fracción por debajo de la radiación solar. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles.



METODOLOGÍA

  a. Síntesis del fotocatalizador TiO2-Au por el método de combustión. Para sintetizar el fotocatalizador se utilizó TiO2 grado analítico y TiO2 Degussa P25. El procedimiento seguido es el mismo para ambos reactivos. Utilizando una balanza analítica se pesa 0.4427 g de TiO2, 0.0070 g de Trihidróxido de Oro [Au(OH)3] y 0.9999 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar la mezcla, la solución se calentó en una parrilla eléctrica a una temperatura de 60°C con el objetivo de evaporar la mayor cantidad de agua. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 4 g de cada fotocatalizador.  b. Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó ácido clorhídrico (HCl), en el caso de pH 3, e hidróxido de potasio (KOH) para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1000 g de fotocatalizador TiO2-Au (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de cuatro horas, tomando cuatro alícuotas con intervalos de una hora. El anterior procedimiento se repitió para el fotocatalizador de TiO2-Au (sintetizado con TiO2 Degussa P25).


CONCLUSIONES

a. Degradación de RM utilizando TiO2-Au sintetizado con TiO2 Degussa P25 Para una solución de RM de 10 ppm con pH 3 se registró una concentración de 8.38 ppm transcurrida la primera hora de reacción, en la segunda hora se obtiene una concentración de 6.82 ppm mientras que en la tercera hora se logró reducir a 6.29 ppm. Para la solución de RM de 20 ppm con pH 3 se registró una concentración de 9.76 ppm transcurrida la primera hora de reacción, mientras que para la segunda y tercer hora se obtiene una concentración de 7.68 y 5.71 ppm respectivamente. En la solución de RM de 30 ppm con pH 3 se obtuvo una concentración de 16.81 ppm pasada la primera hora, en tanto que en la segunda y tercer hora de reacción se registró una concentración de 12.32 y 10.24 ppm respectivamente. La máxima absorción de RM en soluciones ácidas se obtiene hasta la tercera hora de reacción. b. Degradación de AM utilizando TiO2-Au sintetizado con TiO2 grado analítico Se concluyó que a 10 ppm se presentó un mejor resultado en los porcentajes de degradación, debido a que el agua se encuentra menos coloreada lo que facilita el paso de luz a través de la solución activando el fotocatalizador de manera más efectiva en tan solo una hora. Las degradaciones observadas fueron de 35.5%, 39.8% y 38.81% a los pH de 3, 7 y 11, respectivamente. En soluciones a 20 ppm y 30 ppm a pH 3 el rendimiento en la degradación fue bajo debido a que el mayor porcentaje alcanzado de degradación fue de 9.53%. En caso contrario, a 20 ppm para el pH de 7 y 11 la degradación continuó hasta 36.5% y 56.5% de degradación. En soluciones a concentración de 30 ppm los mejores resultados fueron a pH 7 y 11 durante la segunda hora de reacción, llegando un máximo de degradación de 31.43% y 30.25% respectivamente.  c. Degradación de NM utilizando TiO2 -Au sintetizado con TiO2 Degussa P25 Se obtuvo que para el pH 3 durante la primera hora a 10 ppm disminuyó un 20 %, un 20.9 % y 21.81 % para la segunda y tercera hora, respectivamente; en la cuarta hora la absorción disminuye a un 18.18 %, esto debido a la liberación del colorante absorbido por el fotocatalizador. En el caso de la solución a 30 ppm del NM a pH 3 se registraron los siguientes resultados; en la primera hora dentro del sistema disminuyó un 12.28 %, mientras que en la segunda hora disminuyó un alto 36.84 % siendo éste de los valores más elevados, en la tercera y cuarta hora disminuyó un 8.77 % y 5.26 %, respectivamente, lo que nos indica el mismo fenómeno de la concentración anterior. d. Degradación de NM utilizando TiO2-Au sintetizando TiO2 grado analítico La degradación de la soluciones de NM con las diferentes concentraciones y pH utilizando TiO2-Au sintetizado con TiO2 grado analítico ha dado resultado favorables para soluciones ácidas. En la solución de 10 ppm con pH 3 se obtiene una concentración de 8.27 ppm en la primera hora de degradación, una 8.47 ppm para la segunda hora, 8.64 ppm en la tercera hora y 7.88 ppm en la última hora. En el caso de la solución a 30 ppm con pH 3 se registró que, en la primera hora se tiene la concentración de 29.34 ppm, en la segunda hora 28.51 ppm, en la tercera hora 29.02 ppm y en la última hora se obtiene 29.67 ppm.
Mendoza Loza Luis Clemente, Universidad Autónoma de Guerrero
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

MONITOREO DE CALOR ÚTIL ENTREGADO POR UN DISPOSITIVO CALENTADOR DE AIRE A BASE DE ENERGÍA SOLAR


MONITOREO DE CALOR ÚTIL ENTREGADO POR UN DISPOSITIVO CALENTADOR DE AIRE A BASE DE ENERGÍA SOLAR

Mendoza Loza Luis Clemente, Universidad Autónoma de Guerrero. Olvera Hernández Juan de Dios, Instituto Tecnológico de Pachuca. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La energía que se utiliza para la realización de tareas normalmente proviene de fuentes energéticas no renovables como gas, combustibles fósiles y carbón. Las emisiones que generan estos equipos contribuyen al deterioro del medio ambiente. La disminución del uso de estos combustibles es de alta prioridad para la humanidad. La energía solar es una energía limpia y prácticamente ilimitada ya que cada segundo el sol envía cantidades inmensas de radiación al espacio, permitiendo que sean captadas por el planeta y al no tener contaminantes consecuentes puede ser aprovechada en su totalidad. Es por eso que el propósito de este proyecto fue aprovechar la radiación solar que el municipio de Hermosillo, Sonora recibe para generar calor y utilizarlo para satisfacer las necesidades térmicas de un baño sauna.



METODOLOGÍA

El estudio realizado fue de tipo cuantitativo experimental y se dividió en cuatro etapas: En la primera etapa, fue necesario hacer un análisis teórico para determinar la cantidad de calor necesario para satisfacer los requerimientos térmicos del cuarto sauna. En la segunda etapa se realizó la fase de experimentación con la finalidad de medir el calor entregado a una habitación a escala que simula un baño sauna.  En la tercera etapa se analizaron los datos obtenidos por la fase experimental y se compararon con los datos obtenidos en la fase teórica de este estudio.  Por último, se obtuvo información cualitativa y cuantitativa acerca de las características termodinámicas del calentador solar y su adecuación con las demandas de calor de la industria nacional.


CONCLUSIONES

Una vez recopilada toda la información que arrojaron los sensores del dispositivo autosustentable a lo largo de las semanas de trabajo e igualmente de revisarla y compararla con la información que se obtuvo de un sistema de calefacción convencional de un baño sauna se ha llegado a la conclusión de que se puede obtener beneficios de este sistema si se utiliza en conjunto con un dispositivo convencional de generación de calor. Las principales razones son: Las pruebas demostraron que se mejora el rendimiento cuando funciona el sistema hibrido. Depender de un sistema autosustentable eleva bastante el costo de fabricación.
Mendoza Muñoz Valery Raquel Aylin, Instituto Politécnico Nacional
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN DE INFRAESTRUCTURAS DE CONCRETO REFORZADO


CORROSIóN DE INFRAESTRUCTURAS DE CONCRETO REFORZADO

Mendoza Muñoz Valery Raquel Aylin, Instituto Politécnico Nacional. Quijano Gallegos Efrén, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto reforzado con varillas de acero es uno de los materiales de construcción más ampliamente usados, sin embargo, las estructuras que los emplean tienen el inconveniente de ser susceptibles a la corrosión. El problema del deterioro de las estructuras de concreto debido a procesos de corrosión es serio y de implicaciones económicas mayores. La habilidad para evaluar la corrosión de las varillas de refuerzo en estructuras y poder estimar la vida en servicio remanente es tema de estudios en el ámbito mundial. No obstante, los grandes avances tecnológicos mundiales, el problema de la corrosión sigue sin ser entendido completamente, debido principalmente a la complejidad del proceso. Para tratar de establecer las bases que rigen el fenómeno de la corrosión, se presentan temas elementales que permitirán al lector comprender las bases del fenómeno.



METODOLOGÍA

A continuación, se describe la metodología experimental de la caracterización de los materiales requeridos, el diseño y fabricación de los especímenes, finalizando con dos pruebas electroquímicas (impedancia y corrosión en circuito abierto). El procedimiento se explica a continuación: Diseño y preparación de probetas Se elaboraron 12 probetas cilíndricas de concreto con una varilla de acero de refuerzo de 3/8’’ al centro. Fueron utilizados moldes de acero convencionales de 3 pulgadas de diámetro por 6 de altura. La proporción del mortero fue 1:2:3 de agua:cemento:arena. Materiales utilizados Los materiales utilizados para la fabricación de los especímenes de concreto fueron: cemento portland Maya, arena de mar como agregado fino, agua de la toma municipal y bagazo de caña. Todos los materiales son característicos de la región. Agregados Pétreos Los agregados fueron seleccionados bajo cumplimiento de las Normas Mexicanas vigentes. Se agregó bagazo de caña, así como arena de mar como agregado fino. Dicho material se obtuvo de bancos cercanos. Cemento El cemento utilizado para la fabricación de especímenes fue cemento Portland Compuesto de Resistencia Rápida (CPC 30R), con un peso específico de 3,150 kg/m3. Agua Este importante elemento fue tomado del sistema de agua potable de la Red de Abastecimiento del Centro de Investigación (CICORR) del campus 6 de la Universidad Autónoma de Campeche. Preparación de los moldes de acero Los moldes se limpiaron previamente en sus caras internas para evitar la contaminación del concreto con sustancias que pudieran afectar su composición y poder además lograr un acabado libre de imperfecciones. Se colocaron en una superficie plana libre de vibraciones con la separación adecuada entre ellos para facilitar el proceso de colado y evitar que los especímenes sufrieran alteraciones durante el fraguado. Fabricación de la mezcla Las mezclas se fabricaron de forma manual con ayuda del personal del laboratorio de concreto de CICORR. Todos los materiales utilizados para la fabricación de las mezclas fueron previamente pesados o cubicados en su caso y almacenados en costales o cubetas para facilitar su manipulación. Colado de especímenes El concreto después de mezclarlo fue manipulado con ayuda de una cuchara metálica para homogeneizar la mezcla. Una vez terminada esta operación se procedió a llenar los moldes de acero con el cucharon. Cada molde cilíndrico se elaboró en tres capas de acuerdo con la Norma NMX-C-159-ONNCCE-2004 (Industria de la construcción - Concreto - Elaboración y curado de especímenes en el laboratorio). (ONNCCE, NMX-C-159-ONNCCE-2004, 2004) Una vez que se obtuvo la muestra de concreto fresco con base a la Norma NMX-C-161-ONNCCE-1997 (Industria de la Construcción-Concreto Fresco-Muestreo), la prueba se realizó de la siguiente forma (ONNCCE, NMX-C-161-ONNCCE-1997, 1997). Una vez elaboradas las vigas cilíndricas, se procedió a desmoldar a las 24 horas, y se sometieron a curado por inmersión con una solución saturada de Ca(OH)2 durante 28 días. Durante este tiempo se realizaron pruebas electroquímicas de impedancia y corrosión en circuito abierto, corridas las pruebas bajo ciertos parámetros. La prueba de impedancia se corrió a 100000 Hz de frecuencia inicial y se terminó en 0.01Hz, con una amplitud de 10 Mv RMS. Mientras que la prueba de corrosión en circuito abierto se efectuó un punto por segundo, con una duración 300 segundos cada prueba.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la corrosión en infraestructura de concreto reforzado y ponerlos en práctica con la fabricación de especímenes de concreto combinado con bagazo de caña, sin embargo, al requerir la etapa de curado un tiempo específico de 28 días es necesario que los especímenes permanezcan así con la finalidad de que ocurran todas las reacciones químicas posibles para que el concreto alcance la mayoría de sus propiedades. Se espera que la adición de bagazo de caña ayude a reducir la cantidad de cemento que se utiliza de forma tradicional; sin embargo, al ser un elemento orgánico tiende a degradarse mucho más rápido que el cemento y además mecánicamente disminuye la resistencia a la compresión, aunque dicha diferencia no tendría grandes repercusiones si la construcción no requiere de una gran resistencia a la compresión y por ende se podría utilizar en obras más simples como la de hogares pequeños.
Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
Mendoza Valencia Alejandro, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)

SMART HOME FITNESS FOR PEOPLE WITH DISABILITY / CASAS INTELIGENTES PARA PERSONAS CON DISCAPACIDAD


SMART HOME FITNESS FOR PEOPLE WITH DISABILITY / CASAS INTELIGENTES PARA PERSONAS CON DISCAPACIDAD

Ayala Castillo Gerardo Rafael, Instituto Tecnológico Superior de Uruapan. Mendoza Valencia Alejandro, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con el incremento de la tendencia de conectar todos los dispositivos y a todas las personas nace la necesidad de conocer lo que es el Internet de las Cosas (IoT) y las ventajas que esto tiene, de manera que gracias al IoT se pueden utilizar una colección de objetos físicos, softwares, sensores y accionadores, de manera que se puedan comunicar entre sí y realizar distintas tareas. Esto orientando a la creación de hogares inteligentes para personas con discapacidades visuales llegará a ser un impulso para la calidad de vida de estas personas, ya que podrán llegar a tener menos limitaciones para realizar sus tareas diarias, un poco más específico a mejorar su estado físico.



METODOLOGÍA

Generalizamos el concepto de Internet de las Cosas (IoT) como una colección de objetos físicos, softwares, sensores y conectividad de red, la cual habilita éstos objetos a reunir e intercambiar datos remotos para la interacción entre el mundo físico y cibernético.  Las soluciones basadas en el Internet de las Cosas han sido introducidas para varias áreas de aplicaciones, así como la de casas inteligentes, administración de agua, seguridad, control industrial, etc., y así mismo, este juega un rol bastante importante en cuanto al cuidado de la salud, ya que genera libertad y seguridad tanto a los pacientes  como a los doctores y cuidadores para facilitar el monitoreo y chequeo de la salud.  El Internet de las Cosas se refiere a un ecosistema en el que las aplicaciones y los servicios se basan en datos recopilados de dispositivos que detectan e interactúan en el mundo físico. Hoy en día existe una variedad de dispositivos conectados ya que están en constante expansión y abarca desde artículos que ofrecen una mayor conveniencia y estilos de vida mejorados, como asistentes activados por voz, dispositivos de control de salud, etc. Así mismo, podemos señalar que una casa es inteligente cuando facilita y agiliza ciertas tareas domésticas a través de la tecnología, lo que nos brinda un incremento en nuestra seguridad, optimizan nuestro tiempo y son amigables con el medio ambiente porque cuentan con un diseño sustentable que permite el ahorro de energía.   Principalmente, el sistema de una Smart Home se compone de dispositivos que conectados a Internet, permiten activar, monitorear y desactivar múltiples funciones. Controlador. Este dispositivo permite la conexión de todos los equipos inteligentes instalados. Con un controlador podrás gestionar hasta 220 dispositivos de toda tu casa, desde tu teléfono móvil. Cámara de seguridad. Es ideal para monitorear y escuchar lo que ocurre en tus espacios. También puedes activar su visión infrarroja integrada, para observar en la oscuridad e iniciar grabaciones con el sensor de movimiento. Sensor. Incluye en tu casa inteligente sensores que te permitan monitorear movimiento, temperatura y humedad. Sirena. Si lo que quieres es reforzar la seguridad de tu hogar o empresa, debes tener presente este dispositivo. Las sirenas se caracterizan por generar alertas sonoras de hasta 106 dB. Interruptores táctiles inteligentes. Tu casa puede lucir más elegante y moderna con uno de estos interruptores que puedes activar con solo deslizar la yema de los dedos; o si lo prefieres, programar el encendido o apagado de la luz de cualquier espacio de tu vivienda, desde tu celular. Termostato inteligente. Este dispositivo te permite controlar el aire acondicionado (temperatura, encendido y apagado). También te permite conocer la temperatura actual del medio ambiente. Cerradura inteligente. Con este dispositivo podrás olvidar las llaves ya que te permite controlar el ingreso a tu casa desde cualquier lugar, usando tu teléfono móvil. Esta cerradura de seguridad puede ser instalada en una puerta estándar, cuenta con un sistema de cierre rápido y una alarma anti-vandalismo. Plugin. Si deseas controlar la energía que gastas con tus equipos electrónicos debes incluir plugins en tu casa inteligente. Con solo conectar estos dispositivos, puedes hacer que tus tomacorrientes se conviertan en inteligentes, para encender y apagar desde tu tableta o celular, los dispositivos que allí se encuentren conectados. Bombillo Led. Crea ambientes con el tono de luz perfecto, dependiendo de la hora del día o de la noche. Las bombillas led te permiten ajustar la luz de tus espacios, crear escenas de encendido y apagado, e iluminación de alerta. Timbre inalámbrico. El timbre inalámbrico te permite ajustar melodías y volumen de tu puerta para recibir con sonidos agradables a tus visitantes.


CONCLUSIONES

A medida que avanza el tiempo, la humanidad va cubriendo poco a poco sus necesidades; hoy en día el uso de tecnologías de Internet se ha vuelto en mayor parte algo esencial para el ser humano, ya que estas brindan una gran cantidad de facilidad y agilidad a tareas que previamente eran consideradas como complicadas, añadido a esto, las tecnologías existentes se pueden utilizar en aplicaciones para mejorar la calidad de vida de personas con discapacidades, como en este caso lo son las discapacidades visuales, de manera que se pueden disminuir las limitantes de ellos para tener una mejor calidad de vida.
Mendoza Vidales Héctor, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo

DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.


DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.

Castañeda Tajimaroa Juan Pablo, Instituto Tecnológico Superior de Uruapan. Mendoza Vidales Héctor, Instituto Tecnológico Superior de Uruapan. Torán Sánchez José Luis, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Existen diversos tipos de materiales para construcción, en la mayoría de los casos el material que proporciona sus principales propiedades es el cemento, el cual en su fabricación genera grandes emisiones de CO2, por esta razón se busca realizar sustituciones parciales de cemento por otros materiales naturales que produzcan un resultado similar a una mezcla cotidiana, sin afectar la resistencia y durabilidad de los morteros y concretos, o incluso mejorar las propiedades de los materiales. Con las sustituciones que se realizaron, se buscó mejorar las características y reducir la porosidad de las mezclas. Esta propiedad tiene efectos muy notables en dos de los factores más importantes de nuestra mezcla: la resistencia a la compresión y la durabilidad. A mayor cantidad de vacíos presentes, será mayor la vulnerabilidad de la mezcla a ser atacado por agentes externos, los cuales pueden ser muy agresivos y generar reacciones químicas que lo vayan deteriorando con el tiempo.



METODOLOGÍA

Los especímenes que se están tratando son de mortero base cemento con sustitución de mucílago y fueron elaborados en el mes de octubre del año 2015. Al día de hoy se están realizando diversas pruebas a estos especímenes (considerando que tienen 45 meses de edad). El mucílago es una sustancia viscosa contenida en algunos vegetales como el nopal; para el desarrollo de esta investigación se realizaron dos muestras de mucílago (MN 1:2, MN 1:3), MN es mucílago de nopal. La primera se fabricó hirviendo 1 kg de nopal y 2 L de agua, la segunda, con 1 kg de nopal y 3 L de agua. Se diseñaron tres mezclas de acuerdo a la norma NMX - C - 061 - ONNCCE 2010. A continuación, se presentan las proporciones con las cuales fueron elaboradas las mezclas; 1.- Testigo: 1 Kg de cemento, 2.75 kg de arena y 0.68 L de agua. 2.- MN 1-2:  1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.01 Kg de aditivo-Crisotran R-5 y 0.34 Kg de nopal. 3.- MN 1-3: 1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.003 Kg de aditivo-Crisotran R-5 y 0.23 Kg de nopal. El cemento con el que se fabricaron las mezclas fue CPC 30R RS y la especie del nopal es opuntia ficus - indica. Las mezclas se colaron en los moldes y fueron desmoldados cumplidas las 24 horas. Fueron curados por inmersión hasta la edad de prueba. Los especímenes fueron sometidos a pruebas de resistividad eléctrica y la velocidad de pulso ultrasónico, que arrojan información acerca del grado de porosidad interna del mortero. El procedimiento anterior fue utilizado tanto para la prueba de porosidad total como para la prueba de porosidad efectiva. Las pruebas de porosidad total y porosidad efectiva no podrán ser expresadas con resultados, debido a que actualmente los especímenes se encuentran en el horno, y se analizarán una vez que se obtenga masa seca constante, esto es, cuando la diferencia de masas en porcentaje no es mayor al 0.1%. PRUEBA DE POROSIDAD TOTAL. Para la realización de esta prueba se seguirá el procedimiento que dicta la RED DURAR. Se tomará la masa húmeda (Wsaturado), posteriormente se determinarán sus volúmenes con un picnómetro y una probeta graduada, luego se obtiene la masa sumergida (Wsumergido) utilizando una balanza hidrostática con canastilla. Finalmente, se colocarán los especímenes en el horno a 50°C hasta masa seca constante, para obtener su masa seca (W50° o Wseco). Luego de obtener estos datos se aplicará la siguiente formula: % Porosidad total = ((𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 − 𝑾𝒔𝒆𝒄𝒐) / (𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 −𝑾𝒔𝒖𝒎𝒆𝒓𝒈𝒊𝒅𝒐)) ×𝟏𝟎𝟎 PRUEBA DE POROSIDAD EFECTIVA. Consiste en determinar la absorción capilar que posee el mortero. Actualmente los especímenes se encuentran en el horno a 50°C, y serán retirados hasta obtener masa seca constante; después, los especímenes se cubrirán con parafina y brea en las caras laterales; se registrarán las masas de los especímenes sellados. Posteriormente se colocarán en un recipiente de fondo plano sobre una esponja o cualquier fibra absorbente de manera que el tirante de agua sea de 3 mm por encima de la superficie de la cara del espécimen expuesta al agua. Los especímenes se pesarán a 1, 5, 10, 15, 30 minutos y 1, 2, 3, 4, 6, 24, 48… horas como indica la norma NMX - C - 504 - ONNCCE - 2015. Esta prueba de termina cuando la masa húmeda es constante, es decir, cuando la diferencia de masas de un día a otro no es mayor al 0.1%. Finalmente se elabora una gráfica (𝑊𝑡−𝑊0/𝐴 vs √𝑡).


CONCLUSIONES

Los resultados de la sustitución de mucílago de nopal por agua en la mezcla arrojaron buenos resultados en las pruebas de durabilidad como resistividad eléctrica y velocidad de pulso ultrasónico a edades tardías; ya que el promedio obtenido de resistividad eléctrica es de 77.6 K-cm cuando la norma NMX - C - 514 - ONNCCE - 2016 dicta que una resistividad de 50 - 100 K-cm es considerada con velocidades de corrosión bajas, por lo tanto el resultado es benéfico. Por otra parte, el promedio obtenido en la prueba de velocidad de pulso ultrasónico fue de 4130.2 ; la norma NMX - C - 275 - ONNCCE - 2004 indica que una velocidad de pulso >2350   se debe a pocos vacíos o agrietamiento bajo o nulo, y basado en los criterios de evaluación de la RED DURAR 1998 una velocidad de propagación >4000    resulta como durable. Existen registros de que la adición de fibra de nopal a morteros base cemento aportan una mayor compacidad a la mezcla, disminuyendo la cantidad de poros de aire, de acuerdo a trabajos previos elaborados en el Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil de la UMSNH, en los cuales se realizaron sustituciones en diferentes porcentajes de fibra de nopal y almidón de maíz. Los datos obtenidos reflejan que la sustitución del mucílago es favorable en cuanto a porosidad y, por ende, durabilidad. Por lo cual, se espera obtener resultados positivos en las pruebas de porosidad total y absorción capilar.  
Meneses Tenorio Maricarla, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar

DETECCIÓN DE HERMAFROFISMO USANDO PCR EN CARICA PAPAYA VARIEDAD MARADOL


DETECCIÓN DE HERMAFROFISMO USANDO PCR EN CARICA PAPAYA VARIEDAD MARADOL

Meneses Tenorio Maricarla, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El estado de Oaxaca la entidad productora más importante ya que aporta cerca del 31 por ciento del total a nivel nacional . Sin embargo, a pesar de ser el estado con mayor producción, presenta problemáticas de índole variable que provoca que el sembrar papaya genere incertidumbres en los rendimientos del cultivo. La papaya es una especie troica que presenta plantas con tres tipos sexuales: femenino,masculino y hermafrodita. La planta con flores hermafroditas es la que produce los mejores frutos ya que cumple con todas las características comerciales requeridas (fruto de forma alargada, contiene una masa significativa de semillas y ofrece un mejor sabor). Sin embargo, para poder conocer el sexo de las plantas, el productor debe esperar un tiempo aproximando de 3 a 6 meses esperando la etapa de la floración y así poder determinar su sexo. Este problema genera grandes pérdidas económicas además de que los campesinos invierten mucho tiempo para poder abastecer dichas cantidades de demanda. La falta de apoyos económicos y tecnológicos ha llevado a que investigadores se interesen en resolver dicha problemática buscando un menor costo de producción para los campesinos y que implique reducción de pérdidas durante el sexado de las plántulas en etapas tempranas del cultivo, previo a la siembra directa en el campo, usando herramientas vanguardistas efectivas y eficientes para el proceso de identificación del hermafrodismo.



METODOLOGÍA

Para realizar la investigación se utilizaron los materiales, reactivos y el equipo necesario que se encuentra en el laboratorio de Genética de la Universidad del Mar campus Puerto Escondido. El tejido vegetal se recolecto en el huerto de papaya que se encuentra dentro de la universidad. Se realizó la recolección de las muestras eligiendo hojas jóvenes, se lavaron bien las muestras y se maceraron con ayuda de nitrogeno liquido. Se obtuvo un polvo fino que se fue colocando de manera equitativa en tubos Eppendorf (no más de 500 mg de tejido vegetal). Las disoluciones para hacer la extracción de ADN ya se encontraban preparadas en el laboratorio por lo que no fue necesario realizar el procedimiento de elaboración.  Para iniciar con la extracción de ADN, se añadió al tubo Eppendorf 500 µl de buffer de lisis (CTAB 2%/B-Mercapto-OH 0.2%) y se mezcló. Después se agregó a la muestra 500 µl de fenol-cloroformo-alcohol isoamílico y se mezcló por 5 minutos con el vortex hasta homogenizar. Las muestras se centrifugaron a14, 000 rpm a 4°C por 15 minutos. Se obtuvo la fase acuosa superior con mucho cuidado para evitar la mezcla de fases y se pasó a un nuevo tubo Eppendorf, se agregó isopropanol para que se llevara a cabo la precipitación del DNA y se volvió a centrifugar a 14,000 rpm a 4°C por 15 minutos. Posteriormente se desechó el sobrenadante que se obtuvo de la centrifugación y se dejó escurrir por 10 minutos. Después se lavó la pastilla agregando 500 µl de alcohol etílico al 70% y se mezcló delicadamente sin perder la pastilla del fondo, se decantó cuidadosamente el etanol y se dejó escurrir por 10 minutos. Se dió un segundo lavado repitiendo el mismo procedimiento dejando escurrir nuevamente por 10 minutos. Se suspendió la pastilla en 300 µl de solución TE (Tris-HCl 10 mM, EDTA 1 mM, pH 8) y se mezcló la pastilla con la solución, después se almacenó a 4°C. Para la realización de electroforesis se preparó el gel de agarosa a una concentración del 0.7%. Se midieron 30 ml de TAE 1X y se agregó en un matraz 0.21 g de agarosa, posteriormente se adicionó el TAE 1X y se disolvió con calor de un microondas. Se vació la solución tibia en la charola, después se colocó el peine y se esperó por 15 minutos para que se solidificara la agarosa. Se colocó el gel en la cámara horizontal de electroforesis y se vertió TAE 1X hasta cubrir aproximadamente 5 mm por encima del gel. Se retiró el peine y cargaron las muestras con 2 µl de buffer de carga y 2µl de las muestras de ADN. Se aplicó un voltaje de 70 V por 40 minutos para separar el DNA y corroborar la  cantidad y la calidad del material extraído. Un vez concluido este tiempo se sacó el gel y se colocó sobre el transiluminador. Se visualizó el gel en la luz UV (usando lentes y guantes de protección) y se capturó la imagen del gel. Para la PCR se utilizó agua, un buffer de la enzima, MgCl 2 , dNTPs, los juegos de primers (T1, T12 y W11), Taq Polimerasa y finalmente el ADN genómico. Se fueron descongelando los reactivos y se añadieron en orden a un tubo para la master mix. Posteriormente se descongelaron las muestras de ADN, y se depositó en un nuevo tubo para PCR de 200 microlitros 24 µl de la master mix y 1 µl de la muestra de ADN correspondiente. Se repitió el procedimiento de acuerdo al número de reacciones que se realizaron. Cuando se terminaron de preparar las muestras se colocaron en el Termociclador con el siguiente programa de amplificación: desnaturalización inicial a 95 °C por 5 minutos, desnaturalización a 95°C por 5 minutos y 30 ciclos, alineamiento a 58°C por 30 segundos y 30 ciclos, polimerización a 72°C por 90 segundos y 30 ciclos y extensión final por 7 minutos. Para identificar el sexo de las muestras a través de amplificación por PCR se preparó nuevamente un gel de agarosa pero esta vez la concentración fue al 2 %. Después se cargaron las muestras que se amplificaron en el termociclador, incluyendo en el primer pocito 3 microlitros de un marcador molecular y 3 microlitros del buffer de carga, de las muestras de la PCR se colocaron 10 microlitros con 3 microlitros de buffer de carga. Se aplicó un voltaje de 70 V por 40 minutos.  Finalmente se analizaron las bandas de cada muestra en luz ultravioleta. Las muestras de las plantas que presentan dos bandas corresponden a una planta hermafrodita y las que solo tienen una banda son referentes de plantas femeninas, y no se encontraron plantas con fenotipos masculinos.


CONCLUSIONES

Se logró identificar el sexo de las plantas de papaya usando PCR y se comprobaron los resultados de las muestras de ADN obtenidos en el laboratorio con las flores de los árboles de papaya correspondientes y los resultados fueron positivos. La identificación del hermafrodismo a una edad temprana puede resultar de mucha ayuda en el ámbito productivo de papaya en la costa de Oaxaca y en cualquier lugar. 
Meneses Villalobos Jonathan Alfredo, Instituto Tecnológico de Tláhuac
Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional

DESARROLLO DE MODELO ANALÓGICO DE CONTROL CON APLICACIÓN A UN MOTOR ESTABILIZADOR DE UN EJE.


DESARROLLO DE MODELO ANALÓGICO DE CONTROL CON APLICACIÓN A UN MOTOR ESTABILIZADOR DE UN EJE.

Meneses Villalobos Jonathan Alfredo, Instituto Tecnológico de Tláhuac. Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en diseñar un modelo analógico de control que se aplica a un motor para estabiliza un eje, sobre el cual se monta una cámara y en función al motor se controla la inclinación necesaria del eje.



METODOLOGÍA

Inicialmente se estudió la teoría del control el cual es un conjunto de entradas que al pasar por un proceso tienen como resultado una salida y esta puede ser monitoreada, medida u observada ya que todo sistema tiene un error, el control busca reducirlo ya que sin error no hay algo que controlar. Entre las herramientas básicas del control esta la resolución de ecuaciones diferenciales y los métodos para resolverlas, como es la Trasformada de Laplace, las respectivas ecuaciones de elementos resistivos, capacitivos e inductivos de sistemas eléctricos y mecánicos para formar las ecuaciones de elemento y equilibrio, ya que el motor cuenta con una parte mecánica y una parte eléctrica. En paralelo se estudió el funcionamiento matricial de Matlab y algunas de sus herramientas, la de principal enfoque fue Simulink, ya que cuenta con la función de transferencia y ganancias, herramientas necesarias para simular los sistemas, tomando en cuenta las características de un motor. La innovación de este proyecto es que el control se realiza no con una función de transferencia, sino por medio de un circuito analógico con PID (Proporcional Integrador Derivativo),  al elegir un PID se usan ganancias que cumplen funciones específicas para el control, la ganancia Kp (proporcional) se ve reflejada en la amplitud de la señal de salida para reducir error, la ganancia Ki (integral) hace más rápida la respuesta del sistema y la modificación de la ganancia Kd (derivativa) disminuye las oscilaciones.  Para el desarrollo del modelo analógico, fue necesario estudiar amplificadores operacionales con mayor enfoque al Integrador de Miller y el software Proteus, en paralelo se realizaron prácticas con Arduino. Una vez que se recibieron valores en el Id de Arduino el siguiente paso fue la interfaz de Arduino con Matlab, para lo cual, el Doctor nos proporcionó una carpeta y líneas de código para que Matlab pudiera recibir y mostrar datos que el sensor recibía. Teniendo la interfaz, se usó un inclinómetro para conocer la inclinación y acoplar el comportamiento del motor en función del sensor. La aplicación de este proyecto fue montar el sistema de control, el motor y la cámara en la base de un dron, culminando con verificar que la cámara tenía estabilidad.


CONCLUSIONES

El control es una herramienta importante para el óptimo funcionamiento de un sistema, además es una herramienta compleja, pues como vimos en este proyecto aborda temas de ecuaciones diferenciales, dinámica de sistemas, electrónica analógica, programación, manejo de sensores y distintos softwares para ingeniería. Después del análisis dinámico de los sistemas y la resolución de las ecuaciones diferenciales con Transformada de Laplace, se utilizó simulink para observar el sistema con la función de transferencia aún con error, el motor se dividió en dos, parte eléctrica y parte mecánica, en paralelo se revisaron las herramientas para el modelo analógico, buscando darle forma y comparando el comportamiento con el bloque de la función de transferencia, que es una herramienta digital, otro aspecto importante fue tomar en cuenta el comportamiento de la plataforma, a la cual también se le hizo un bloque digital y analógico. la integración del PID tiene conflictos teóricos y prácticos que varían según el sistema, pues en nuestro sistema se tomó en cuenta posibles perturbaciones, lo cual afecta la salida, por lo tanto, el PID podría quedar como PD o PI incluso sólo como P, elección que se toma en función de los principales y más importantes resultados que son el tiempo de respuesta, la ausencia de oscilaciones y la disminución del error.  En el trabajo de Arduino, la recepción de datos de los sensores fue la esperada, se trabajó en prácticas con potenciómetro, con sensor LM35 para medir temperatura, termopar Max6675 para medir temperatura y presión, inclinometro de mercurio Ky-017 que actúa como on-off (lógica operacional: 0-1, encendido-apagado), acelerómetro mpu 6050 para medir inclinación. El siguiente paso fue la comunicación entre Arduino y Matlab, pues la idea es programar el sensor en Arduino y tener comunicación para que por el mismo puerto serial, Matlab reciba los datos, para ellos el Doctor nos proporcionó líneas de código y dedicamos mayor tiempo a esa comunicación pues en las diferentes prácticas los códigos variaban en tiempo de recepción, a pesar de que el Id de Arduino muestreaba según su delay, Matlab también tiene sus tiempos de recepción tanto en periodos infinitos hasta ser detenidos o tiempos programados. La comunicación fue uno de los principales problemas del proyecto, pero el doctor en todos los conflictos proporcionó las herramientas y el apoyo necesario para resolver el proyecto. Una vez teniendo recepción de datos, se emuló el comportamiento del motor con Matlab-Arduino debido a que realizar el circuito analógico en físico conlleva más tiempo para cálculos de resistencias, elección de componentes, armado, pruebas y correcciones. La innovación de este proyecto fue que el control digital que tiene Matlab se realizó de forma analógica donde, al final comparamos las gráficas de salidas para comprobar el funcionamiento del modelo digital, el modelo se puede implementar de forma física, evitando cargar el programa de Matlab en una app a una tarjeta como el caso de Raspberry pi y algunas otras, cuyas dimensiones y costos son elevados, además la computadora nos sirve para monitorear datos, pero para tener un sistema autónomo, la electrónica analógica es competente y económica.
Mercado Manzano Maria Liviere, Tecnológico de Estudios Superiores de Villa Guerrero
Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro

DETECCIóN DE PATOLOGíAS OíDIUM Y PERONOSPORA EN EL CULTIVO DE LA ROSA VARIEDAD MOCTEZUMAE


DETECCIóN DE PATOLOGíAS OíDIUM Y PERONOSPORA EN EL CULTIVO DE LA ROSA VARIEDAD MOCTEZUMAE

Hernandez Velasquez Maria Fernanda, Tecnológico de Estudios Superiores de Villa Guerrero. Mercado Manzano Maria Liviere, Tecnológico de Estudios Superiores de Villa Guerrero. Asesor: Dr. Cesar Isaza Bohórquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

La zona sur del Estado de México se ha convertido en un referente en el sector florícola. El crisantemo y la rosa son las principales flores que se producen debido a su alta demanda.             En 2018, se estimó una derrama económica de mil 991 millones de pesos en el mes de mayo por las ventas originadas por la celebración del día de las madres. Se estima que la producción en el Estado de México fue de 157 millones de tallos de rosa . El control y prevención de enfermedades es una de las principales tareas que ocupa a los productores, ya que es uno de los principales factores que determinan la calidad y volumen de producción. Una de las principales enfermedades causadas por hongos es, Oidium y Peronospora. En general estas enfermedades afectan la estética del tallo cortado reducción la calidad, ya que aparecen como manchas, cenicillas en el follaje y tallos. Los productores buscan aminorar el problema mediante tratamientos fitosanitarios. Sin embargo, la detección temprana y la acción inmediata aumenta las probabilidades del control de la enfermedad y reduce costos. Los expertos en el cuidado fitosanitario de cultivos del rosal realizan inspecciones regulares basadas en la observación, por lo que muchas ocasiones la presencia de enfermedades son advertidas en fases avanzadas del ciclo de las enfermedades. Actualmente, surge la necesidad de desarrollar herramientas de apoyo en el diagnóstico de patologias de la rosa que permitan la identificar de manera automática las mismas como lo haría el humano experto. En este proyecto se propone un método para la detección automática de las enfermedades de la rosa basadas en la extracción de características presentes en las imágenes de hojas de plantas infectadas mediante el entrenamiento de técnicas de aprendizaje automático.           Dicho esto, durante el verano de investigacion se resolvió la siguiente interrogante: ¿Cómo detectar  las enfermedades de Oidium y Peronospora en el cultivo de la rosa  variedad moctezumae ?



METODOLOGÍA

La metodología propuesta consta de los siguientes pasos: Adquisición de la imagen Preprocesamiento de la imagen Segmentación de la imagen Extracción de características Análisis estadístico Clasificación Se utilizó un conjunto de imágenes obtenidas del cultivo de rosa de la variedad moctezumae, se trata de una especie silvestre naturalizada. Las imágenes se obtuvieron de plantas inoculadas con patógenos de las enfermedades de Oidium y Peronospora.   Para esta entrega se han realizado los 4 primeros pasos  del Método propuesto los cuales son: Adquisición de la imagen, Pre-procesamiento de la imagen, segmentación de la imagen y extracción de las características.


CONCLUSIONES

Durante la estancia en el verano se logro detectar 21.980%  de la zona infectada en una imagen .Al ser un extenso trabajo nos encontramos en la fase de clasificación, se espera que al termino de nuestra estadia se obtengan los resultados esperados.
Merino Merino Oswaldo Antonio, Instituto Tecnológico de Piedras Negras
Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío

APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA


APP CIUDADANA PARA CONOCER EL ESTATUS DE UN POLICíA EN LA REPúBLICA MEXICANA

Bustos Palacios Efren, Universidad de Guadalajara. Islas Avila Shaden Eunice, Instituto Tecnológico de Pachuca. Merino Merino Oswaldo Antonio, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Desafortunadamente, se puede encontrar información de varios casos de abuso policial que vulneran los derechos humanos, violentando la seguridad e integridad física de las víctimas. En este caso, las víctimas no tienen un medio que permita conocer la identidad del ofensor, verificar la identidad del personal policiaco, o conocer su estatus de actividad.



METODOLOGÍA

Para llevar a cabo este proyecto, se buscaron aplicaciones móviles en diferentes plataformas de distribución y en Internet que permitan conocer el estatus de una patrulla o policía a través de un teléfono inteligente. Una vez concluida esa fase, se procedió a definir los requerimientos de la aplicación y usabilidad. Con los requerimientos de la aplicación y usabilidad, se procedió a realizar el modelado de software y Mockups. Después se realizó un story board para comprender la interacción con el usuario. Posteriormente, se definió el lenguaje de programación y se programó. Finalmente, se integró el diseño a la aplicación y se realizaron pruebas de usabilidad con posibles usuarios. Requerimientos y diseño. En base a los requerimientos definidos para la aplicación se diseñaron mockups que permitieron obtener una vista previa de sus interfaces y usabilidad, dichas características quedaron definidas de la siguiente manera: Barra de título con las siglas IDP (Identificación Policiaca). Botón circular desde el cual se accede al scanner de placas. Barra de ingreso de texto para la búsqueda manual de placas. Menú de 3 botones cuya función es permitir el contacto inmediato con otros medios en situaciones de riesgo: Enviar ubicación en tiempo real, incluyendo un pequeño texto descriptivo. Llamada de emergencia al 911. Toma de fotografía y posterior publicación en redes sociales. Desarrollo de la app y conexión a la base de datos en firebase Para la maquetación y desarrollo de la aplicación se decidió utilizar el entorno de desarrollo IDE Android Studio para versiones de Android 5.0 en adelante y para el diseño y creación de la base de datos se utilizó la plataforma en la nube Firebase en realtime. Asimismo, se desarrolló una página web, a cuyo acceso tienen los usuarios administradores, permitiendo realizar consultas sobre las patrullas buscadas por parte de los usuarios y obtener estadísticas con las cuales se puedan identificar posibles anomalías y se tomen acciones pertinentes; dicha página web se desarrolló con las tecnologías HTML5, Javascript y la ya mencionada plataforma Firebase. Pruebas Una vez concluida la fase de desarrollo, se implementó la primera versión de la app en un dispositivo móvil, con el fin de realizar pruebas de funcionamiento y usabilidad; dichas pruebas fueron aplicadas a los integrantes del equipo de desarrollo y posteriormente se aplicaron a otros usuarios, sin distinción de edad o experiencia en uso de aplicaciones móviles, esto, para determinar la efectividad e integridad del producto final desarrollado. Una vez concluidas las pruebas de interacción, se aplicó a cada usuario un formulario con el fin de obtener información relevante sobre su experiencia en torno a la problemática planteada y observaciones a manera de retroalimentación que pudiesen ser aplicadas en las siguientes versiones a desarrollar de la aplicación.


CONCLUSIONES

Después de haber realizado pruebas de usabilidad con posibles usuarios se obtuvo que: La problemática planteada en nuestro proyecto es de suma relevancia dentro de la población en la que se realizaron las pruebas. La aplicación es útil y puede ser implementada para conocer el estatus de un policía; así como, verificar la identidad del mismo. contribuyendo a incrementar la seguridad ciudadana dentro de nuestras fronteras.
Mesinos Villanueva Martín, Universidad Autónoma de Tamaulipas
Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas

DESARROLLO DE UNA PáGINA WEB, BASADO EN WEB SEMáNTICA, PARA EL DESPLIEGUE DE DATOS DE FARMACIAS EN CIUDAD VICTORIA, TAMAULIPAS


DESARROLLO DE UNA PáGINA WEB, BASADO EN WEB SEMáNTICA, PARA EL DESPLIEGUE DE DATOS DE FARMACIAS EN CIUDAD VICTORIA, TAMAULIPAS

Mesinos Villanueva Martín, Universidad Autónoma de Tamaulipas. Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

1.- Orígenes (Antecedentes): Web semántica: En 1998, Tim Bernes-Lee propuso la web basada en documentos y enlaces de hipertexto, fue diseñada para la lectura humana y no para que la información que contiene pudiera procesarse de forma automática. EN 2001, la web semántica se define como una extensión de la web actual dotada de significado, esto es, un espacio donde la información tendría un significado bien definido, de manera que pudiera ser interpretada tanto por humanos como por agentes de software. En la web tradicional si hacemos una búsqueda de documentos con el término Dhamara no se distingue entre los distintos significados y sentidos que se pide tener ese término. En la web tradicional no se permite la automatización de procesos, por ejemplo, para la búsqueda y reservación de vuelo se tenia que hacer manual y se pierde mucho tiempo en navegación. Concepto de web semántica: La web semántica se basa en dos puntos fundamentales: a) La descripción del significado - definición de los conceptos. b) La manipulación automática de estas descripciones: Se efectúa mediante lógica y motores de inferencia. Elementos de la web semántica: La semántica. Es el estudio del significado de los términos lingüísticos. Los metadatos. Son datos que describen otros datos, en este contexto los datos que describen recursos de la web. Las ontologías. Una antología es una jerarquía de conceptos con atributos y relaciones, que define una terminología consensuada para definir redes semánticas de unidades de información interrelacionadas y con ciertas reglas. Tecnologías. XML. Conjunto de reglas que organizan un documento en diferentes partes. (metadatos) RDF. Para expresar modelos de los datos, que refieren a los objetos recursos y a sus relaciones. (tablas) OWL. Mecanismo para desarrollar temas o vocabularios específicos. SPARQL. Lenguaje de consulta sobre RDF y Permite hacer búsquedas sobre los recursos. (MySQL). 2.- Objetivos Generales. Desarrollo de una Página Web, Basado en Web Semántica, Para el Despliegue De Datos De Farmacias en Ciudad Victoria, Tamaulipas. 3.- Importancia. Analizar la introducción a la Web Semántica para saber las necesidades que deberá tener la aplicación para solucionar el despliegue de los datos de todas las farmacias que se encuentran, en el Municipio, Ciudad Victoria, Tamaulipas. Analizar qué datos tendrá la ontología, para así saber el ordenamiento de los datos al momento de consultar conceptos en la aplicación. Diseñar las anotaciones que llevaran como información las entidades o conceptos de un modelo de representación, pueden ser vistas como comentarios, notas, explicaciones, propiedades o cualquier dato que puede añadirse a algún recurso o documento. Analizar cuales y de donde saldrán los datos enlazados, los cuales son un conjunto de buenas practicas para la ubicación y conexión de datos estructurados en la Web, utilizando estándares internacionales de World Wide Web Consortium. Esto permite una extensión en la web, generando un espacio en el que es posible conectar datos de distintos dominios. Hace referencia a la manera en la que los datos se muestran, comparten y conectan a través de URI´s desreferenciables, estrcuturan la información en un formato destinado a las maquinas.. Analizar la  Inferencia de conocimiento. Ontologia: Diccionario, vocabulario, representa un dominio.



METODOLOGÍA

Genéricas. Describen conceptos generales, también conocidas como ontologías de alto nivel. Dominio. Describen un entrono relacionado con un dominio particular. Tareas. Describen una tarea o actividad. Elementos de las ontologías: *Clases u conceptos *Propiedades o atributos. *Relaciones. *Instancias. *Axiomas, enunciados de lo que tenemos dentro de nuestra info. Entender el dominio. Identificar elementos.  >--------à Formalizacion (Conceptos) Identificar características de cada elemento. Construir la taxonomía inicial. Definir propiedades. Validacion. Construcción de la ontología: *Formalización de conceptos. *Definición de taxonomía. *definición de propiedades. Validación: *Verificación de consistencia. *Análisis del experto. Información relevante para la búsqueda!!!: Tipos de medicamentos (resfriado, dolor de cabeza, ungüentos, ampolletas, etc...). Métodos de pago (si cuenta con terminal o pago en efectivo y moneda/divisa). Si se ha recetado por parte del doctor como recetas o libre. Si se ha recetado por parte del laboratorio como patente o libre a la venta (en algunos casos).


CONCLUSIONES

6.- Términos cuantitativos y cualitativos: Para definir los cuantitativos, se espera que al momento de que muchos usuarios ingresen a esta página web, la cual esta asociada a la web semántica, el usuario pueda buscar información relevante a las farmacias que cuenta el mismo municipio, y así le muestre la información, de esa manera, se disminuirá la tardanza de turistas con el tiempo para explorar la ciudad, reducirá gasolina de automóviles para encontrar sitios en caso de que se encuentre mal la persona. Así de esta manera los cualitativos, se podrá ver y apreciar que la aplicación es buena en su forma para dar un resultado muy bueno, de la cual la persona le gustará el haber encontrado una forma rápida y accesible en la búsqueda. 7.-Conclusión: De esta manera al desarrollar esta aplicación, nos damos una gran idea de lo importante que es desarrollar nuevas formas para encontrar información, que sean rápidas para encontrar sitios, lugares de comida, de hospedaje, entre otras y así darle la seguridad y eficiencia al usuario de lo que quiere buscar, así se le puede seguir dando mantenimiento y seguirlo llevando a otros niveles de modelos en otra áreas del negocio.
Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
Michel Albertho, Instituto Tecnológico de Zitácuaro
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

EFECTO DEL MEDIO MARINO TROPICAL EN EL DETERIORO DE ESTRUCTURAS DE CONCRETO REFORZADO.


EFECTO DEL MEDIO MARINO TROPICAL EN EL DETERIORO DE ESTRUCTURAS DE CONCRETO REFORZADO.

Michel Albertho, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto consiste el material de construcción más difundido. Una parte de suma importancia en las obras civiles de estructuras de concreto está reforzada con varillas de acero. Aunque el concreto tiene apariencia de ser una roca de durabilidad infinita, la aparición de agrietamientos y desprendimientos de concreto permite darse cuenta que no es así, que por exposición al medio ambiente puede llegar a presentar fallas, que originan costosas reparaciones. Este proyecto se enfoca en la evaluación de la corrosión del acero de refuerzo como principal factor de la disminución de la vida útil de las estructuras. Para llevarlo a cabo, se utilizó el procedimiento de reparación de vigas de DURACON y relacionarlos con el impacto que tienen las variables medio ambientales con el deterioro de estructuras de concreto reforzado. El proyecto internacional DURACON (Influencia del medio ambiente en la durabilidad del concreto) tiene como principal objetivo la caracterización de la durabilidad del concreto en distintos ambientes reinantes de los países participantes. El proyecto considera la exposición de probetas de concreto reforzado y sin acero de refuerzo en estaciones localizadas por lo menos en dos ambientes: marino y urbano. Las vigas se fabricaron con dos tipos de concreto, relación agua/cemento 0.45 y 0.65. Las pruebas para evaluar la susceptibilidad a la corrosión del acero de refuerzo, fueron resistencia a la polarización lineal y evaluación de potenciales de corrosión en base a la norma ASTM C-876.



METODOLOGÍA

El siguiente procedimiento es para darle mantenimiento a las conexiones, que se encuentran en mal estado, de las barras de acero de refuerzo y, aprovechando los cortes realizados a las vigas con varilla para liberar las conexiones eléctricas de las barras de refuerzo, realizar análisis de profundidad de carbonatación y resistividad eléctrica. Se colocaron líneas perimetrales a 5 cm de los extremos en las 4 caras de cada extremo de las vigas para delimitar la zona de concreto de la viga que será separada para liberar las puntas de las conexiones de las barras de refuerzo. Se realizó una incisión de <1 cm de profundidad con una cortadora tipo banco con disco de corte para concreto sobre las líneas trazadas anteriormente. Esto teniendo cuidado de no tocar las barras de refuerzo con el disco de corte para evitar cortes de dichas barras. Con un martillo se hizo que esta incisión perimetral se propague hacia adentro de la sección de la viga de concreto. Intentar de que el concreto salga casi completo o, que los pedazos que queden, estén de buen tamaño para realizarles las pruebas mencionadas. Son dos extremos en las vigas, por lo que se repitió este procedimiento dos veces por cada viga. Las porciones de concreto se guardaron en bolsas de plástico, bien etiquetadas para saber a qué viga pertenecen y de qué extremo fue extraídas, tomando como referencia para identificarlos, que la cara expuesta se vea de frente. Se hizo la prueba de carbonatación a las 4 caras de las vigas para detectar el comportamiento de la corrosión en las mismas. Una vez separadas las dos porciones de la viga se desnudaron las barras de refuerzo de la manguera plástica y del epóxico, realizando una limpieza concienzuda de éstas mediante el uso de taladro con copa de cepillo de alambre. Son 6 barras con dos puntas cada una, por lo que se repitió este procedimiento de limpieza 12 veces por viga. Se colocó un nuevo cable de cobre del No. 12 con una longitud de unos 15 a 20 cm, para ir cortando las puntas bien protegidas en el tiempo, en caso de que se vaya corroyendo el mismo cable. Una vez colocado el cable de cobre, y éste quede bien unido a la barra de refuerzo, se restituirá la manguera plástica transparente y ésta se rellenó con un epóxico el Sikaflex 1A lo mismo utilizado en la preparación de las barras de refuerzo al principio del proyecto. Una vez restituidas las mangueras y el relleno con el epóxico, se restituyó la sección cortada de 5 cm de espesor con un mortero de altas prestaciones. Se utilizó el Sika Grout 212, un grout polimérico de marca comercial. Para el paso anterior, se tuvo que preparar primero moldes de madera perimetrales de 30 cm de largo, para colocar las vigas de manera vertical y el colado del mortero de reparación sea por arriba, como si se colaba una columna. Se usaron unos ‘pollitos’ de 5 cm para que la probeta quede a la altura correcta para colar el primer extremo. Antes de colocar el mortero de reparación se colocó un puente de adherencia para unir el concreto viejo con el mortero de reparación. Se usó el Armatek de Sika. Se coló primero uno de los extremos de las 6 vigas de forma vertical. Se dejaron bolsas de plástico para que cubran las secciones de mortero coladas y se mantuvieron húmedas con agua por un periodo de 14 días como mínimo, y alejadas las vigas del sol. A las 48 horas después de coladas, se invirtieron las probetas para colar el otro extremo, siempre teniendo cuidado de que el apoyo de las probetas se haga sobre la madera de cimbra del primer extremo colado. Pasados los 14 días de curado a partir del segundo colado, se descimbraron. Al final, las vigas se encuentran listas para que de nuevo se instalen en la estación de monitoreo donde se encontraban.


CONCLUSIONES

Durante estancia de verano, se asistió en primer lugar a un curso de corrosión de infraestructuras de concreto reforzado donde se logró entender mejor los fundamentos de la electroquímica y adquirir conocimientos teóricos y prácticos de las técnicas electroquímicas tales como la prueba de impedancia electroquímica y el método de la resistencia de polarización para la determinación y análisis del comportamiento y velocidad de corrosión. Se espera los resultados de los ensayos que se le aplicará a las muestras de vigas enviadas al grupo del proyecto DURACON, así como las recomendaciones prácticas para las intervenciones futuras.
Milan Soto Elizeth, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES


SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES

Corrales José Alberto, Universidad Politécnica del Mar y la Sierra. Milan Soto Elizeth, Universidad Politécnica del Mar y la Sierra. Santos Alcántara Karen, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En los cultivos agrícolas existe en gran variedad en cuanto a la producción de hortalizas en sus diferentes variedades, por lo que el requerimiento de empleados es mayor, dentro de la producción es requerido registrar la cantidad de cubetas que se cortan por empleado, en base a esto se puede registrar una cantidad mayor a la que se produce por día, ya que los registros realizados se hacen de manera manual lo que implica también que la seguridad sea vulnerable además de esto se desea implementar un lector de venas dactilares aumentando así la seguridad de los datos, se implementó este tipo de lector, ya que usar un lector de huella digital puede resultar un tanto complicado puesto que en los trabajadores del campo la huella puede estar dañada por el trabajo que se realiza, con el paso del tiempo las huellas se  van deteriorando y esto resulta ineficiente al registrar a los empleados cuando estos tengan que ser asignados a una cuadrilla de trabajo.



METODOLOGÍA

En el conteo de la producción de la empresa Sol y Arenas y Anthony se utilizó un sistema diseñado en el lenguaje de programación Java con el fin de realizar este proceso de conteo de una manera más gráfica que permita a el encargado manejar la formación de cuadrillas de trabajo dentro del cultivo, así mismo el sistema estará enlazado a una base de datos en MySQL en donde toda la información de los trabajadores estará almacenada dentro de ella para que de esta manera se pueda manejar de forma más rápida y eficiente evitando inconsistencias con la información. Todo este sistema estará apoyado por un lector de venas dactilares en donde los trabajadores deberán de registrar su asistencia al instante de formar las cuadrillas para que posteriormente se realice el conteo de producción que se haya recolectado durante un día, ya que esta información será requerida por el departamento de nóminas y que este pueda otorgar los salarios correspondientes a lo trabajado. Para la elaboración del sistema se requirió realizar una metodología exploratoria como descriptiva, se realiza de tipo exploratoria debido a que no existe un antecedente a el proyecto en cuestión, sino que se realizan las pertinentes investigaciones de campo con las personas que se encuentran a cargo con esto se pretende observar los fenómenos en cuanto a la formación de las cuadrillas para obtener resultado de acuerdo con lo que se haya observado y en base a esto se desarrolle el sistema con la información que será requerida. Además la metodología se realizó en base a prototipos basada en un diseño experimental del sistema que servirá para que los usuarios finales lo evalúen, el cliente podrá interactuar con el prototipo del sistema así puede darse una idea de los requerimientos que necesita. Mientras que la descriptiva se pretende formular una descripción de los factores a utilizar de acuerdo en la manera que se estén trabajando actualmente, la finalidad es buscar como especificar las propiedades que son relevantes para medir y evaluar los aspectos que conforman el proyecto, teniendo en cuenta la información que se obtuvo. El sistema pretende determinar el control de asistencia de los trabajadores en los días laborales para la formación de las cuadrillas para que la información generada pueda ser obtenida por el departamento de nóminas y que estos puedan determinar la producción que haya sido recolectada por cada trabajador. Además, con este sistema también se quiere aumentar la seguridad de la información manejada dentro de los cultivos y que solo el personal que esté a cargo de la empresa pueda hacer el uso de la información sin que terceros tengan el acceso a esta. Este sistema estará siendo desarrollado por la Universidad Politécnica Del Mar y La Sierra   la cual se implementara en los cultivos con los que cuenta la empresa Sol y Arenas y Anthony en los kilómetros 85 y 101 dentro del Estado de Sinaloa en el municipio de Elota, en ambos cultivos el sistema que está siendo diseñado tendrá la misma función, el sistema realizara el conteo de cubetas que ha sido recolectado por trabajador y por cuadrillas. El lector de venas dactilares a utilizar será de la marca Hitachi modelo H-1 contando con las siguientes características: Imposible falsificación: la lectura del patrón interno de las venas del dedo hace que sea prácticamente imposible de falsificar Precisión: lectura rápida y precisa. Rapidez: tiempo total de verificación 2 segundos Tamaño: reducido tamaño 59 x 82 x 74 mm. Diseño moderno: ideal para sobremesa Por estas características se eligió esta nueva tecnología para la seguridad de la información, ya que es imposible que alguien pueda duplicar el patrón de venas dactilares.


CONCLUSIONES

Durante la estancia de verano en la Universidad Politécnica del Mar y la Sierra se investigó lo referente al proyecto que se está desarrollando adquiriendo los conocimientos teóricos sobre el conteo de la producción en grandes cultivos utilizando nuevas tecnologías para posteriormente implementarlo dentro de los campos, debido a que el proyecto requiere de más elementos este aún se encuentra en un 80% de avance en cuanto a la programación siguiendo con la etapa de desarrollo, se han cumplido las primeras etapas del ciclo de vida las cuales son la planificación y análisis, faltando la etapas de implementación y pruebas, por ello no se pueden mostrar resultados exactos de lo que se pretende obtener.
Millán Martínez Dulce María, Instituto Tecnológico de Toluca
Asesor: Ing. Lina Maria Rios Pinilla, Corporación Universitaria Empresarial Alexander von Humboldt (Colombia)

MÉTODOS ORIENTADOS A LA CALIDAD DEL PRODUCTO TERMINADO DE UNA EMPRESA DEL SECTOR DE CURTIEMBRES, LA MARÍA, QUINDÍO, COLOMBIA


MÉTODOS ORIENTADOS A LA CALIDAD DEL PRODUCTO TERMINADO DE UNA EMPRESA DEL SECTOR DE CURTIEMBRES, LA MARÍA, QUINDÍO, COLOMBIA

Millán Martínez Dulce María, Instituto Tecnológico de Toluca. Asesor: Ing. Lina Maria Rios Pinilla, Corporación Universitaria Empresarial Alexander von Humboldt (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Ante las exigencias de un mundo competitivamente productivo en constante crecimiento, se vio como área de oportunidad de mejora para los implicados realizar un proyecto de investigación que impacte brindando propuestas para la creación de productos de alta gama de cuero por medio de procesos estandarizados que aseguren la calidad en una empresa del sector de curtiembres La María, ubicado en Calarcá, Quindío, Colombia. La problemática radica en que no se tiene una caracterización de sus procesos de calidad, se han ido implementando mejoras, pero no se establece ningún registro de resultados, existen muchas áreas de mejora que deben de ser detectadas por medio de un método de calidad que aporte al crecimiento y estandarización del proceso para generar productos terminados con menos variabilidad y garantizar que se apeguen a los requerimientos del cliente.



METODOLOGÍA

A lo largo de esta investigación se trabajó por medio de una división del trabajo en tres partes relacionadas con la parte teórica y práctica. I. Pre-trabajo de campo: En esta fase se realizaron visitas a las instalaciones del clúster de La María para conocer el proceso que engloba el curtido de las pieles. Se realizo un análisis del proceso productivo de la parte final y se identificaron algunas variables a tomar en cuenta para realizar el estudio. II. Trabajo de campo: Se realizaron diversas visitas a lo largo de la estancia al laboratorio de la empresa de curtiembres. De esta manera con las visitas se desarrolló la caracterización de dichas pruebas de calidad para la estandarización y se desarrollaran las distintas fases de la metodología DMAIC. III. Post-trabajo de campo: Se realizó una comparación de ciertos parámetros de los requerimientos del cliente y el proceso actual mejorado. En base a esa comparación se realiza el informe final del proyecto.


CONCLUSIONES

Los resultados fueron los entregables de cada etapa de la metodología, en el etapa 1; Project charter, voz del cliente y diagrama sipoc de proceso, en etapa 2; resultados del muestreo de CTQ’s, etapa 3; diagrama causa efecto de defectos del producto terminado, etapa 4; caracterización de pruebas de calidad y espectrofotómetro, etapa 5, plan de control. A través de la implementación de la metodología DMAIC se facilita la reproducción del proceso con estándares de calidad de acuerdo con la voz del cliente plasmada en requerimientos de tal forma que la empresa garantiza la calidad en los productos terminados del cuero reduciendo defectos y detectando los productos inconformes a través de las pruebas caracterizadas de calidad. A lo largo del Programa Delfín se pudieron cumplir los objetivos del proyecto, sin embargo, por naturaleza de mejora continua de la metodología aplicada se requiere de continuidad y aseguramiento de la calidad en la empresa donde se desarrolló esta para mantener los resultados logrados.
Millán Rodríguez Diana Fernanda, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

CARACTERIZACIÓN DE ALEACIONES BASE NÍQUEL, COBALTO Y CARBURO DE TUNGSTENO PARA APLICACIONES POR PROYECCIÓN TÉRMICA POR COMBUSTIÓN Y DE ARCO ELÉCTRICO


CARACTERIZACIÓN DE ALEACIONES BASE NÍQUEL, COBALTO Y CARBURO DE TUNGSTENO PARA APLICACIONES POR PROYECCIÓN TÉRMICA POR COMBUSTIÓN Y DE ARCO ELÉCTRICO

Millán Rodríguez Diana Fernanda, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

La incorporación de un estudiante de licenciatura durante una estancia corta, permitirá llevar a cabo las actividades de caracterización de materiales comerciales base Ni, Co y WC que serán empleados en procesos de proyección térmica por combustión y de arco eléctrico para la fabricación de recubrimientos multifuncionales con propiedades corrosivas y tribológicas. Los resultados que emanen de este proyecto podrán ser comparados directamente con las características finales de los recubrimientos fabricados. Además, la incorporación del estudiante en el proyecto permitirá desarrollar sus capacidades y habilidades de investigación en el área de ciencia de materiales, así como integrar el aprendizaje obtenido en la escuela con el desarrollo del proyecto



METODOLOGÍA

- Análisis y entendimiento de las propiedades físicas y químicas de aleaciones base Ni, Co y WC comerciales. -El estudiante deberá responder preguntas cómo: ¿Cuáles son las características físicas del material caracterizado en términos de tamaño y forma, morfología de la microestructura? ¿Cuáles son las fases presentes en cada uno de los materiales analizados? ¿Cuál es su estructura cristalina? ¿Cuál es su parámetro de red? ¿Cuál es la composición química (en % atómico y % en masa) del material analizado?¿Qué favorece la formación de las fases presentes en cada uno? ¿Existen elementos adicionales a los nominales? ¿Cuáles y cuanto? -


CONCLUSIONES

En el transcurso de la estancia de investigación en el verano científico Delfín 2019 se han caracterizado siete polvos y dos alambres comerciales. Se han usado diferentes técnicas de caracterización para dichos productos entre ellas son: difracción de rayos X (DRX), microscopia electrónica de barrido (SEM), distribución de tamaño de partícula (PSD). Cada técnica de caracterización lleva una preparación específica y rigurosa. La difracción de rayos X es una técnica de caracterización en la que los rayos x son difractados por los electrones que rodean los átomos por ser su longitud de onda el mismo orden de magnitud que el radio atómico. El haz de rayos x emergente tras esta interacción contiene información sobre la posición y tipo de átomos encontrados en su camino. Mediante esta técnica se obtiene el análisis cristalino de los polvos comerciales y alambres, los resultados obtenidos pueden ser comparados con el data sheet del proveedor, lo cual ayuda a verificar que la información recolectada sea verídica. La siguiente técnica es microscopia electrónica de barrido (SEM), permite la observación y caracterización superficial de materiales orgánicos e inorgánicos, dando información morfológica y de composición química rápida, eficiente y simultáneamente del material analizado. Estos microscopios trabajan con un haz de electrones para generar la imagen y en condiciones de alto vacío (10-6 torr), las partes esenciales del microscopio son: columna de electrones, consola de controles y sistema de adquisición de imágenes. La última técnica de caracterización consiste en la distribución de tamaño de partículas, en la cual se analizan los polvos comerciales. Se utiliza un aparato llamado HELOS/BR-OM es un sensor de difracción laser para análisis de tamaño de partícula en un rango de entre 0.1 a micrómetros. Maneja una tecnología de difracción de rayo laser paralelo de 632.8 nm de longitud de onda que cumple con la norma ISO 13320. El equipo cuenta con dos tamaños de laser (R2 y R4). R2 tiene un rango de entre 0.1 a 37.5 micrómetros, especial para polvos muy finos. R4 tiene un rango de entre 0.5 a 350 micrómetros, en los polvos que se analizaron se usaron los dos laser y se concluyo gracias a los resultados obtenidos que el laser R4 es el ideal para el análisis de partículas.
Miranda Contreras Zoe Valentina, Instituto Politécnico Nacional
Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

PROGRAMA DE DESARROLLO TECNO-EDUCATIVO COCENDI IPN 2019-2024: PROYECTO AULAS DIGITALES COCENDI 4.0.


PROGRAMA DE DESARROLLO TECNO-EDUCATIVO COCENDI IPN 2019-2024: PROYECTO AULAS DIGITALES COCENDI 4.0.

Miranda Contreras Zoe Valentina, Instituto Politécnico Nacional. Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

No es una sospresa encontrarnos con que la tecnología ha llegado a acaparar casi todos los aspectos de nuestras vidas con el objetivo de facilitarlas; la encontramos en nuestro día a día desde lo más común como el smartphone que nunca puede fallar en nuestros bolsillos, hasta los más sofisticados roborts que poseen la capacidad de realizar tareas que hace unas décadas atrás eran impensables y que por ende serían dignos de cualquier novela de ciencia ficción. Sin embargo, incorporar dichas tecnologías a las estrategias educativas que usan las escuelas públicas como una herramienta educativa para niños y niñas que cursan el nivel preescolar aún representa un reto, y esto se debe a que la gran mayoría de las instituciones y planteles se encuentran limitados de dichos recursos, o inclusive ni siquiera los poseen; además de que, el costo de estos muchas veces resultan excesivos y al no poseer financiamiento externo, es difícil tener acceso a estos. Y no sólo eso, sino que, la falta de información y en general, el desconocimiento sobre el uso de estas tecnologías como una herramienta educativa por parte de los docentes complica aún más las cosas; aunado a esto, se encuentra también la escasez de estrategias educativas que estén relacionadas a la incorporación de dichas tecnologías o que busquen el fomento de estas en los procesos de aprendizaje de los más pequeños. En vista de que en nuestro país aún sigue siendo un tema poco recurrente dentro de los planes de enseñanza de las escuelas públicas, la Red de Cómputo del IPN en conjunto con la Coordinación de los CENDI (COCENDI) se han dedicado a formular un proyecto denominado Aulas Digitales COCENDI 4.0, el cual busca incorporar estrategias tecno-educativas para que los niños  niñas que estudian en cualquiera de los cinco CENDI aprendan lenguaje de programación en Scratch y Makey Makey; además de introducirlos al mundo de la robótica con Lego-Wedo.



METODOLOGÍA

Para comenzar a formular el proyecto Aulas Digitales COCENDI 4.0, se realizaron sesiones por videoconferencia en las cuales participaron la investigadora Dra. Claudia Marina Vicario Solórzano, una representante de COCENDI, Hiroshima Llaguno y el alumno investigador. En dichas sesiones se le dio una breve presentanción al alumno investigador sobre lo que iba a consistir el proyecto, además de que se acordó que debían redactarse el propósito del proyecto, la duración del mismo, y los antecendentes del proyecto, además de que se acordaron las propuestas de los ejes de trabajo los cuales regirían al proyecto. Además de esto, se explicó al alumno investigador sobre las especificaciones que debía llevar un articulo de revista y un capítulo para un libro relacionado a la industria TIC, los cuales debían ser redactados por el alumno investigador a partir de investigaciones realizadas en el buscador científico de scopus, y consultados en el reporte Horizon. Con el producto de la primera sesión se acordó crear una presentación de powerpoint la cual sería usada en una reunión con la coordinadora de COCENDI el día 2 de julio, además de esto, se ofrecieron ideas para la creación del logo del proyecto, al igual que se acordó la fecha para la siguiente sesión. Nuevamente se realizó otra sesión en la que se presentaron las diversas propuestas para el logo del proyecto y tras haberse elegido, se incluyó dentro de la presentación de powerpoint. Tras haber llevado a cabo la reunión con la coordinadora de COCENDI, se tomaron notas respecto a las observaciones que se realizaron en dicha reunión, se decidió llevar a cabo correcciones a la presentación de powerpoint y se pidió al alumno investigador que realizara un documento en el cual se incluyeran los mismos puntos que incluían la presentación de powerpoint. También se hicieron observaciones para el artículo de revista y el capítulo del libro.


CONCLUSIONES

El proyecto Aulas Digitales COCENDI 4.0 es una iniciativa de parte de la Red de Cómputo del Instituto Politécnico Nacional (IPN) con la colaboración de la Coordinación de los CENDI (COCENDI) con el propósito de que los alumnos de nivel inicial y preescolar que se encuentran inscritos en cualquiera de los cinco Centros de Desarrollo Infantil (CENDI) los cuales son: el CENDI “Amalia Solórzano de Cárdenas”, el CENDI “Clementina Batalla de Bassols”, el CENDI “Eva Sámano de López Mateos”, el CENDI “Laura Pérez de Bátiz” y el CENDI “Margarita Salazar de Erro” pertenecientes al IPN, incorporen las nuevas tecnologías a su proceso de enseñanza con el objetivo de que adquieran habilidades que les sean útiles para enfrentarse al siglo XXI, tales como aprender lenguaje de programación, introducirse a la robótica y demás conocimientos que puedan adquirirse a través de las Tecnologías de Información y la Comunicación (TIC). Además, al mismo tiempo, se busca que la COCENDI consolide sus estrategias que estén relacionadas a la incorporación de estas nuevas tecnologías recién mencionadas que se usarán en los procesos de enseñanza-aprendizaje. Se espera que el proyecto tenga una duración de cinco años, de manera que este comience en 2019 y se planea que alcance su culminación en 2024.
Miranda Landeros Josue, Instituto Politécnico Nacional
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO


DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO

Cortes Martinez Amairani Yamileth, Instituto Politécnico Nacional. España García Isela Tsugey, Universidad de Guadalajara. Miranda Landeros Josue, Instituto Politécnico Nacional. Parra Valdez Manuel, Universidad de Guadalajara. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad crónica que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce (OMS, 2016). En México y en el mundo, la diabetes es una de las enfermedades cuya tasa de mortalidad es de las más altas. De acuerdo con la Organización Mundial de la Salud (OMS), más del 80% de las muertes registradas, mayormente en países de ingreso mediano y bajo, son causadas por esta enfermedad, y asegura que estas cifras podrían duplicarse en los próximos 10 años, siendo para el año 2030 la séptima causa de mortalidad en el mundo. Entre algunas de las causas procedentes de esta enfermedad se encuentran: infarto al miocardio, accidentes cerebrovasculares, amputación de miembros inferiores, neuropatías, pérdida de agudeza visual e insuficiencia renal. Por lo anterior, en este verano de investigación científica se desarrolló un prototipo para dar pulsos de energía al pie, y otro para mano, que permite aumentar o disminuir la temperatura en el miembro y así, utilizando una cámara infrarroja poder visualizar la circulación sanguínea y su respuesta ante un choque térmico. Este prototipo está diseñado para pacientes diabéticos, ya que, de este modo, se podrán realizar pruebas constantemente para observar la circulación sanguínea y así tomar acciones que ayuden a prevenir o disminuir algunos de los padecimientos causados por la diabetes mencionados anteriormente.



METODOLOGÍA

Se construyó un prototipo para pie que consiste en un soporte hecho de aluminio y madera de tal manera que amolde a la forma del pie. Se colocó una placa de aluminio anodizado que abarca la región de las puntas de los dedos del pie a la región del metatarso, bajo esta placa de aluminio anodizado se colocaron cuatro celdas peltier TEC1-12706 a 12V y 3A conectadas en un arreglo en serie de dos celdas peltier que se encuentran en paralelo con el arreglo serie de otras dos celdas peltier. Las celdas peltier se calientan de un lado y enfrían del otro según sea el sentido de la corriente que circule a través de ellas. La temperatura de la cara inferior es regulada mediante dos disipadores de calor de cobre y dos ventiladores PAPST MULTIFAN 3314 S a 24V conectados en un arreglo en paralelo. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con un puente H IBT-2 con un voltaje de entrada de 6V-27V y una corriente máxima de 43A, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa de aluminio. El circuito se alimentó con una fuente de poder SORENSEN  XPF 60-20D con dos salidas a 60V-20A máximo. El prototipo para la mano se construyó de aluminio y madera. Se colocó una placa de aluminio anodizado amoldado para los dedos de la mano que abarcan las falanges media y distal. Bajo la placa de aluminio se colocó una celda peltier TEC1-12706 a 12V-3A. La celda peltier se colocó sobre un disipador de calor de cobre y se utilizaron 2 ventiladores SUNON a 12V en paralelo para regular la temperatura. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con dos módulos relevadores alimentados a 5V, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa. El circuito se alimentó con una fuente de poder SORENSEN XPF 60-20D con dos salidas a 60V-20A máximo. La prueba se realizó bajo condiciones de temperatura ambiente (25°C) y para esta, el paciente colocó la extremidad correspondiente en el soporte, se comenzó a enfriar la placa hasta una temperatura de 10 °C y se mantuvo a esa temperatura durante 30 segundos, posteriormente se calentó la placa hasta 40 °C para nuevamente mantener la temperatura durante 30 segundos. Durante este periodo de enfriamiento y calentamiento se utilizó una cámara infrarroja marca Xenics modelo Gobi 640ge controlada por software Xeneth versión 2.5, adquiriendo secuencias de imágenes en escala de grises de 8 bits cada segundo por diez o vente minutos, para observar la respuesta del cuerpo ante un choque térmico. Las imágenes se procesaron con un programa realizado en Matlab que consiste en analizar a cada uno de los píxeles que componen la imagen y obtener la transformada de Fourier que hace referencia a la variación que éstos tienen en un intervalo de tiempo.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre la termografía y habilidades en el uso de una cámara infrarroja para la recolección de imágenes que permitieron observar la respuesta del organismo ante un choque térmico y con esto, conocer cualitativamente el deterioro vascular en pacientes diabéticos.
Miranda Piña Grisel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara

ALGORITMOS COEVOLUTIVOS CON POBLACIóN DIVIDIDA


ALGORITMOS COEVOLUTIVOS CON POBLACIóN DIVIDIDA

Miranda Piña Grisel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

            Los algoritmos metaheurísticos son buenos encontrando óptimos globales y locales por si solos, pero que pasaría si se involucraran dos o más estrategias de diferentes algoritmos metaheurísticos en un solo algoritmo para obtener un óptimo global, es por ello que se pretende realizar un algoritmo que involucre tres variantes del algoritmo DE (Differential Evolution) con una población total que será dividida en subpoblaciones dependiendo de cuantas estrategias serán implementadas y a su vez la subpoblación que tenga el óptimo global será premiada agregándole un nuevo individuo, en este caso será el peor global realizando esta interacción cada cierto porcentaje de iteraciones .



METODOLOGÍA

            Se realizó una investigación acerca de algoritmos metaheurísticos y la coevolución para tener conocimiento más amplio de cómo tratar el problema planteado.             A la par que se realizó la indagación sobre los algoritmos metaheurísticos, fue necesario realizar codificaciones de el algoritmo DE (Differential Evolution) y sus diferentes variantes.El algoritmo DE se codificó con 3 variantes las cuales fueron rand1, rand2 y best1, esto con el propósito de observar cómo se comportaban los individuos de la población total.             Después de observar el comportamiento de estas tres estrategias se diseñó un algoritmo que tuviera una población total que sería dividida en subpoblaciones de acuerdo al número de estrategias, en este caso se utilizaron tres estrategias y por tanto son tres subpoblaciones a usar, donde se encontraría al individuo con mejor fitness y el individuo con peor fitness. Una vez que estas estrategias encontrarán al mejor y peor individuo de cada subpoblación, se compararían entre ellos para saber quién es el mejor global y quien el peor global.             Al momento de encontrar a que subpoblación pertenece el mejor global y a cuál el peor global, se restaría el peor global de la subpoblación que lo tenga y este sería sumado a la subpoblación que tenga el mejor global.             Una vez teniendo el algoritmo funcionando, se requirió hacer experimentos con otros algoritmos para ver qué tan eficiente es el nuevo algoritmo al momento de encontrar el mejor global de la población total con ayuda de pruebas paramétrica (media, mediana y desviación estándar) y no paramétricas (Wilcoxón).


CONCLUSIONES

            Los resultados obtenidos del algoritmo como primer propuesta muestran que al ser comparado su desempeño para encontrar el mejor global con las tres variantes del Differential Evolution, este tuvo un desempeño medio respecto a las otras variantes del DE en la mayoría de funciones evaluadas.
Modesto Reyes Estefanía, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANALISIS Y APLICACIÓN DE LA AUTOMATIZACIÓN INDUSTRIAL EN LA MAQUINARIA INSTALADA EN EL ÁREA DE ALMACEN DE MATERIA PRIMA


ANALISIS Y APLICACIÓN DE LA AUTOMATIZACIÓN INDUSTRIAL EN LA MAQUINARIA INSTALADA EN EL ÁREA DE ALMACEN DE MATERIA PRIMA

Modesto Reyes Estefanía, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Las pequeñas y medianas empresas industriales (PYMES) representan un factor decisivo para el crecimiento económico de una determinada nación, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), las cuales aportan 42% del Producto Interno Bruto (PIB) y generan el 78% del empleo en el país. (Arana, 2018) Uno de los principales inconvenientes en las PYMES es la baja aplicabilidad de estrategias, teorías, técnicas y métodos para el mejoramiento de sus procesos de manufactura definidas y analizadas.  La empresa beneficiadora de hules EL FÉNIX SA de CV se caracteriza por poseer una estructura flexible, lo cual constituye una fortaleza y a la vez una debilidad para la misma, la fortaleza radica en que le permite actualizarse constantemente, por otra parte, la debilidad se presenta al momento de competir con las grandes empresas que cuentan con la capacidad de abarcar mercados más amplios. Por esta razón, se hace necesario que la beneficiadora de hule EL FENIX SA de CV adopte estrategias adecuadas que les permitan competir al mismo nivel de las grandes industrias, es decir, estrategias que le permita tener la estructura de una gran empresa, pero sin perder su flexibilidad (Quiroga Darío, 2007). El rediseño y el mejoramiento de los procesos de manufactura es fundamental para aumentar la productividad y a su vez aumentar los márgenes de utilidad para así evitar graves riesgos en cuanto a competitividad y permanencia en el mercado. En esta investigación será analizado el sector de hules de la empresa Beneficiadora de hules EL FENIX SA de CV para indagar la aplicación de metodologías para el mejoramiento continuo de sus procesos de manufactura que lleven a elevar la eficiencia. Para este proyecto se busca aumentar la vida útil de la maquinaria, equipo e instalaciones dentro la empresa, mediante el análisis de las operaciones más comunes de la falla de la maquinaria.



METODOLOGÍA

Para realizar el análisis a profundidad de la maquinaria instalada en el área de almacén de materia en la empresa BEHULFE, se requirió de una visita a la empresa para conocer el principio de operación que se pretende mejorar mediante la aplicación de la automatización industrial  utilizando relevadores y un controlador lógico programable. Dicho principio de operación fue representado mediante un diagrama de control, en el cual se explica el  principio de funcionamiento del motor, que contiene dicha máquina para posteriormente explicar mediante diagramas eléctricos, de fuerza y control  cómo  se desea  implementar el controlador lógico programable en la cortadora de bloques de caucho natural.   Se utilizó el software DirectSOFT 6(DS LAUNCH-PLC) así como la programación Ladder para la implementación del PLC y relevadores  en la maquina mencionada anteriormente. El objetivo principal de la programación de PLC  es convertir de una máquina en la cual operan de dos a tres  trabajadores a solo requerir uno( una máquina manual a ser una maquina semiautomatizada), que será el que manipulará , podrá ser más segura , más eficiente al momento de cortar , y sin causar algún accidente.


CONCLUSIONES

El presente proyecto busca proponer una mejora en una de las máquinas, donde más problemas se presenta en cuanto a tiempo de producción , ya que es el primer procedimiento que se le da al caucho natural para continuar con el resto del proceso.
Moha Chan Javier, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos

CREACIÓN DE BASE DE DATOS DEL SURESTE MEXICANO


CREACIÓN DE BASE DE DATOS DEL SURESTE MEXICANO

Chan Baños Jonathan Eduardo, Instituto Tecnológico Superior de Los Ríos. Moha Chan Javier, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En un mercado como el de ahora, globalizado y competitivo, las empresas deben de enfocarse en estrategias que aseguran la calidad del servicio o producto que presentan a sus consumidores. En la empresa de S.A.S (sistemas de alarmas de sur) de S.A DE C.V. es una empresa que busca expandirse a la zana sureste de México para aumentar sus ventas del servicio y a la vez proveer una seguridad a los ciudadanos.



METODOLOGÍA

En el sureste mexicano han ocurrido numerosos casos de robo como: robo de bienes, saqueo de empresas, rapiña, robo de vehículos, tráiler o cargas valiosas de empresas en las autopistas. También ocurren accidentes en hogar o empresas como incendios, cortocircuitos, etc. La empresa S.A.S DE S.A DE C.V busca reducir o erradicar los daños, implementado un servicio de alta calidad a los clientes y este ajustándose al precio de ellos, ya que esta empresa cuanta con sistema de seguridad y alamar para la asistencia del problema que surja ya está monitoreado las 24/7 bajo una central de vigilancia.


CONCLUSIONES

Elaboración de una base de datos en el programa Excel utilizando visual basic para programar la interfaz y los datos que esta llevara, se realizara una investigación de cuales posibles empresas podrían adquirir este servicio de seguridad en los estados de Tabasco, Campeche Y Yucatán con un promedio de 200 empresas por estado llegando a un total de 600 empresas Implementando esta base de datos que se plantea en el presente trabajo se espera aumentar las ventas en el sureste de mexicano, también se espera que la base de datos pueda utilizarse como un estudio de campo en cual pueda proyectar cual es el porcentaje de que este servicio se factible en esta zona y así tomar que favorezcan a la empresa.
Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima

MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING


MODELO DE MONITOREO Y ANáLISIS DE LA DEMANDA EN TIEMPO REAL DEL TRANSPORTE PúBLICO UTILIZANDO IOT Y CLOUD COMPUTING

Castellón Aceves Iván Alonso, Universidad Tecnológica de Nayarit. García Linares María Fernanda, Tecnológico de Estudios Superiores de Jocotitlán. Hernandez Martinez Martha Guadalupe, Universidad de Guadalajara. Martinez Robles Alicia Yuzuly, Universidad Tecnológica de Nayarit. Mojica María Ricardo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Juan Manuel Ramírez Alcaraz, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Actualmente la ciudad conurbada de Colima - Villa de Álvarez no cuenta con registros exactos relacionados a la demanda de usuarios de transporte público, específicamente de autobuses urbanos, que existe en cada parada de los camiones a distintas horas y  días del año. Esta situación, causa ciertos inconvenientes al proveer el servicio: mayor cantidad de usuarios esperando en cada parada en horario concurrido, pérdida de tiempo de los usuarios, desperdicio de espacio y combustible en los camiones. Esto  afecta a todos los usuarios del transporte, así como a los  proveedores del servicio, lo que resulta en una problemática latente, pues los usuarios no pueden optimizar sus tiempos de traslado y los proveedores no pueden optimizar sus gastos de operación. Así mismo, teniendo una demanda real de usuarios de transporte público, se podrían realizar experimentos sobre un modelo del sistema real de autobuses, que permita probar diferentes opciones de servicio, tales como: diferentes tamaños de autobuses en diferentes horarios, cambios de precios en horas pico, incremento de la flotilla, generación de nuevas rutas, etc.



METODOLOGÍA

Este proyecto está basado en el método científico, a continuación se explica lo que se realizó paso a paso. Indagar acerca de temáticas relacionadas con IoT, Cloud Computing, Seguridad, NodeMCU, sensores de movimiento, etc. Diseñar el modelo de monitoreo y análisis de demanda de transporte público. Elegir herramientas a utilizar: placa de desarrollo y sensores. Diseñar estructura del prototipo. Montar y establecer conexiones del prototipo. Crear interfaces necesarias para comunicarse con el servidor web. Crear base de datos útil para el proyecto. Acceder a base de datos en la nube. Implantar protocolos y herramientas de seguridad al sistema. Hacer pruebas de funcionalidad al sistema. Realizar modificaciones necesarias. Documentar el proyecto.


CONCLUSIONES

En este proyecto se diseñó un modelo que permitirá la monitorización y posterior análisis de datos sobre la demanda de usuarios de transporte público, en la ciudad conurbada de Colima - Villa de Álvarez. Se implementó un prototipo de este modelo que, utiliza una conexión de red, base de datos, NodeMCU, etc. El prototipo implementado es funcional, se logró enviar información desde un push button que simula el material piezoeléctrico que cuenta las personas que suben y bajan del camión. Esta información viaja hacia un servidor local, que contiene una base de datos que almacena los datos recabados. El prototipo deja un parte aguas para que se pueda implementar el modelo en un futuro cercano, tomando como referencia los objetivos logrados hasta el momento. Así mismo, se destaca que el prototipo es de bajo costo y fácil de crear.
Molina Andrade Pedro Alejandro, Instituto Tecnológico de Matamoros
Asesor: Dr. Blenda Ramirez Pereda, Instituto Tecnológico de Culiacán

DISEÑO DE UN PROTOTIPO DE CELDA DE COMBUSTIBLE MICROBIANA EMPLEANDO EL SOFTWARE AUTOCAD (2016)


DISEÑO DE UN PROTOTIPO DE CELDA DE COMBUSTIBLE MICROBIANA EMPLEANDO EL SOFTWARE AUTOCAD (2016)

Molina Andrade Pedro Alejandro, Instituto Tecnológico de Matamoros. Asesor: Dr. Blenda Ramirez Pereda, Instituto Tecnológico de Culiacán



PLANTEAMIENTO DEL PROBLEMA

Los recursos naturales como los combustibles fósiles son muy utilizados en la mayoría de las cosas que se realizan hoy en día, tales como el gas natural, el carbón y el petróleo pero por desgracia se encuentran en cantidades limitadas. Una de las energías alternas es el uso de celdas de combustible microbianas (CCM). Una CCM es un dispositivo que tiene como finalidad la obtención de energía eléctrica a través de microorganismos que convierten la energía química encontrada en un sustrato, en energía eléctrica. Las CCM pueden ser de una o dos cámaras, en la primera el par de reacciones redox ocurre en el mismo compartimientos, lo cual puede ser, en algunos casos, desfavorable para la eficiencia del proceso y solo puede ser empleada una de las dos reacciones. Las CCM divididas cuentan con dos cámaras separadas, físicamente o mediante una membrana semipermeable: en una se aloja un electrodo (ánodo) sumergido en una solución química, y en el otro un segundo electrodo (cátodo) también dentro de la solución química. La separación de las dos cámaras le ofrece independencia a cada reacción del par redox por lo que pueden ser aprovechadas con fines diferentes. El tratamiento Bioelectrofenton es un ejemplo de lo anterior. En una CCM dividía existe una producción de electrones en el compartimiento anódico y estos llegan al cátodo para favorecer la reacción de reducción del oxígeno y formar peróxido de hidrógeno. Una vez formada el agua oxigenada puede ser catalizada por iones hierro para dar lugar a la reacción Fenton y degradar materia orgánica contaminante. Por todo lo anterior existen numerosas áreas de oportunidad para llevar a cabo investigaciones en el ámbito de las CCM. Específicamente el diseño de prototipos eficientes y escalables es una de ellas. La necesidad de encontrar materiales, formas, dimensiones, simulación de los procesos que tienen lugar en cada cámara, cada vez es más toma mayor relevancia. Por lo que el presente trabajo tiene el propósito de diseñar una CCM a través de un software de diseño que permita la simulación de la celda una vez construida.



METODOLOGÍA

Para el diseño de una CCM tenemos 3 puntos importantes, La estructura de las cámaras anódica y catódica, La membrana y Los electrodos. ESTRUCTURA DE LA CCM En la cámara anódica se tendrá suficiente espacio para colocar el ánodo y dejar espacio para los microorganismos, ya que con el tiempo empezaran a colonizar el ánodo y aumentará la biomasa. Será un sistema cerrado, batch donde colocaremos la carga de microorganismos y no se tendrán flujo de fluidos. No es necesario evitar zonas de estancamiento o zonas muertas en esta cámara ya que, como antes mencionado no tendremos algún tipo de flujo dentro de la cámara. Tendrá una tapa independiente, para cuando sea necesario agregar otra carga, no se vea afectada la cámara catódica. Esta tapa tiene 3 orificios por donde saldrán las conexiones del ánodo para que sea más cómodo y eficiente para las pruebas de corriente para el ánodo. Tendrá medidas de 26 cm de largo, 42 cm de ancho, 32 cm de altura, 1 cm de espesor en las paredes, el material a utilizar para dicha estructura será de acrílico. En la cámara catódica tendremos un cátodo más pequeño comparado con el ánodo pero en esta cámara se tendrá un flujo de corrientes por lo que será necesario un modelo donde se puedan evitar zonas estancadas o muertas. Al igual que la cámara anódica tendrá su tapa independiente pero esta cuenta con 2 canaletas para modificar la distancia del cátodo a la membrana e igualmente poder realizar las conexiones adecuadas. La cámara cuenta con 4 zonas de estancamiento críticas que son en las esquinas de la cámara por lo que se agregó una superficie curva para que el flujo no quedara estancado y se complementaron los bordes al igualmente con  superficies curvas a lo largo y ancho de la cámara. Cuenta con 1 entrada y 1 salida de medida ¾ in. DIVISION DE LAS CAMARAS Exactamente en la parte media de la CCM cuenta con una barrera para dividir las cámaras anódicas y catódica. La barrera tiene una abertura de 6x6 cm donde se puede colocar una membrana de nafion para el funcionamiento de la celda. Cuenta con bordes redondos que se ajustan perfectamente a la CCM para evitar filtraciones de las sustancias. Esta barrera está dividida para poder colocar la membrana entre las 2 partes de la barrera y al colocarla en la CCM la membrana se ajuste por las medidas exactas de la barrera. ELECTRODOS La CCM cuenta con un ánodo y un cátodo diseñados para el eficiente funcionamiento del sistema. El cátodo se construirá de Carbono Vítreo Reticulado con medidas de 5 x 5 x 1 cm. Tendrá insertados 2 barras de grafito para sostener el peso del carbono vítreo y con estas 2 barras será factible modificar la distancia del cátodo y mantenerse fijo. El ánodo serán dos estructuras de barras de grafito una frente a la otra, con un ancho de 1 cm donde se colocará una fibra de carbón. Tiene 3 barras que llegan a la superficie para hacer las conexiones eléctricas correspondientes. Después de tener nuestra CCM se puede poner en función con un reactor electroquímico de placas paralelas para que suministre la energía necesaria para su funcionamiento en pruebas de laboratorio.


CONCLUSIONES

Durante la estancia de investigación se adquirieron conocimientos teóricos acerca de las Celdas de Combustible Microbianas. Se realizó una búsqueda de información y se recopilaron artículos de investigación publicados recientemente en el tema de interés. A partir de esta información y tomando en cuenta diferentes aspectos se propuso un prototipo de una CCM. Haciendo uso del software AUTOCAD, se establecieron dimensiones para cada una de las cámaras, materiales de electrodos. Se diseñó el ánodo y el cátodo de la CCM, además se propuso el material de construcción de la biocelda. Por último se realizaron algunas aproximaciones a la simulación de flujo de fluidos en el compartimiento catódico. El prototipo desarrollado en AUTOCAD servirá para su construcción en físico y su prueba en trabajos de laboratorio posteriores.
Molina Murguía Eduardo, Instituto Tecnológico Superior Purépecha
Asesor: M.C. Luis Martin Dibene Arriola, Universidad Tecnológica de Bahía de Banderas

PROPUESTA PARA INTEGRACIóN DE SISTEMA FV PARA EL HOTEL UBICADO EN LA UTBB EN BASE AL CONCEPTO DE HOTEL VERDE


PROPUESTA PARA INTEGRACIóN DE SISTEMA FV PARA EL HOTEL UBICADO EN LA UTBB EN BASE AL CONCEPTO DE HOTEL VERDE

Molina Murguía Eduardo, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Luis Martin Dibene Arriola, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

La industrializacion y el adelanto tecnologico le están cobrando la factura a la humanidad. La imperiosa necesidad de energia que ha requerido el desarrollo de la humanidad, especialmente en los ultimos siglos ha estado fincada en el uso de materiales fósiles, y haciendo un mal manejo de la naturaleza, y una de las manifestaciones de esto es el cambio climatico. Más de 1/3 de la energía que se consume en todo el mundo lo hacen las edificaciones y representa el 15% de la emisión de gases que producen el efecto invernadero. Por ende, la construcción de edificios más sustentables y reconvertir los existentes, electrodomesticos más eficientes y ahorrar energía es una de las opciones más interesantes para combatir éste problema. El uso de las energías renovables ha tomado bastante importancia en los ultimos años, debido a que por su generacion de energía (mayoritariamente eléctrica) y su prácticamente nula contaminacion en dicho proceso, ha llevado a éstas a su implementación a una escala cada vez mayor, siendo la FV la más implementada, por su pequeña, mediana y gran escala.



METODOLOGÍA

Análisis del tema "hotel verde e inteligente" y temas relacionados mediante material de lectura electrónico y bibliográfico para la comprensión del tema. Revisar las áreas de las que está compuesto el edificio y ver sus posibles espacios a ocupar para implementar energía solar FV. Posterior a esto, hacer el cálculo de la cantidad de paneles a instalar, así como también de lo requerido para su óptimo funcionamiento Finalmente, adecuarle un formato adecuado a todo lo realizado durante la estancia, mediante un documento en PDF para su propuesta al rector de la institución a la que pertenece el hotel


CONCLUSIONES

Se pretende que mediante la implementación del sistema FV al hotel, sea lo mayor posible para reducir sus emisones de CO2, acorde a lo que debería ser un hotel verde. Abarcar las áreas que son óptimas para la instalación de dicho sistema y que sea una propuesta coherente, con términos no complejos para la comprensión de cualquier persona no experta en el tema. Además, de manera personal, se pretende aumentar los conocimientos de los sistemas FV y los requerimientos que se deben de tomar en cuenta para su instalación, funcionamiento y posterior interconexión a la red. Sin dejar a un lado los nuevos conocimientos adquiridos respecto al hotel verde e inteligente, todas las partes que se deben de considerar para que éste sea así y el funcionamiento del mismo.
Molina Rodríguez Kayna Sayonara, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

BALANCEO DE LÍNEA EN EL ÁREA DE PROCESO DE HULE GRANULADO EN LA EMPRESA BENEFICIADORA “FÉNIX”.


BALANCEO DE LÍNEA EN EL ÁREA DE PROCESO DE HULE GRANULADO EN LA EMPRESA BENEFICIADORA “FÉNIX”.

Castro Moreno Esau Isbosset, Instituto Tecnológico Superior de Ciudad Hidalgo. Molina Rodríguez Kayna Sayonara, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las pequeñas y grandes organizaciones deben preocuparse por no dejar de ser competentes de acorde con las exigencias demandadas por los clientes y por la competencia, teniendo un desarrollo de la mejora continua adaptándose a las necesidades brindando productos de calidad basada en niveles de productividad. En las empresa beneficiadora de hules FENIX no se tiene un balanceo de sus líneas de producción,  sino que se implementó  en alguna ocasión de cierta  manera, ha  ido  creciendo  la empresa  y  no se hacen  los ajustes  correspondientes. La empresa beneficiadora de hule Fénix, es encargado de producir hule granulado en estado de deshidratación con diferentes grados de impureza. Dicha empresa cuenta con diferentes áreas dentro de la producción, tales como; Almacén de materia prima Área de molienda Área de prensado Área del horno deshidratador Almacén de producto Zona de carga de producto Partiendo desde el área de deshidratación, en el horno en que ocurre esta acción se encuentra que no tiene un control de la producción debido a la capacidad del horno que no es la suficiente para abastecer a las que también afecta al área de corte, prensado, empaquetado, creando tiempos inactivos y ociosos en estas áreas, por lo tanto, la línea de producción de hule granulado no está equilibrada, impidiendo la optimización de las máquinas, equipos y las actividades de los trabajadores para la producción de hule granulado.



METODOLOGÍA

Uno de los primeros pasos antes de comenzar con el balanceo de líneas es tomar conciencia de la necesidad de balancear las líneas de producción, conocer las tareas que se realizan por los trabajadores o máquinas. Se determino la demanda por día, el tiempo de producción diario Cabe mencionar que este balanceo de línea se basara en la regla del número mayor de tareas subsiguientes. Pasos para el balance de una línea de producción: 1. Especificar las relaciones secuenciales entre las tareas utilizando un diagrama de procedencia: Para esto se asistió a la empresa para conocer la distribución de la planta, las tareas que se realizan dentro de cada área ya sean maquinas o trabajadores, así mismo la primera tarea y sus tareas de precedencia. 2. Determinar el tiempo del ciclo requerido(C). Para la determinación del tiempo ciclo se toma en cuenta el tiempo de producción por día y la producción diaria requerida en unidades. Como resultado nos dio que el tiempo ciclo es el que indica el tiempo máximo que se tiene para la realización de una tarea. 3. El siguiente paso fue determinar el número de estaciones de trabajo (N) requeridas para satisfacer la limitación del ciclo, esta brinda una solución teórica de estaciones de trabajo que se requieren para que se cumpla con el tiempo ciclo (el número real puede ser mayor). Aquí se toma la suma del tiempo de las tareas (T) y el tiempo ciclo ya calculado. 4. En este paso se selecciona la regla de asignación en este caso será, de acuerdo a la asignación de las tareas en las diferentes estaciones de trabajo dado el número mayor de tareas subsiguientes. 5. Asignar tareas, una a la vez, a la primera estación de trabajo hasta que la suma de los tiempos sea igual al trabajo del ciclo, una vez determinada la regla de asignación. Las tareas se dividieron por estaciones que no excedieran el tiempo ciclo. 6. Este paso evaluara la eficiencia de equilibrio de las estaciones una vez realizados los 5 pasos anteriores, en este punto se evalúa con ayuda de la suma de los tiempos de las tareas, el número de estaciones de trabajo reales (N) y el tiempo ciclo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y practicos en cuanto al balanceo de líneas de producción mediante datos reales de las tareas de la empresa, sin embargo, de acuerdo a la metodología del balanceo de líneas una línea de producción se dice estar balanceada cuando la eficiencia es igual o mayor a un 95%, realizado el balanceo de líneas en la empresa se determinó un 87% de eficiencia con la propuesta de 29 estaciones de trabajo, elaborada con un tiempo ciclo de 165 segundo, con una producción deseada de 240 pacas de hule cada una de 35 kg de producto terminado  en 11 horas de trabajo, con la regla de número mayor de tareas subsiguientes, por lo tanto se puede concluir que la línea de producción no fue balanceada de forma satisfactoria, aunque si se significó un aumento de la eficiencia en comparación del estado actual.
Molina Valdés Emiliano, Instituto Politécnico Nacional
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

DISEñO DE UN CONTROL RETROALIMENTADO PARA UN CONVERTIDOR CA-CD APLICADO A UN HORNO VAR


DISEñO DE UN CONTROL RETROALIMENTADO PARA UN CONVERTIDOR CA-CD APLICADO A UN HORNO VAR

Molina Valdés Emiliano, Instituto Politécnico Nacional. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Un indicador significativo con el cual se mide con frecuencia el desarrollo industrial de un país es el que está  relacionado con la producción y el consumo de aleaciones de alta calidad. Para generar acero de alto nivel se requiere de sistemas como lo son los hornos de electrodo consumible, conocidos en la industria como Vaccum Arc Remeiting (VAR). Estos hornos sirven para producir materiales de alta calidad con características metalúrgicas no alcanzadas por algún otro proceso industrial. Por lo tanto, resulta determinante desarrollar la tecnología de hornos tipo VAR cuyos productos tienen un profundo impacto en la industria; por mencionar algunos ejemplos, la industria nuclear, petrolera, eléctrica y aeronáutica, pero sobretodo se ha encontrado que las aleaciones con grano orientado, que es una característica de los materiales producidos con hornos VAR, son adecuados para fabricar los núcleos de los trasformadores eléctricos ya que minimizan las perdidas por histéresis. Por tanto la técnica de control y la configuración de los convertidores de potencia con los que se construye la fuente de alimentación de los hornos VAR es fundamental, ya que como se trata de elementos de mediana y alta potencia, requieren un riguroso sistema de sincronización. En este sentido, en la estancia se diseña un rectificador trifásico controlado para suministrar un voltaje de 0 a 70 VDC, con la finalidad de evitar fluctuaciones de corriente y voltaje ocasionadas por el efecto flicker de este tipo de hornos.



METODOLOGÍA

La metodología se basa en las actividades asignadas durante la estancia las cuales comprende el diseño del circuito de sincronización y el disparo de los tiristores de potencia. A continuación se describe la metodología utilizada. Inicialmente se realiza el diseño de un circuito resistivo capaz de controlar el disparo de 6 SCR y, con esto, comprobar el correcto funcionamiento de los dispositivos. Se realizaron los cálculos de voltaje, corriente y potencia necesarios para obtener las resistencias apropiadas para la prueba de los módulos de Tiristores, cuya nomenclatura es CD431690B; se armó el circuito y se realizaron las primeras pruebas con ayuda de una lámpara incandescente de 100W. Una vez comprobado el estado de los dispositivos, se procedió a diseñar el circuito de control del horno VAR. Por ende, se vio la necesidad de armar un circuito detector de cruce por cero con el fin de detectar la conmutación de línea de los SCR para controlar el ángulo de disparo del convertidor. El primer detector de cruce por cero fue realizado con un optoacoplador, PC817, fototransistor. Con este circuito se pudo detectar el cruce por cero; sin embargo, la lectura era poco precisa y eso provocaría graves problemas en el futuro a la hora de controlar el ángulo de disparo del convertidor trifásico. Como solución a la poca precisión del circuito anterior, se vio la posibilidad de poder usar un amplificador operacional, específicamente el modelo LM324N. Dicho circuito es alimentado por un transformador reductor de 127V a 8V, posteriormente, el voltaje de salida se rectificó con un rectificador de media onda, es decir, un diodo 1N4007. El objetivo de rectificar la señal fue tener un lapso de tiempo considerable para generar una señal de cruce por cero. El Amplificador Operacional fue alimentado con +5V en su alimentación positiva y conectado a tierra en su alimentación negativa. Además se usó en su configuración más sencilla, como comparador. La señal de media onda a comparar fue introducida por la entrada inversora mientras que la entrada no inversora fue conectada a tierra. Con esta conexión, se logró obtener un pulso cuadrado y simétrico a la señal de entrada. El siguiente paso consistió en programar un microcontrolador de la familia PSoC. Se trabajó con el microcontrolador MSP430 F5529 de la empresa TEXAS INSTRUMENTS. El objetivo de usar éste dispositivo fue programarlo de tal forma que, en uno de sus pines digitales, reciba la señal del cruce por cero como una señal de entrada; se hizo uso de la función TIMER con el fin de mandar una señal de salida, por otro pin digital, dirigida a la compuerta de los SCR. Para efectuar la programación y el disparo correcto de los Tiristores se tuvo que realizar un sencillo cálculo para convertir los grados del ángulo de conducción en  tiempo y, a partir de este valor, mandar el disparo de activación para que la carga del circuito de potencia reciba el voltaje necesario para funcionar. Es necesario mencionar que se tuvo una colaboración entre los mismos alumnos de ésta estancia de verano; se trabajó en equipo con el fin de apoyarnos en áreas del proyecto en las cuales compañeros tuvieran mayor experiencia o conocimientos sobre el tema, todo con el fin de crear un ambiente de trabajo amigable y poder avanzar en el desarrollo del proyecto. Entre dichas actividades de colaboración, se pueden mencionar algunos ejemplos como: la instalación eléctrica del proyecto vecino, el enrutamiento de un sensor de luminosidad, la transportación del sistema de enfriamiento de una soldadora, entre otros.


CONCLUSIONES

En esta estancia de verano se logró adquirir conocimientos teóricos de Electrónica y, Electrónica de Potencia, principalmente, convertidores, rectificadores trifásicos, microcontroladores, amplificadores operacionales, por mencionar algunos temas entre otros. A su vez, la teoría adquirida se puso a prueba de forma práctica con el diseño y armado de los circuitos explicados anteriormente obteniendo los resultados deseados.  Sin embargo, por ser un proyecto de extenso trabajo, no se pudieron demostrar resultados y/o evidencia acerca de la instalación del control y protecciones del horno VAR.  Además, se lograron grandes aprendizajes con ayuda de cursos de preparación sobre temas como Instrumentación (LabVIEW) y convertidores de potencia, impartidos por profesores de la misma institución con el fin de impulsar y ayudar a los alumnos a desempeñar un buen papel en cada uno de los proyectos de investigación.
Mondragón Román Salomón Alberto, Instituto Tecnológico de Gustavo A. Madero
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

DEGRADACIóN DEL COMPUESTO EMERGENTE (DICLOFENACO) EN AGUA RESIDUAL A TRAVéS DE UN PROCESO COMBINADO DE ELECTRO-OXIDACIóN Y DEGRADACIóN ENZIMáTICA


DEGRADACIóN DEL COMPUESTO EMERGENTE (DICLOFENACO) EN AGUA RESIDUAL A TRAVéS DE UN PROCESO COMBINADO DE ELECTRO-OXIDACIóN Y DEGRADACIóN ENZIMáTICA

Arias Gómez Edmidia Montserrat, Instituto Tecnológico de Lázaro Cárdenas. Mondragón Román Salomón Alberto, Instituto Tecnológico de Gustavo A. Madero. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los contaminantes en agua residual representan una problemática de salud pública a nivel nacional, entre estos contaminantes los llamados contaminantes emergentes, no se encuentran regulados, y  gracias a sus estudios y a la investigación sobre sus potenciales problemas a la salud y al medio ambiente, estos podrán ser legislados para su regulación futura. Para la mayoría de los contaminantes emergentes no se conoce realmente, los datos ecotoxicológicos, es difícil predecir los efectos a la salud de los seres humanos, y en el caso de agua de los organismos acuáticos. De entre estos contaminantes emergentes los de mayor preocupación e investigación son los fármacos, más específicamente los antibióticos, ya que la gran mayoría de estos se producen y vierten en el agua residual en cantidades de toneladas al año, dadas sus características y el hecho de ser no polares les permiten a estos contaminantes distribuirse extensamente en el ambiente. A partir del estudio de los contaminantes emergentes en la década de los años noventa se lograron encontrar en concentraciones de ng/L  y μg/L en aguas superficiales y se demostraron que los contaminantes emergentes pueden presentar alteraciones endocrinas, asi mismo se ha demostrado que pueden presentar efectos antagónicos en las funciones biológicas de las hormonas naturales. Estas razones permiten que la degradación de los contaminantes emergentes, se vuelva un importante objeto de investigación que permita a través de procesos  como la oxidación avanzada en reactores electro-químicos o la degradacion enzimatica,  buscar una solución para su eliminación de aguas residuales.



METODOLOGÍA

Recolección de agua residual. Se hicieron muestreos del agua residual en descargas libres proveniente del hospital Juárez en la ciudad de México del área de urgencias médicas, tomando 21 litros y conservando una temperatura de 4°C Acondicionamiento del reactor. Los experimentos para degradar compuestos emergentes se realizaron en el reactor electroquímico FM01-LC . Para el acondicionamiento del reactor se hicieron pasar 3 L de ácido sulfúrico a una concentración 0.5 M por 15 minutos, con la aplicación de 1.83 mA/cm2. Posteriormente se hicieron pasar 3 L de agua destilada, esto con el fin de eliminar todos los residuos de ácido sulfúrico presentes en el reactor. Las condiciones de operación del reactor fueron las siguientes: 1.2 L/min de agua residual hospitalaria y la densidad de corriente que se seleccionó fue de 0.096 A Acoplamiento de los procesos. Se hicieron 9 experimentos los cuales tenían lo siguiente: Agua residual sin sólidos, Agua residual + proceso electroquímico, Agua residual + proceso electroquímico + manganeso, Agua residual + proceso electroquímico  + Enzima purificada, Agua residual + Enzima purificada, Agua residual + Enzima purificada + peróxido, Agua residual + enzima purificada+ Manganeso, Agua residual + enzima + peróxido + Manganeso, Agua residual + enzima purificada + proceso electroquímico +  Manganeso + peróxido El agua residual que se obtuvo a la salida del reactor electroquímico se dejó durante 20 min en circulación, pasado ese tiempo se añadió a los correspondientes matraces Erlenmeyer de 250 ml Extracción de fármacos. Acondicionamiento del cartucho. Se añadió 20 ml de metanol (HPLC), se añadió 6 ml de agua destilada y 6 ml de agua de pH 2 y estos fueron desechados en un frasco. Filtrar muestra. Se le añadió toda la muestra sin dejar secar. Elución. se añadió 10 ml de agua destilada, posteriormente se dejó secar el cartucho dejando pasar aire por 5 min y por último se añadió 12 ml de metanol conservándolo en un vaso de precipitado de 30 ml. Concentración. La muestra anterior se colocó a baño maría a 50°C con una corriente de nitrógeno gaseoso, se dejó hasta tener un volumen de 1 ml. se aforó a 10 ml con metanol. Se hizo un barrido en el espectrofotómetro teniendo como el blanco al metanol.


CONCLUSIONES

A partir de los resultados obtenidos se puede concluir que la mayor degradación entre los distintos tratamientos se obtuvo del agua residual más el tratamiento electro-químico, después se observa que el siguiente tratamiento con más degradación es el de agua residual más enzima, tomando en cuenta que el tratamiento enzimáticos y los procesos combinados electro-químico más  enzimático requieren de un tratamiento específico de la enzima a partir de su purificación, y que la degradación de esta dependerá de las concentraciones de peróxido y manganeso en el medio, podemos concluir que los resultados de los procesos que involucran la utilización de enzima pudieron representar errores debido a las condiciones presentes en el laboratorio, primeramente el trabajar con enzimas requiere de su manipulación en temperaturas de aproximadamente cuatro grados centígrados mismas que se obtuvieron durante en la mayoría de los procesos, pero que en puntos específicos como en la filtración o en la centrifugación no se pudo asegurar que la temperatura se respetara lo que podría haber provocado una desnaturalización enzimática, así mismo en la etapa de purificación de la enzima el tiempo de reacción debía de ser de 2 horas, sin embargo se dejó durante un periodo de 9 horas mismas que representan una disminución en la actividad enzimática y que en conjunto con los dos mililitros que se agregaron a cada tratamiento, no representan la degradación enzimática real y potencial que tienen los tratamientos enzimáticos. El resultado obtenido del barrido en espectrofotómetro de nuestras muestras no representa como tal un resultado concluyente sobre el objetivo del proyecto ya que este solo nos indica  un resultado cualitativo y no cuantitativo,debido a que nos indica la degradación de compuestos no polares en nuestra muestra y no solamente de los fármacos, más específicamente del diclofenaco, ya que para obtener este resultado se requiere de la utilización de otro equipo(HPLC) mismo que al momento de realizar este resumen no ha podido ser realizado.
Monroy Vite Mayte, Instituto Tecnológico Superior de Huauchinango
Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango

COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR


COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR

Carmona Conde Sarahi, Instituto Tecnológico Superior de Huauchinango. Martínez Salas Luis Adolfo, Instituto Tecnológico Superior de Huauchinango. Monroy Vite Mayte, Instituto Tecnológico Superior de Huauchinango. Peláez Hernández Georgina, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El paradigma de las instalaciones solares fotovoltaicas ha cambiado mucho en los últimos años, pasando de sistemas con primas a la producción a instalaciones de autoconsumo sin primas. Por ello en muchas instalaciones no se busca la máxima producción energética en un periodo de tiempo, sino el máximo aprovechamiento energético de la energía solar producida. En los últimos años la creciente demanda de energía eléctrica para satisfacer el bienestar de las personas ha provocado daño en el planeta, es por esto que se han estudiado diversas formas de generación de energía para poder satisfacer el desarrollo de los países. La premisa principal por la cual se realizo este proyecto es para aprovechar al máximo la energía solar, día con día se busca sacar mayor eficiencia de los sistemas fotovoltaicos. Es por eso que el proyecto  tuvo como objetivo captar al máximo los rayos solares para obtener un aprovechamiento de esta energía. La estrategia consiste en realizar mediciones de voltaje y corriente de un sistema fijo y un seguidor solar, con los resultados se realizo una grafica de la respuesta de cada sistema.



METODOLOGÍA

El presente trabajo de investigación COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR, corresponde a un proyecto de investigación en el área de energías renovables el cual está encaminado a analizar la factibilidad de aprovechamiento de un seguidor solar respecto de los sistemas fotovoltaicos fijos instalados actualmente. Se realizó la construcción del prototipo del sistema con el propósito de tener un  fácil manejo en la inclinación del panel fotovoltaico desplazado por el servomotor en un giro de 180 grados, con ayuda de una estructura de metal formada por dos pilares los cuales unidos por una varilla del mismo material soportan el peso del panel solar de forma uniforme para poder así realizar los movimientos libres que manden las señales que son enviados por los sensores, para esto se hizo uso de 2  fotorresistencias (LDR) y una alimentación de 5 V para el sistema de control. Se realizó el código de programación en la plataforma Arduino, que contiene el micro controlador, el cual se encarga de medir la intensidad de los rayos luminosos, procesa el ángulo de incidencia y reenvía la señal de respuesta modificada en el sistema. El módulo de control mide constantemente la intensidad y el ángulo de los rayos solares recibidos y orienta la instalación con los módulos solares de forma óptima. Para ello, el sensor toma en cuenta la luz que el agua o las piedras claras, así como la irradiación difusa que traspasa las nubes. Adicionalmente se coloco un circuito de salida al panel para poder conocer el comportamiento referido al sistema de generación, para lo cual se conecto una carga en paralelo al panel y con ayuda de un voltmetro-ampermetro conectado en serie del panel a la carga, fue posible adquirir los datos de voltaje y corriente en función de la carga. Con estos datos fue posible la realización de una grafica que nos muestra el comportamiento a distintas horas del día, y la obtención de la comparativa del seguidor y el sistema fijo.


CONCLUSIONES

En este sentido, cuanto más podamos consumir en tiempo real la energía producida por los módulos solares más rentable será la inversión realizada. Los resultados obtenidos al realizar la comparación en cálculos energéticos, nos llevan a concluir que el seguidor solar es eficiente sin embargo aporto alimentación a los servomotores lo cual redujo la entrega final de energía por otro lado el sistema fotovoltaico fijo al no tener un mecanismo que le permita movilidad entrego el 100% de su energía para el consumo de la carga. La mejora propuesta para compensar el consumo de energía es realizar un periodo más amplio de mediciones y posicionar ambos sistemas al mismo tiempo.  Al realizar el estudio de tiempo-corriente, tiempo-voltaje y tiempo-potencia, observamos que el comportamiento del seguidor solar es lineal en cuanto al sistema fotovoltaico fijo se comporta de manera perpendicular al sol. El promedio de voltaje, corriente y potencia en el seguidor solar fue de 8.4 V, 0.16 A y 1.42 W; en el sistema fijo fue de 8.8 V, 0.24 A y 2.13 W.
Monrreal Salazar Birzavit, Instituto Tecnológico de Reynosa
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

DISEñO DE ARQUITECTURA TUI PARA LA IMPLEMENTACIóN DE TRANSPORTE INTELIGENTE Y VALIDACIóN MEDIANTE SERIES DE TIEMPO


DISEñO DE ARQUITECTURA TUI PARA LA IMPLEMENTACIóN DE TRANSPORTE INTELIGENTE Y VALIDACIóN MEDIANTE SERIES DE TIEMPO

Monrreal Salazar Birzavit, Instituto Tecnológico de Reynosa. Pérez Corona Orlando, Universidad Tecnológica de Nayarit. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas a los que se enfrentan las ciudades actualmente es el ofrecer los servicios básicos debido al urbanismo acelerado. Como menciona (Arroub Y Cols., 2017), la urbanización provoca la aparición de riesgos, problema y preocupaciones en ofrecer servicios, lo que lleva a las autoridades a buscar propuestas de solución optimas, que según los investigadores solo se encentran en las estructuras de ciudades inteligentes. Según la jornada de Aguascalientes (Aguascalientes, 2018), Poco mas del 40% de la población hace uso del transporte publico, lo que crea un problema de abastecimiento de las 500 unidades de camión distribuidas en las 47 rutas, para cumplir con los términos de puntualidad y frecuencia.  



METODOLOGÍA

Metodología Para esta investigación se utilizará la arquitectura TUI para la optimización de las redes de transporte urbano de la ciudad de Aguascalientes, con el objetivo de que esta pueda ser implementada en otras ciudades. Esta metodología consiste en la transformación del transporte público hacia un sistema inteligente el cual relacionara diversas áreas a definir en la metodología TUI. La arquitectura presenta novedades organizadas en cuatro módulos los cuales interactúan de tal manera que se despliega una conversión firme dentro del transporte y la misma agencia que lo provee. Además de la comprobación de los tiempos de llegada y salida, así como la demanda obtenida de la experimentación con el uso de la serie de tiempos y su relación con la estructura TUI. Metodología TUI La arquitectura TUI se basó en las actuales arquitecturas de ciudades inteligentes y los tres factores que determinan un transporte inteligente; la optimización del servicio, personalización del servicio, y la aceptación social. La optimización del servicio se logrará con el uso de la tecnología móvil y el registro de datos bajo el estándar GTFS, la personalización del servicio se realiza por me-dio de un servicio en la nube que ofrecerá la información que el usuario solicite y la aceptación social una vez que el proyecto es implementado se busca la adaptación de este con la sociedad y mejora para el fácil uso de la sociedad. Por lo tanto, se buscó crear una arquitectura que facilite la creación del transporte urbano inteligente que abarque y se acople a la perfección con los factores del transporte urbano inteligente. Una vez realizada la fusión de las arquitecturas mencionadas se puede apreciar el comportamiento que se divide en dos grupos, el primer grupo de características. En seguida hay un segundo nivel que encaja al desarrollo de la arquitectura de OBA los cuales son servicio de alertas y estimaciones, Servidor OBA, GTFS y Servidor de la agencia de movilidad. Para la interacción entre cada uno de ellos debe generar los resultados en específico para el origen del transporte urbano inteligente. El primer módulo, seguimiento y servicios de alertar y notificaciones, estos dos interactúan de tal manera que las diferentes alertas de la aplicación se reflejen en el sistema. El segundo módulo, aseguramiento de la calidad y servidor OBA para la peticiones y respuestas dadas entre la aplicación y el servidor deben sincronizarse de tal manera que se puedan resolver la comunicación con el usuario. El tercer módulo es la estandarización que propone la arquitectura es el módulo GTFS, un modelo para el nacimiento de un sistema urbano inteligente y que logra satisfacer la demanda que solicitada por parte del usuario. El cuarto modulo es la accesibilidad de datos el cuan se conjuga con la agencia o concesionaria, los datos GTFS, así como información del sistema de transporte Esta arquitectura se origina a partir de las siguientes arquitecturas Framework de Smart Cities y Framework de Cloud Computing. Esta arquitectura es la base la para todo transporte inteligente que esté basado en el estándar GTFS y se muestra a continuación.  


CONCLUSIONES

Durante la estancia del verano se propuso la implementación y adaptación de la arquitectura TUI, con la finalidad de poder crear un entorno de movilidad inteligente, enfocándonos en el área de transporte urbano, siendo una necesidad el poder crear un servicio que no solo mejore la manera de trasladarse de la sociedad, sino que haga crecer a la ciudad misma. Para validar el primer modulo de la arquitectura TUI, referente al servicio de alertas y estimaciones, se decidió por utilizar el esquema estadístico de series de tiempo, esto debido a la facilidad de extracción de información estadística útil, en este caso, comprobar y justificar un correcto muestreo de los tiempos de cada parada y la confiabilidad de los datos proporcionados con la finalidad de obtener tiempos precisos dentro de las alertas que la aplicación ejecuta hacia los usuarios.  Si bien parte de la arquitectura en un primer modulo ha sido justificada, el trabajo a futuro pretende realizar una abstracción a fondo de esta y de sus diferentes módulos. Así mismo en la construcción de métodos de optimización de tiempos, logrando un enfoque que proporcione alertas aun mas precisas para los usuarios dentro del uso de la aplicación a desarrollar. Con un primer modulo definido, se logra visualizar un entendimiento claro del uso de la arquitectura y su necesidad de implantación.
Montes de Oca Medina Saúl, Instituto Tecnológico Superior de Uruapan
Asesor: Ing. Antonio Palomares Diaz, Instituto Tecnológico Superior de Uruapan

SISTEMA DE MEJORA EN UN PROCESO PRODUCTIVO MEDIANTE UN MODELO DE SIMULACIÓN EN LA EMPRESA “AVOPRODUCE MÉXICO S DE PR DEL RL DE CV”


SISTEMA DE MEJORA EN UN PROCESO PRODUCTIVO MEDIANTE UN MODELO DE SIMULACIÓN EN LA EMPRESA “AVOPRODUCE MÉXICO S DE PR DEL RL DE CV”

Montes de Oca Medina Saúl, Instituto Tecnológico Superior de Uruapan. Asesor: Ing. Antonio Palomares Diaz, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Actualmente AVOPRODUCE MÉXICO S DE PR DEL RL DE CV no cumple con los requerimientos meta de producción de lotes debido a distintas problemáticas y factores que se presentan dentro del área. Una de ellas y la principal, es que el producto no alcanza a ser empacado eficientemente, es decir, se genera una sobrecarga del producto lo que ocasiona que este se caiga ya que la banda que transporta la caja en la cual se vaciará el producto no logra abastecer la demanda. Para resolver este problema, el personal encargado utiliza cajas diferentes a la del empacado original lo cual ocasiona que al terminar la jornada de trabajo se vean en la necesidad de reempacar el producto en cajas adecuadas.



METODOLOGÍA

El desarrollo del presente proyecto de investigación se clasificó en distintas fases. La primera se fundamentó en la observación y recolección de datos reales sobre la problemática planteada para posteriormente ser analizadas (obteniendo el tipo de distribución a la que corresponden dichas muestras) La segunda fase consistió en crear el modelo de simulación mediante el software Promodel el cual fue alimentado con los datos obtenidos, se detalló e implementaron las correspondientes propuestas de mejora al proceso Se realizaron distintas pruebas dentro del modelo de simulación con la finalidad de observar la relevancia de la implementación de las mejoras al proceso, en donde se logró identificar que, adecuando dichas mejoras se obtiene un proceso estable, reduciendo significativamente el problema planteado anteriormente. La propuesta de mejora consistió en lo siguiente: realizar una modificación a las bandas que transportan las cajas de empaquetado mediante el uso de variadores de velocidad lo cual ayuda a controlar los tiempos entre llegadas, y que, con ello, el personal tenga el tiempo suficiente para empacar cada caja eficazmente.


CONCLUSIONES

Mediante el uso de distintas herramientas de Ingeniería Industrial se lograron observar dos puntos principales, como sería el funcionamiento del sistema de producción y las mejoras que se podrían obtener mediante la implementación de la propuesta de mejora, el problema de empacado disminuyó significativamente, logrando la reducción de los retrabajos. Aumentando eficazmente la calidad en el producto.  El presente trabajo de investigación fue realizado bajo la supervisión y ayuda del Ing. Antonio Palomares Diaz a quien me gustaría expresar mi agradecimiento por hacer posible la realización de este estudio. Gracias por su apoyo.
Montes Trejo Erasmo, Instituto Tecnológico de Pachuca
Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California

DISEñO Y DESARROLLO DE UN SISTEMA ALTERNATIVO DE GENERACIóN DE ENERGíA SUSTENTABLE PARA TRANSPORTE


DISEñO Y DESARROLLO DE UN SISTEMA ALTERNATIVO DE GENERACIóN DE ENERGíA SUSTENTABLE PARA TRANSPORTE

Herrera Ivares Daniel Francisco, Instituto Tecnológico de Pachuca. Montes Trejo Erasmo, Instituto Tecnológico de Pachuca. Asesor: Dr. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, la calidad del producto y el tiempo de vida para alimentos perecederos es primordial en el servicio de transportes de mercancía, no obstante, el transporte terrestre es el que se encuentra sujeto a distintas condiciones de temperatura. En México se ubican una gran variedad de empresas de autotransportes distribuidas por toda la república con aproximadamente un millón de distintas unidades, a los cuales el 7.2%, es decir, poco más de 70 mil, pertenece a los transportes con cajas refrigerantes.(Secretaria de Comunicaciones y transportes, 2018). Estos transportes funcionan mediante el uso de sistemas de control de temperatura para mantener las condiciones ambientales para la conservación del producto transportado. Para su funcionamiento estos consumen diésel, en promedio, aproximadamente cuatro litros por hora dependiendo de la temperatura externa y la temperatura interna (Grupo de Thermoking, 2014). Sin embargo, la mayoría de los transportes por este medio tardan de 6 a 14 días dependiendo del punto de partida y el destino, para el cual, sistema de control de temperatura debe estar encendido y controlando la temperatura para evitar la pérdida de su carga, hablamos de aproximadamente 96 litros al día de consumo de diésel. ¿Será posible reducir el consumo de combustible implementando medios alternativos energéticos a través de fuerza eólica para el funcionamiento de cajas refrigerantes?



METODOLOGÍA

Se utilizará la metodología para el desarrollo de productos. (Santiago Sierra López, 2009) Investigación En primera instancia se realizó una investigación concreta que busque la necesidad, innovación, eficiencia, eficacia y beneficios al implementar un sistema alternativo de ventilación eólica. Así mismo, efectuar una búsqueda de empresas productoras de cajas refrigerantes, estado actual ante otros productos similares y carencias en cuanto la eficiencia. Para identificar necesidades se debe ejecutar una investigación de campo visitando empresas productoras y camiones que están en actual servicio para el análisis de eficiencia. Así mismo, el análisis del mercado conlleva una búsqueda de información de los productos similares en el mercado (catálogos, almacenes, revistas, Internet, etc.) y un registro de los productos de la competencia.  Por último, se elabora un cuadro comparativo con los productos que se cree, puedan ser los más competitivos con el nuevo producto y sacar conclusiones. Diseño conceptual En esta fase del diseño del producto se da solución a los problemas que plantean las especificaciones, para luego proponer un modelo de producto final que cumpla con las funciones necesarias para satisfacer la demanda de energía de la caja refrigerante mediante un sistema alternativo de ventilación eólica. Así pues, se está desarrollando la primera fase del diseño del producto. Diseño formal Una vez ya definidos los requerimientos del producto se procede a realizar un estudio o análisis formal para luego generar una serie de conceptos del producto final, donde el mejor, se convierte en la alternativa a desarrollar. Exploración formal, consiste en realizar una exploración muy detallada, con las imágenes recopiladas del contexto, eficiencia y eficacia que describe el proyecto para obtener diseños, formas, materiales y texturas que serán necesarias en la elaboración del sistema alternativo. Generación de alternativas, consiste en una lluvia de ideas en base a los diseños, formas, materiales y texturas de PDS, para realizar bosquejos del producto final. Selección de alternativas, consiste en desarrollar alternativas sintetizando todas las ideas anteriores en al menos cinco alternativas que serán evaluadas posteriormente mediante una matriz de evaluación para posteriormente hacer ambientación de las alternativas seleccionadas mediante el software CAD. Diseño de detalle Posterior al estudio formal y selección de una propuesta final, se ejecuta el diseño más detallado para su desarrollo posterior. Analizar aspectos funcionales, dimensionales, formales y materiales generará la propuesta para ser una alternativa competitiva en el mercado global. El modelado 3D consiste en el modelar partes, crear planos, verificar medidas y diseñar a detalle las partes. Pruebas al producto consiste en verificar la resistencia ante distintas situaciones del producto a través de software para pruebas virtuales. Creación y materialización, consiste en la elaboración del prototipo realizando un análisis de costos para posteriormente pasar a la elaboración del producto mediante distintos métodos.   Pruebas finales Pruebas técnicas, consiste en pruebas de funcionalidad y a distintas situaciones a las que será sometido nuestro producto. Pruebas de usuario, en este punto de ejecutan pruebas de funcionamiento en viajes reales, donde el producto funciona durante un periodo de tiempo establecido, esto con el fin de observar y analizar el comportamiento del prototipo ante la caja refrigerante y la interacción del viento con la batería.


CONCLUSIONES

El protocolo realizado durante la estancia del programa Delfín mostrará como resultado la generación de un nuevo producto que ayuda a la reducción de las emisiones generadas por Diesel, esto a través de un sistema sustentable alternativo de energía. El producto se basa en reducir un 70% el consumo de Diesel destinado para el sistema de refrigeración, con el objetivo de ayudar a las empresas de giro logístico que trabajan constantemente para cubrir la demanda generada por la exportación de productos a los países de Estados Unidos y Canadá, que son los principales consumidores de productos perecederos transportados por vía terrestre. Con estos negocios de producción agroalimentaria, México se posiciona entre los primeros lugares de este tipo de comercio. El producto consistirá en una caja de recepción de energía mediante un sistema adecuado en cuanto al modelo de los camiones, el cual se implementará en un lugar específico alrededor del tráiler.
Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Montiel Cruz Uriel, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango

APLICACIONES CLIENTE/SERVIDOR PARA DISPOSITIVOS MóVILES


APLICACIONES CLIENTE/SERVIDOR PARA DISPOSITIVOS MóVILES

Montiel Cruz Uriel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Los dispositivos móviles tienen la capacidad de llevar a cabo conexiones entre ellos o con otros equipos, esta última modalidad es la más utilizada con el inconveniente que se requiere de esos otros equipos, que generalmente son servidores web a los que se debe de acceder por medio de alguna red, ya sea WiFi o celular. En este caso se trabaja con un proyecto en el que los dispositivos se deben comunicar entre ellos sin la necesidad de un equipo externo, por lo que se ha desarrollado una aplicación para que uno de ellos se convierta en servidor y los demás se conviertan en clientes; después de un determinado tiempo, los clientes se convierten en servidores y realizan la búsqueda de otros dispositivos móviles que no se encuentren en el rango de alcance del primero, lo que nos da la posibilidad de generar una red en malla donde los dispositivos tienen la capacidad de buscarse y encontrarse entre ellos para generar el mapa general de la red.



METODOLOGÍA

Para el desarrollo de la aplicación, se llevó a cabo una metodología de desarrollo de software incremental, dando inicio con una aplicación en Java de tipo consola para llevar a cabo la programación básica de un cliente y un servidor; la segunda fase se desarrolló para aplicación de escritorio con la misma funcionalidad; para la tercera fase se le agregó la funcionalidad de un servidor con varios clientes; para la cuarta fase se transportó la aplicación de cliente a dispositivos móviles, y la conexión se realizó sin ningún inconveniente; para la última fase se transportó la aplicación del servidor a dispositivos móviles y se logró la conectividad entre ellos. Para cada una de estas fases se llevó a cabo el levantamiento de requerimientos, análisis, diseño, desarrollo, pruebas y documentación.


CONCLUSIONES

Las aplicaciones que se desarrollan en un lenguaje de programación pueden ser utilizadas en cualquier equipo o dispositivo que lo soporte, con la ventaja que únicamente se realizan cambios en las interfaces gráficas de usuario y en los métodos para acceder a los objetos de diseño y tomar o actualizar la información que contienen. Para mi participar en el programa delfín fue una gran experiencia ya que obtuve con éxito los conocimientos necesarios para construir aplicaciones móviles, así mismo entender cómo funcionan las comunicaciones entre dispositivos, logrando crear esta aplicación.
Montiel Mendoza Johan Jezreel, Instituto Tecnológico de Pachuca
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

INTERFAZ GRáFICA PARA MONITOREO DE SENSORES EN EL SITE DEL CENTRO UNIVERSITARIO DE LOS VALLES


INTERFAZ GRáFICA PARA MONITOREO DE SENSORES EN EL SITE DEL CENTRO UNIVERSITARIO DE LOS VALLES

Montiel Mendoza Johan Jezreel, Instituto Tecnológico de Pachuca. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las aplicaciones web han ganado popularidad en los últimos años. Su compatibilidad con cualquier sistema operativo y su bajo o nulo mantenimiento las convierten en una muy buena opción para los usuarios finales. Por ello se decidió realizar una aplicación web que funcione como una interfaz gráfica que muestre los resultados arrojados por unos sensores conectados en un sistema embebido.



METODOLOGÍA

Para la creación de esta interfaz gráfica use el lenguaje de programación PHP que sirve para fundamentalmente para crear sitios web dinámicos. Un sitio con páginas dinámicas es el que permite interactuar con el visitante, de modo que cada usuario que visita la página vea la información modificada para requisitos particulares. El contenido visualizado en una web dinámica se genera de la información obtenida de una base de datos u otra fuente externa. De este modo, los datos y la forma de visualizarlos quedan separados. Así mismo utilice JQuery el cual es una librería de código abierto que simplifica la tarea de programar en JavaScript y permite agregar interactividad a un sitio web. También para el manejo de la información aplique JSON, este es un estándar basado en texto plano para el intercambio de información, por lo que se usa en muchos sistemas que requieren mostrar o enviar información para ser interpretada por otros sistemas. Además, emplee Bootstrap que un framework que permite crear interfaces web con CSS y JavaScript, cuya particularidad es la de adaptar la interfaz del sitio web al tamaño del dispositivo en que se visualice. Es decir, el sitio web se adapta automáticamente al tamaño de una PC, una Tablet u otro dispositivo. Esta técnica de diseño y desarrollo se conoce como responsive design o diseño adaptativo. El beneficio de usar responsive design en un sitio web, es principalmente que el sitio web se adapta automáticamente al dispositivo desde donde se acceda. Con el conjunto de las tecnologías mencionadas anteriormente se realizó una aplicación web, para mostrar la información arrojada por unos sensores en un sistema embebido.


CONCLUSIONES

Durante la estancia de verano logre adquirir conocimientos teóricos y prácticos de la creación de interfaces gráficas mediante el desarrollo de una aplicación web, así como el uso de tecnologías presentes en el desarrollo de sistemas del internet de las cosas.
Montis Mackenson, Instituto Tecnológico de Zitácuaro
Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)

TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE


TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE

Montis Mackenson, Instituto Tecnológico de Zitácuaro. Sierra Alvarado Maria Fernanda, Universidad Estatal de Sonora. Valladares Romero Hugo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El crecimiento exponencial de la población y el aumento de la pobreza en diferentes ciudades del mundo, ha provocado un impacto considerable en el sector construcción. En América Latina y el Caribe, los gobiernos han incorporado en sus planes de desarrollo, varios programas de construcción de viviendas sociales para satisfacer la demanda de alojamiento. Sin embargo, estos programas generalmente no toman en cuenta la implementación de las tecnologías limpias en el proceso de diseño de las mismas. Además, no se presenta una sólida difusión de esas tecnologías y de los beneficios humanos, ambientales y económicos que conllevan. Debido al lento proceso de adopción de las tecnologías limpias y a las limitadas especificaciones de las políticas ambientales para su correcta aplicación, no se destina una financiación suficiente para la implementación de esas tecnologías en las viviendas sociales.



METODOLOGÍA

El proceso de realización de este trabajo se orientó en cuatro puntos: delimitación del área de estudio, búsqueda de información, revisión bibliográfica y análisis de la información obtenida. El trabajo se enfocó específicamente en América Latina y el Caribe, tomando como referencia países como México, Colombia y Haití. La búsqueda de información se realizó exclusivamente en la plataforma SCOPUS, que es una de las bases de datos científicas más importantes de citas y resúmenes de literatura arbitrada a nivel mundial. Para el análisis de información, se usó la herramienta VOSviewer para obtener la relación entre los autores, temas, países y año de publicación de los diferentes artículos obtenidos en cada búsqueda. Se complementó el ejercicio con Zotero que permitió obtener la línea de tiempo de los artículos seleccionados para delimitarlos, considerando los más recientes. Después de obtener los artículos necesarios para el trabajo, se realizó un análisis profundo de los mismos. A través de este análisis se compararon las ideas generales y así confrontarlas para sacar las conclusiones apropiadas y presentar algunas propuestas.


CONCLUSIONES

La obligación de los gobiernos es destinar suficientes recursos públicos o privados para implementar las tecnologías limpias en la vivienda social. También, los programas existentes para la producción de viviendas sociales en América Latina y el Caribe requieren de capacitación dirigida tanto al usuario como al constructor. Además, se debe tomar en cuenta estrategias de diseño pasivo y urbanismo sostenible en el diseño de las mimas, de esta manera se logrará un mercado de amplia difusión y una cultura de adopción en los procesos constructivos desde la perspectiva privada, pública o mixta.
Montoya Romero Mónica María, Instituto Tecnológico de Los Mochis
Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango

APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.


APLICACIóN DE DISEñO DE EXPERIMENTOS CON UN FACTOR, PARA EL ANáLISIS DEL TIEMPO DE SECADO EN BIOPLáSTICO.

Cruz Marquez Diana Jovana, Instituto Tecnológico Superior de Huauchinango. Maldonado Amador Anneth Guadalupe, Instituto Tecnológico Superior de Huauchinango. Montoya Romero Mónica María, Instituto Tecnológico de Los Mochis. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de nuevos materiales de tipo ambiental involucra la utilización de biopolímeros o la combinación de ellos, con el fin de reducir el impacto generado por los polímeros tradicionales, aunque si bien es cierto que estos materiales no pretenden desplazar a los existentes, si se pueden minimizar el uso de estos, colocándolos como una alternativa sustentable para diversas aplicaciones. La investigación de esta problemática se realizó por el interés de reducir el uso de plástico de origen fósil, el cual tiene un proceso de degradación de aproximadamente 1000 años y que aun así no se degrada de manera completa, se sabe que en la época actual, se han fabricado aproximadamente 8.3 mil millones de toneladas de plástico desde el origen de su producción que data del año 1950, lo que equivale al peso de unos mil millones de elefantes, así mismo se estima que alrededor de 10 millones de toneladas de plástico acaban en el océano cada año, de acuerdo con esta problemática el proyecto de investigación a desarrollar tiene como objetivo analizar el tiempo de secado en bioplástico a base de residuos orgánicos, utilizando el diseño de experimentos con un solo factor, con la finalidad de estandarizar su proceso de obtención.



METODOLOGÍA

De acuerdo con la investigación documental realizada, se determinó la ejecución del proyecto de investigación en cinco etapas: planteamiento del problema, planeación del experimento, ejecución de las corridas experimentales, verificación o análisis de resultados e interpretación de los resultados. Planteamiento del problema En primera instancia, se identificaron cuáles son las variables existentes, es decir las  variables de salida (tiempo de secado), las variables de operación (temperatura, método de secado) y las principales entradas (tipos de residuos orgánicos, cantidad). Al establecer las variables o factores que intervienen en el experimento, se pueden unificar los factores que deben investigarse, es decir definir las formas de corroborar cada prueba experimental. Para el análisis de tiempo de secado del bioplástico se utilizó como unidad de medida el minuto, que es el parámetro que nos interesa.  Se tiene que tomar en cuenta los factores que podrían afectar al experimento y que no se pueden controlar. Ejecución de corridas experimentales Se llevaron a cabo un total ocho corridas experimentales en las que se comparó el tiempo de secado, así como las características finales después de ese tiempo. Para llevar a cabo estas corridas se utilizó para cada una las medidas estándar (iguales para cada una) para la obtención de bioplástico, obtenidas previamente al experimento: glicerina, vinagre, almidón (fécula de maíz), agua. El factor de interés en el experimento corresponde a los desechos orgánicos con características propias que podrían permitir la plastificación, por ejemplo el aporte de almidón en su estructura, la cantidad de agua presente, la cantidad de pectina e incluso la resistencia a la degradación, para ello se seleccionaron ocho tipos de residuos orgánicos: sandía, tuna, pepino, naranja, melón, nopal y  mango; de los cuales se tomaron seis muestras para cada uno, teniendo 48 observaciones. Cada corrida fue expuesta a 70º C durante 180 minutos en promedio, con ayuda de un horno eléctrico, consideramos para cada observación 11±1 gramos. Se utilizaron moldes de aluminio de 2.5 gramos en promedio, y para facilitar el desprendimiento del molde se utilizó papel encerado comercial. Los instrumentos de medición que se emplearon para estudiar las observaciones fueron: bascula digital, termómetro de infrarrojo y cronometro, para medir masa, temperatura y tiempo, respectivamente. Se registraron los tiempos de secado para cada observación, así como también las características finales de cada una, por ejemplo apariencia, fracturas en la consistencia, reducción de tamaño, cambio color, desprendimiento del molde y flexibilidad. Verificación o análisis de resultados Al ejecutar las ocho corridas experimentales de acuerdo con el  diseño de experimentos de un solo factor a través del software Minitab 17, se obtuvo  el análisis de la varianza (ANOVA), rechazando la hipótesis nula con un valor P de 0,000 con un  nivel de confianza de 95%, que indica que todos los tratamientos influyen de manera significativa sobre el tiempo de secado para la obtención del bioplástico. Con respecto a las gráficas de la prueba anterior y las pruebas de rangos múltiples se observa una similitud en los resultados en las que las cascaras de mango y de plátano tuvieron un tiempo de secado similar, 180 minutos. Interpretación de los resultados En relación con el análisis anterior, aun cuando todas las corridas experimentales mostraron influencia significativa sobre la variable de respuesta, no todas las corridas experimentales propician la formación del bioplástico, los tratamientos a destacar son los residuos a base de mango, plátano  y penca de nopal, estos mostraron características similares a las del plástico, por otra parte las corridas más desfavorecidas fueron los tratamientos de pepino, sandía, melón, tuna y naranja.  


CONCLUSIONES

Durante la estancia de investigación se lograron adquirir diversos conocimientos relacionados a la estadística inferencial. La planeación y ejecución de corridas experimentales ayudó en el fortalecimiento de las habilidades académicas propias de los  estudiantes de ingeniería industrial, por su parte, él trabajó en equipo, sin lugar a dudas fue una pieza clave para lograr los objetivos planteados, ya que cada integrante mostró distintas aptitudes relevantes para el proyecto. En efecto, esta estancia vigorizó el espíritu de investigación. Con la experimentación sabemos que la cascara de mango es la idónea para la producción de bioplástico. Cabe señalar que con este resultado podemos continuar con más experimentos en los que se pruebe la flexibilidad de este residuo para combinarse con otros, que de alguna forma poseen características similares en composición molecular.
Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato

MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.


MODELO DE UN SENSOR ULTRASóNICO PARA APLICACIONES DE ROBOT DE SERVICIO.

Baza Rodriguez Juan Antonio, Instituto Tecnológico Superior de Huauchinango. Cabrera Sampayo Edgar Jahir, Instituto Tecnológico Superior de Huauchinango. Cruz Peralta Emmanuel Isaias, Universidad Autónoma Benito Juárez de Oaxaca. Lopez Perez Tomas, Universidad Autónoma Benito Juárez de Oaxaca. Mora Barrios José Roman, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Mario Alberto Ibarra Manzano, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Uno de las tareas mas importantes en robotica es la deteccion de obstaculos, esta tarea ha sido estudiada por decadas, uno de los principales problemas en la misma es considerar la incertidumbre en los sensores, este problema se incrementa considerando los ambientes estructurados en los cuales debe navegar los robots de servicio. Entre las diversas opciones tecnologicas una de las mejores son los sensores ultrasonicos, que, aunque son complicados de modelar, su respuesta es rapida y segura para ser implementados en ambientes no controlados. Sin embargo, en el caso de la medicion con cierto tamaño y orientacion no sean visto por el sensor, o que en general aparezcan mas lejos de lo que realmente estan, para esto se necesita implementar un algoritmo para la cracion de mapas de ocupacion para la deteccion de obstaculos aplicado en un robot movil de servicio. Será diseñado en LabVIEW y mediante un análisis estadístico se construirá un modelo probabilista del sensor para mejor la detección, además de utilizar un modelo logarítmico para crear y fusionar los mapas temporales en un mapa global único.



METODOLOGÍA

Considerando un ambiente estructurado, en el cual navega el robot, es necesario considerar primero un modelo estatico del sensor que permita parametrizar el funcionamiento del sensor bajo incertidumbre. Considerando los parametros estadisticos y mediante una validacion estadistica es posible estimar el funcionamiento del sensor considerando que el valor no siempre es confiable. Extendiendo este analisis a un proceso dinamico, es posible considerar los efectos del movimiento del robot en la deteccion y como esta afecta en la incertidumbre, esto nos permite refinar la deteccion y tener una mejor respuesta en la contruccion del maoa y por lo tanto en la deteccion y despazamiento del robot en el ambiente. El modelo del robot considera diversos aspectos, como, por ejemplo: el espacio donde el robot se desenvolvera y el entorno del cual recibira informacion para establecer las instrucciones de programacion correctas. Fijar el valor de la velocidad a la cual el robot seguira una pared y asi determinara si el programa cumple con las restricciones establecidas.  


CONCLUSIONES

Es un proyecto muy viable que forja los conocimientos de practicantes de robótica, como de estudiantes de ingeniería en electrónica, mecatrónica, sistemas computacionales y en el área de control, por tanto se debe cumplir con ciertos conocimientos de las diversas ramas mencionadas para llevar a cabo éste proyecto. La finalidad de la práctica ha sido poner a prueba los conocimientos adquiridos a lo largo de los pequeños proyectos anteriormente realizados, ya que se necesita saber el manejo del sensor ultrasónico y del control y ajuste de la velocidad de los motores, para elaborar un programa que establece instrucciones al robot para seguir una pared.
Mora Pérez Yoany Stephany, Universidad de Colima
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.


PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.

Mora Pérez Yoany Stephany, Universidad de Colima. Ramírez Camacho Brayan Alexis, Universidad de Sonora. Torres Quintero Mario Rafael, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La astronomía de Ondas Gravitacionales (OG) se logró consolidar gracias a la implementación de una red de observatorios interferométricos: dos por parte de LIGO (Laser Interferometer Gravitational-Wave Observatory, por sus siglas en inglés) situados en Livingston y Handford, Estados Unidos, además de Virgo, en Cascina, Italia; éstos están basados en el interferómetro de Michelson-Morley y son capaces de detectar cambios de longitud más pequeños que un átomo. El presente estudio examina la relación que existe entre la ubicación, la orientación, o los parámetros de construcción de un detector interferométrico, además de la posición sobre la bóveda celeste de la fuente emisora de OG con la señal que se proyecta en los registros.



METODOLOGÍA

Para el análisis de datos se utilizaron las librerías PyCBC y LAAL  del lenguaje de programación Python, con las cuales se estudió la influencia del Patrón de Antena (la dependencia entre la sensibilidad del detector y su posición con respecto a una fuente) en las señales de ondas gravitacionales proyectadas sobre los detectores. Las fuentes astronómicas que se tomaron como objetos de estudio fueron la colisión del sistema binario GW150914 y las explosiones de supernovas SN2017gax y 2015as. Los análisis se efectuaron sobre series de tiempo.


CONCLUSIONES

En este trabajo se determinó que la posición en el cielo de la fuente de las Ondas Gravitacionales, la ubicación del interferómetro y la construcción de éste son factores que determinan la intensidad de la señal obtenida en los detectores. Existen ubicaciones para las cuales la respuesta del detector será máxima y otras en las cuales no se detectará el paso de una Onda Gravitacional.  Se obtuvo también la dependencia del ángulo de polarización de la onda para los interferómetros, además del patrón de antena para cada uno de los detectores y para las tres fuentes.
Mora Ruiz Maritza, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Ing. Juan Gabriel Hernández Vásquez, Tecnológico de Estudios Superiores de Valle de Bravo

MANUAL DE MANTENIMIENTO PREVENTIVO DE LOS SISTEMAS DE GENERACIóN DE ENERGíA LIMPIA EN LA CIUDAD DEL CONOCIMIENTO Y LA CULTURA DE HIDALGO


MANUAL DE MANTENIMIENTO PREVENTIVO DE LOS SISTEMAS DE GENERACIóN DE ENERGíA LIMPIA EN LA CIUDAD DEL CONOCIMIENTO Y LA CULTURA DE HIDALGO

Mora Ruiz Maritza, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Ing. Juan Gabriel Hernández Vásquez, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

La Ciudad del Conocimiento y la Cultura de Hidalgo (CCyCH) es un tecnopolo ubicado en San Agustín Tlaxiaca, Hidalgo, México, tiene un alto compromiso en su diseño y la sustentabilidad ambiental, por lo que cuenta con diferentes sistemas de generación de energía limpia (sistemas fotovoltaicos, Smart Flower y aerogeneradores). Actualmente se está aplicando un mantenimiento correctivo a los diferentes sistemas de generación de energía limpia el cual consiste en: Revisión física de componentes que integran a la instalación eléctrica Toma de lecturas con equipo de medición Identificación de circuitos Equipo detectado con daños en sitio, para reemplazo o mantenimiento preventivo: Conductores deteriorados. Terminales dañadas. Empalmes sin aislamiento, etc. Baterías, celdas, controladores o inversores dañados. Fue necesario realizar este mantenimiento, ya que anteriormente no se aplicaba ningún plan de mantenimiento, lo que provoco diversos daños en los sistemas de generación limpia.  Por esta razón, se tiene la necesidad de diseñar un plan de mantenimiento preventivo para su posterior aplicación, esto para alargar la vida útil de los sistemas; así como, para garantizar su correcto funcionamiento.



METODOLOGÍA

Este proyecto de investigación es de índole descriptiva - evaluativa, ya que se propone revisar, analizar y describir la situación inicial, lo que permite identificar el problema y diseñar la solución basada en un plan de mantenimiento preventivo, para después implementarlo. Al inicio de este proyecto se realiza un diagrama causa-efecto para encontrar la causa raíz que ocasiona el problema, la causa raíz encontrada es que no existe un plan de mantenimiento preventivo, la solución encontrada para la problemática fue realizar un manual de mantenimiento preventivo. Para la elaboración del manual de mantenimiento preventivo de la CCyCH se empieza por conocer a los sistemas de generación de energía limpia mediante sus fichas técnicas y sus diagramas unifilares. Luego, se establecen los aspectos de seguridad con los que se estarán trabajando en el mantenimiento preventivo. Posteriormente, se realiza un estudio de la situación actual respecto al mantenimiento de los sistemas de generación de energía limpia para poder establecer cuál es la principal problemática a la que se enfrentan. Gracias al estudio de la situación actual, se procederá a enlistar las actividades importantes en el mantenimiento preventivo de los equipos para poder establecer con claridad las actividades que se van a incluir en el plan de mantenimiento preventivo de los seis sistemas de generación de energía limpia: Alumbrado público en avenida principal Elemento escultórico en glorieta Pabellón de acceso (Modulo de información) Pórtico de acceso a CCyCH (ADN) Plaza de acceso a CCyCH (Smart Flower) Después, se diseña el programa de mantenimiento preventivo, mencionando las actividades y con qué frecuencia se deben realizar en cada sistema. Finalmente, como una opción en la Ciudad del Conocimineto, se buscará la implementación de una manual de manntenimiento preventivo.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos del mantenimiento para posteriormente ponerlos en práctica para la elaboración de un manual de mantenimiento preventivo en la CCyCH, al desarrollarlo se utilizaron una serie de procedimientos que ayudaran a llevar acabó el mantenimiento preventivo. El principal objetivo de este material de apoyo es que el mantenimiento siempre sea preventivo y no correctivo, ya que, este mantenimiento genera altos costos, pérdidas significativas y accidentes. En este proyecto no se conoce el impacto, puesto que solo se trabajó en el diseño del manual, estos impactos se conocerán con la aplicación de este, que será en un plazo de seis meses. Se piensa que el impacto que se obtendrá será notable, y esto se podrá comprobar por medio de un análisis donde se conocerá el impacto real. De igual manera se sabrá si es completamente factible o si se debe realizar alguna modificación para mejorar el impacto y evitar costos de mantenimiento correctivo.
Mora Tinajero Juan Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes

DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.


DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.

Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes. Garcia Bucio Graciela, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Tinajero Juan Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Sanchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las MIPYMES independientemente del sector en el que se analicen, es evidente que se han convertido en un factor indiscutible para el crecimiento económico de nuestro país, sin embargo, debido a la mala planeación, escases de recursos, mala administración financiera entre otros factores se han posicionado en el sector como uno de los más desalentadores en términos de consolidación y crecimiento a corto mediano y largo plazo, en datos de la encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas (ENAPROCE), presentado por el INEGI(2015), nos muestran que el promedio de vida es menor a los 2 años, sumándole que el 75% de las mismas no logra consolidarse o desaparecen de manera definitiva en el mismo lapso de tiempo, datos alarmantes que nos invitan a realizar una retrospectiva minuciosa a fin de subsanar los errores cometidos en el pasado con la finalidad de fortalecer de manera holística a las empresas y a los stakeholders que forman parte de esta importantísima cadena de valor. La presente línea de investigación se centra principalmente en conocer si los modelos actuales para la elaboración de proyectos de inversión, contienen los elementos necesarios para el correcto uso de los emprendedores que les permitan tener una visión certera del panorama de sus inversiones, por último y con el fin de dar solución al problema, es necesario el desarrollo y aplicación de un modelo de inversión con el objetivo de conocer si impacta en el éxito o fracaso de las micro, pequeñas y medianas empresas agroindustriales del estado de Michoacán.



METODOLOGÍA

IDEA: Al iniciar se tomó en cuenta a donde se pretendía llegar con este proyecto, que beneficios daría  y por lo tanto la realización que este mismo tendría y así concretar la idea para el comienzo del trabajo. PLANTEAMIENTO DEL PROBLEMA: Para su elaboración en primer lugar se tomó en cuenta la factibilidad que tendría la investigación durante el tiempo que se estaría trabajando, expresando el tiempo en forma real y de igual manera llegar resolver las incógnitas que se obtuvieron en la elaboración de la idea. REVISIÓN LITERARIA: Este punto es clave para para la selección y formulación que se obtendrá en la investigación, para iniciar con la revisión se analizó el estudio de los temas que tuvieran cierta  relación, teniendo una visión más teórica, aceptando información necesaria y rechazando lo innecesario. Utilizando páginas confiables. ELABORACIÓN DEL INSTRUMENTO: Se desarrolló una encuesta con el fin de obtener los resultados. HIPÓTESIS ¿El factor principal factor de fracaso de las MIPYMES en el estado de Michoacán se debe a la incorrecta o nula planeación estratégica de los proyectos? DEFINICIÓN Y SELECCIÓN DE LA MUESTRA. Encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas ENAPROCE (2015), representan un total de 3505 empresas en total.


CONCLUSIONES

Se observa en la investigación elaborada una contribución a obtener información de las MIPYMES del estado de Michoacán, donde actualmente en la región de Los Reyes de Salgado se encuentra conformado en su mayoría por microempresas, estas empresas se caracterizan por una escasa formación de desarrollo de las habilidades empresariales, insuficientes sistemas de información, problemas de comercialización, bajo control administrativo y deficiente análisis mercadológico. Es por ello que para que una empresa sea exitosa y ampliamente competitiva se debe regir bajo un plan de negocios; tomando en cuenta los análisis y planes al momento de crear la empresa y hacerla crecer. Se llevó acabo el análisis de la relación que existe entre el éxito competitivo de cuatro factores relacionados con el ambiente interno y externos de las MIPYMES, específicamente en las áreas de: administración, técnicas, mercadológicas y financieras. Estas cuatro áreas mencionadas anteriormente son eficaces al momento de su desarrollo. Resultados obtenidos: un 64% de las empresas gira entorno a servicios en donde se enfoca como principal éxito en la cuestión de oferta y demanda de productos puesto que incrementa las ventas y sus precios los fijan de acuerdo al costo. En las agroindustrias encuestadas no elaboran ningún tipo de plan que garantice el éxito puesto que el 59% cree que no es útil planear los aspectos mercadológicos, así mismo el 61% dijo que no es de utilidad la elaboración de un plan financiero. Solo por abarcar algunos resultados, sin embargo en las 29 preguntas de la encuesta en su mayoría se obtuvieron resultados alarmantes.
Morales Aldana Luis David, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

MODELO DE SIMULACIÓN DE FLUJO SUPERFICIAL PARA EL RIO ARMERÍA EN SAN GABRIEL,JALISCO,MÉXICO.


MODELO DE SIMULACIÓN DE FLUJO SUPERFICIAL PARA EL RIO ARMERÍA EN SAN GABRIEL,JALISCO,MÉXICO.

Ceragene Mackendy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Morales Aldana Luis David, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

El municipio de San Gabriel, ubicado en Jalisco, en 2019 ha tenido especial atención debido a lo que ha sucedido en el municipio en el temporal de lluvia, pero en especial el día 2 de Junio del 2019, en la Ciudad se vivió una de las peores contingencias que se habían tenido en el pueblo, una gran avalancha de agua, lodo y troncos arrastro todo lo que se encontró a su paso, dejando gran cantidad de afectaciones. San Gabriel es propenso a este tipo de situaciones debido a las pendientes tan pronunciadas que hay en su territorio y además de que es el fin de la cuenca, a donde llegan gran cantidad de escurrimientos.



METODOLOGÍA

Dentro de la metodología lo primero que realizamos fue una investigación sobre la problemática de las inundaciones con todos los elementos que intervienen  y en particular en la zona de San Gabriel, Jalisco. Recolectamos la información sobre población, orografía, topografía,  condiciones económicas y uso de suelo del municipio. Delimitamos la zona afectada dentro de google earth. Obtuvimos una idea de las dimensiones y trazo de la cuenca por medio del SIATL (Simulador de flujos de agua de cuencas). Obtención de todos los datos hidrológicos que se tenían de la cuenca y de la parte afectada. Realizamos el modelado de la cuenca por medio del programa ArcGis 10.1 Importamos lo hecho en ArcGis al programa Iber 2.5 y realizamos la simulación de lo ocurrido el 2 de Junio del 2019 para conocer el comportamiento en tirantes y velocidades. Obtención e interpretación de resultados


CONCLUSIONES

Se requiere instalar un equipo de medición de lluvia en la zona aguas arriba de la cuenca y otra en San Gabriel, para que en caso de una situación similar o mayor se pueda conocer la precipitación. Se requiere una actualización de la batimetría del río dado que ninguna dependencia (federal, estatal y municipal) cuenta con información de este tipo. Se tienen reportes de que días antes del evento hubo incendios de la zona alta del pueblo por lo que se requieren campañas de reforestación para mejorar la capacidad de infiltración. Se requieren obras de protección y mapas de riesgo para evitar daños a las viviendas y perdidas humanas en la comunidad de San Gabriel.
Morales Araujo Brenda, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES


MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES

González Cázares Héctor Iván, Instituto Tecnológico Superior de Uruapan. Morales Araujo Brenda, Instituto Tecnológico Superior de Uruapan. Pedraza Arriola Lizeth Vanessa, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

La fabricación de este banco es un elemento indispensable para el desarrollo del conjunto del motor y para la validación del material elaborado. Para el desarrollo del material compuesto laminar carbón-carbón, se requiere validarlo respecto a la aplicación para la cual se desarrolla. En este sentido, desde el punto de vista experimental debe contarse con un sistema físico que simule las condiciones de operación del motor para el que se ha desarrollado el material antes mencionado. Existen diferentes tipos de bancos de prueba acordes a las características de los motores que se desarrollan y a los parámetros de desempeño que se buscan medir. En general, los bancos de prueba más comunes cuentan con una cama de desplazamiento axial paralelo a la horizontal, lo que permite reducir los grados de libertad del motor. Este tipo de bancos son adecuados cuando se quieren medir variables térmicas y de flujo en el motor, como lo son las temperaturas de los componentes, las velocidades de descarga y el empuje axial resultante. En punto importante a considerar en el desarrollo de los bancos de pruebas es la potencia del motor, pues la estructura de soporte y los elementos de seguridad deben de ser acordes con las características de desempeño del mismo. De igual forma, la instrumentación debe ser planteada en términos de cada motor en específico.



METODOLOGÍA

La realización de este proyecto se llevó a cabo en la institución educativa UNAQ (Universidad Aeronáutica de Querétaro). El comienzo de esta investigación se debe a la búsqueda por realizar pruebas experimentales para la recopilación de información en sistemas de cohetes, así como para su post análisis. Es por ello que este estudio se presenta estructurado a manera de resumen, que contiene la información de la escuela hasta el avance final de dicha investigación.En este estudio lo primero que se llevó a cabo fue un análisis del diseño conceptual y de ingeniería así como de planos en CADâ de un banco de pruebas para el motor desarrollado en el proyecto Desarrollo de materiales compuestos laminados carbón- carbón para uso en componentes de sistemas de propulsión para lanzadores orbitales y suborbitales. Se tomaron en cuenta las consideraciones de diseño y el establecimiento de una configuración de prueba axial paralela a la horizontal, considerando las necesidades de la caracterización del comportamiento del motor acorde a lo proyectado por el diseño de la cámara, la tobera, además de la resistencia y desgaste del material desarrollado. El estudio de pruebas se ejecutó en el software de simulación ANSYS v8â Dichas simulaciones de pruebas fueron: Pruebas estructurales: Son una aproximación al diseño de casos en donde las pruebas se derivan a partir del conocimiento de la estructura de acuerdo a la carga. Pruebas Térmicas: Realizadas para aproximarse a las temperaturas soportadas en el material elegido. Pruebas Térmoestructurales: Pruebas efectuadas para conocer el valor cercano de deformación en la estructura de acuerdo a la temperatura. Gracias a esto nos permiten asegurar la resistencia del banco ante las condiciones de la prueba bajo los parámetros de operación esperados para el motor, así como la configuración en el plano general. Cabe resaltar que las pruebas fueron llevadas a cabo por compañeros de la institución señalados al final de este documento en la sección de agradecimientos. Una vez hechas las pruebas se comenzó con la manufactura del banco por lo cual se optó por utilizar Acero estructural A36 ya que debido a que es una aleación al carbono lo cual propicia una resistencia ultima a la tensión de 36,000 lb/pg2.  Además de la utilización de Acero inoxidable por sus características a la intemperie y su resistencia. Teniendo la materia prima era necesario fabricar las piezas para posteriormente ensamblarlas, las piezas se llevaron a cabo con diferentes maquinados CNC (Control Numérico Computarizado) tales como: Planeado: Para igualar y allanar las superficies o planos de la pieza. Barrenados: Para realizar agujeros. Cortes. Para ello se utilizaron los tratamientos antes mencionados con las correctas herramientas y con la capacitación de los profesores.


CONCLUSIONES

Las experiencias adquiridas en este verano durante la estancia en la UNAQ han sido inigualables, este trabajo nos sirvió para interiorizarnos y aprender de una manera más adecuada como se realiza un proyecto de investigación para en un futuro próximo tener una mejor visión y noción al momento de adentrarnos en un proyecto, así como el apoyo y entusiasmo que recibimos de nuestros asesores a lo largo del trabajo. La elección del tema expuesto tuvo origen en el interés que se nos presentó a todos los integrantes de este grupo al darnos cuenta que se necesitaba la fabricación de piezas bajo ciertas tolerancias y parámetros, por lo cual estaba relacionado con la carrera que actualmente estudiamos Ingeniería Industrial, a raíz de esto nos empezamos a informar sobre el tema de comprensión de planos en CAD, la Metrología de las instrumentos de medición y su correcta calibración, Medición de piezas, incluso indagamos en temas que desconocíamos pero que eran necesarios como Tipos de materiales, Características del Acero y sus aleaciones, Maquinados en CNC (para lo cual debimos leer un manual para su correcto funcionamiento además de recibir capacitación por parte de los profesores de la institución).  A partir de allí comenzamos a trabajar en el área de maquinados para fabricar las piezas necesarias para su ensamble posterior, todo esto nos ayudará para nuestra formación tanto profesional como personal ya que el hecho de trabajar en equipo fortalece la comunicación y las relaciones que uno genera para en un futuro crear las nuevas empresas mexicanas. AGRADECIMIENTOS No nos queda más que agradecer a todas las personas que estuvieron involucradas en este proyecto ya que sin ellos no hubiera sido posible esta investigación y por compartirnos todos sus conocimientos. Dr. Omar Aconeltzin Jiménez Arévalo Dr. Aris Iturbe Hernández Raúl Ramírez Reséndiz  Ingrid Astrid Orta Uribe Leonardo Guzmán Enríquez Gerardo Moreno González
Morales Basilio Yareli, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

ESTRUCTURAR BASES DE DATOS DE ESTACIONES DE MONITOREO UNAM: CONTAMINANTES


ESTRUCTURAR BASES DE DATOS DE ESTACIONES DE MONITOREO UNAM: CONTAMINANTES

Morales Basilio Yareli, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, la UNAM establece la Red Universitaria de Observatorios Atmosféricos (RUOA), para impulsar la investigación y la docencia de las ciencias atmosféricas en el país. A través de la interdisciplina y la cooperación institucional, el proyecto busca proveer de información atmosférica relevante y confiable para estudiar los problemas emergentes y dar soluciones a los retos que enfrenta el planeta en materia de contaminación atmosférica, cambio climático, recursos hídricos, seguridad alimentaria entre otros. Uno de los elementos que estudia es el carbono negro, se refiere al resultado de la combustión incompleta de diesel, biocombustibles y biomasa y es lo que da el color negro al hollín. Calienta al planeta mediante la absorción de radiación solar.



METODOLOGÍA

Descargar datos de la red de monitoreo ambiental de la UNAM: http://www.ruoa.unam.mx Revisar la estructura de datos sea homogénea (que hay datos en todos los campos para todas las fechas y eventos). Hacer la exploración de la base de datos de monitoreo de la UNAM, para responder ¿qué elementos mide?, ¿durante cuánto tiempo se han medido?, ¿y en qué zonas?.  


CONCLUSIONES

Con base en la exploración de los datos se muestran el resultado en una gráfica en la cual se encuentran los elementos que mide y durante que tiempo ha sido estudiado (para el elemento estudiado el año más reciente es 2017).    
Morales Cancino Enrique de Jesus, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya

CARACTERIZACIóN DE BIOPELíCULAS DE QUITOSANO CON ARCILLA DE CLOISITE NA+ PARA APLICACIONES BIOMéDICAS.


CARACTERIZACIóN DE BIOPELíCULAS DE QUITOSANO CON ARCILLA DE CLOISITE NA+ PARA APLICACIONES BIOMéDICAS.

Morales Cancino Enrique de Jesus, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya



PLANTEAMIENTO DEL PROBLEMA

Nurses Society (WOCN) define herida como una interrupción en la estructura y funciones de la piel y de los tejidos subyacentes, relacionada con diversas etiologías, como los traumatismos, las cirugías, la presión sostenida y las enfermedades vasculares. Por lo general, el proceso de una herida aguda pasará por las etapas del proceso de cicatrización de manera ininterrumpida, secuencial y en un periodo de tiempo predecible, lo cual conducirá al cierre de la lesión. No obstante, cuando la herida se detiene en alguna de estas etapas y excede los 21 días, la herida es considerada como crónica. Dicho estancamiento puede tener lugar debido a la interacción de diversos factores, como el estado nutricional del paciente, el nivel de oxigenación de los tejidos, una elevada carga bacteriana (más de 105 microorganismos por gramo de tejido), el exceso de humedad local, el estrés físico y emocional y la presencia de patologías análogas. La quitina, poli (β-(1à4)-N-acetil-D-glucosamina), es un polisacárido de mayor importancia, identificado por primera vez en 1884. Este biopolímero es sintetizado por un enorme número de organismos vivos y es el polímero más abundante después de la celulosa. Se sabe que una de las funciones de las arcillas es la absorción de la humedad, con la adición de arcilla de Cloisite Na+ se espera un mejoramiento para las biopeliculas de quitosano en las que se desea sean aplicadas en heridas superficiales, ya que estas suelen ser las más comunes, y asi ayudar a una cicatrización más efectiva y que no proliferen bacterias o evitar al máximo que estas se reproduzcan.



METODOLOGÍA

Preparación de solución de quitosano. Se preparó 1 litro de una solución al 1% de ácido acético glacial J.T Baker, posteriormente con la solución de ácido acético, se preparó otra solución al 1% de quitosano de peso molecular bajo marca Sigma Aldrich. Se llevaron a un Environ Shaker de la marca Lab-line (Shaker) a 250 rpm durante 20 horas para su disolución. Preparación de las soluciones para las biopelículas. En matraces Erlenmeyer de 125 ml se depositaron 25 ml de la solución previamente preparada de quitosano y se agregaron 0.125 gr de Cloisite Na+ dando como resultado una solución al 0.5% de la arcilla. Se pusieron en el Shaker a 250 rpm durante 1 hora y posteriormente fueron llevadas a un aparato de ultrasonido 2510 de la marca Branson durante 1 hora para que la arcilla se integrara en su totalidad a la solución de Quitosano. Las soluciones finales se pusieron en cajas Petri de 9.4 cm de diámetro y se dejaron en una campana durante 72 hrs. a temperatura ambiente para la formación de las películas. Prueba de difracción con Rayos X. De una biopelícula de recortó un cuadrado de 2 cm de lado para ponerlo a en una placa de aluminio que sería colocada en el difractor de rayos x EASYX600 con un ángulo inicial de 5° (Deg) y un ángulo final de 70° (Deg) con intervalos de 0,02° cada 0.1 segundos. Pruebas de tensión. Se utilizó una máquina de ensayos estáticos de materiales Zwick/Roell Z050 para pruebas de tensión, en donde se colocaron tiras de las biopeliculas de 70 mm de largo con 16 mm de ancho y con el apoyo de un digimatic caliper (Vernier) se obtuvo un grosor promedio de 0.062 mm. El área de prueba fue 480 mm2 (30 mm x 16 mm) y se utilizó una carga de 100 N con una velocidad de 5 mm/s. Pruebas de IR por Transformada de Fourier (FTIR). En un espectrofotómetro de Infrarrojo Nicolet iS5 Thermo SCIENTIFIC se colocaron una pequeña muestra de la arcilla de Cloisite Na+ y un trozo de la biopelicula de Quitosano con Cloisite Na+ y se procedio a iniciar la prueba arrojando los respectivos espectros. Pruebas de permeabilidad. Se hicieron pruebas por duplicado, en dos cajas Petri de 5.4 cm de diámetro se colocaron 10 gr. De sílica gel y por encima de estas se pusieron las biopelículas, en otras dos cajas petris de las mismas dimensiones se colocaron 10 ml de una solución NaCl con CaCl2 con una concentración de 142 mmol/ litro de iones de sodio y 2.5 mmol/litro de iones de calcio y por encima se pusieron las biopeliculas. Las 4 cajas Petri con su respectiva biopelicula y contenido fueron pesadas en una balanza analítica. Las primeras dos cajas petris mencionadas se colocaron en un desecador en un ambiente con una solución al 4.801 M de nitrato de magnesio. Las siguientes dos muestras fueron llevadas a un segundo desecador con un ambiente en donde se encontraba silica gel. Ambos desecadores fueron llevados a un horno a 34°C durante 6 horas, en donde, cada hora fueron pesadas hasta transcurrido el tiempo establecido. Prueba de viscosidad. Se preparó una solución de Cloisite Na+ al 0.5 % en 25 ml al 1% de quitosano, donde se tomó con un gotero aproximadamente 5 gotas de la muestra y fue colocada en un Modular Compact Rheomether MCR 502 con una geometría CP50-1 46758 para realizar la prueba de viscosidad a una temperatura de 25 °C.


CONCLUSIONES

Pruebas de rayos X nos dan a entender que la inclusión de la arcilla da un carácter amorfo a las películas y por lo tanto una mayor manejabilidad, FTIR nos muestra que el quitosano con la arcilla llegan a interaccionar y su combinación muestra un espectro diferente. Las pruebas de tensión indican que la arcilla da a la película cierta resistencia en comparación con una película de quitosano. En las pruebas de tensión la arcilla vuelve a la solución de quitosano un fluido newtoniano por la recta que se genera al graficar los datos. Durante la estancia de verano se lograron adquirir los conocimientos suficientes para poder identificar y discutir cada uno de los resultados que arrojo cada prueba realizada a las películas de quitosano con arcilla de cloisite Na+, de donde se puede concluir que las películas harán un buen trabajo en cuestión de absorción de humedad en la herida y podrán evitar el crecimiento bacteriano. Este proyecto por ser de carácter biomédico son necesarias pruebas en organismos vivos que por cuestiones de tiempo no es posible realizar.
Morales Enciso Isaias, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ESTUDIO ÓPTICO DE CALENTADOR SOLAR TIPO FRESNEL LINEAL


ESTUDIO ÓPTICO DE CALENTADOR SOLAR TIPO FRESNEL LINEAL

Morales Enciso Isaias, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Se estudio el comportamiento de un concentrador solar tipo fresnel linel a lo largo de diferentes dias del año para comprender su rendimiento, la energia que generada y eficiencia a la hora de utilizarlo de uan manera mas consistente.



METODOLOGÍA

El concentrador qeu estudiamos se comprende de dos filas de espejos de 2 metros largo por 0.5 metros de ancho y una separacion entre ellos de 0.1 metros, los cuales miran a un receptor de serpentin hecho con tubos de cobre de 19 mm a 4 metros de altura. Se realizaron pruebas en un simulador de tarzado de rayos (TONATIUH) en donde se genero el modelo tridimensional de la estructura y se le madaron rayos de luz a diferentes dias y posiciones del sol. Por ultimo se le hicieron uan serie de fotografias al receptor con el reflejo de cada par de espejos y acoplandolas para aprecias la distribucion de la luz en este, dicha imagen se proceso posteriormente a tarves de MatLab.


CONCLUSIONES

Se optuvo que el comportamiento del concentrador en la vida real era muy aprecido al de la simulacion y que la energia generada se acercaba a los 18 soles. Tambien se pudo entender como es que a traves del año elspot de luz se mueve de norte a sur y regresa por lo cual se recomndaria tener un receptor con un mayor area para poder aprovechat este recorrimiento.
Morales Flores Jose Manuel, Instituto Tecnológico de Acapulco
Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

PROOFTOPIA: LA RED SOCIAL DE DEMOSTRACIONES MATEMáTICAS


PROOFTOPIA: LA RED SOCIAL DE DEMOSTRACIONES MATEMáTICAS

Morales Flores Jose Manuel, Instituto Tecnológico de Acapulco. Roque Gutierrez Ariadna Joselinne, Instituto Tecnológico de Toluca. Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se pensó en una red social, ya que hoy en día el medio de comunicación más importante es un sitio en el cuál puedan compartir sus pensamientos, lo que les agrada a las personas y a su vez tener la opción de hablar en tiempo real con alguien más, es por ello que está red social integra las funciones que cualquier otra red social conocida, en este caso tomamos como ejemplo algunas funcionalidades que otorga Facebook como lo es el chat entre amigos, comentarios, el poder compartir publicaciones de otros amigos o bien dar a conocer sus conocimientos a todas las personas que estén interesadas.



METODOLOGÍA

Este proyecto se centra en la realización de una red social de matemáticas enfocada a estudiantes de universidad, sin embargo, también puede ser utilizada para estudiantes de preparatoria, en adición a cualquier profesor, ya que en esta red social se puede encontrar cualquier tipo de temas de matemáticas, así como tener contacto con personas que son expertas en el tema. No obstante, no hay una limitación en quien puede usar esta red social siempre y cuando estén interesados en temas matemáticos. Otro de los puntos de la red social es que también contiene grupos a lo cuáles los usuarios pueden unirse de acuerdo con sus intereses ya que cada grupo trata de un solo tema y todos los miembros del grupo pueden apoyar en las dudas que se presenten al igual que cada usuario puede crear estos grupos. Además, la red social cuenta con un pequeño programa el cuál verifica que todos los teoremas publicados sean demostrados de manera correcta y a su vez los amigos de la persona que publicó el teorema puedan comentarle los puntos en el cuál pueden mejorar o confirmar que lo publicado es correcto.


CONCLUSIONES

La red social se implementó en la Universidad Michoacana de San Nicolás de Hidalgo, específicamente en la Facultad de Ciencias Físico-Matemáticas con un pequeño grupo de alumnos y profesores, se realizaron las pruebas correspondientes para ver el funcionamiento y la usabilidad de dicho proyecto, finalmente se logró el objetivo que es que la red social sirva para compartir el conocimiento de todos los estudiantes con sus demás compañeros al igual que fue de ayuda para los profesores al dejarles tarea a sus alumnos y compartir más conocimiento independiente al que exponen en sus clases. Así mismo, se escucharon las propuestas de los alumnos y profesores, por lo tanto, ellos dieron la razón para realizar una red social en razón de que se tiene una interfaz amigable para el usuario, es más dinámica la comunicación con las demás personas que estén involucradas en la misma y es preferible entrar a un sitio donde pueda interactuar con sus amigos de manera rápida, en cuanto a comentarios y visualización de intereses, es segura la información plasmada ahí pues como se mencionó hay una verificación en las publicaciones, y todos pueden externar dudas o compartir conocimientos, en especial porque se pretende que esta herramienta pueda ser usada por cualquier persona, para que los estudiantes que tengan dificultad en algunos temas tengan la opción de preguntar y ser orientados por personas que sepan del tema y también que dicha red social pueda ser expandida a más lugares de la república mexicana, esperando que a largo plazo se pueda implementar en algunos países. Dicho proyecto fue propuesto por la Dr. Karina Mariela Figueroa Mora, de la UMSNH.
Morales Hernandez Virginia, Universidad Autónoma del Estado de México
Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes

IMPLEMENTACIóN DE UN SISTEMA TUTOR INTELIGENTE EN EL CURSO PROPEDéUTICO DE INGRESO A LA UNIVERSIDAD AUTóNOMA DE AGUASCALIENTES.


IMPLEMENTACIóN DE UN SISTEMA TUTOR INTELIGENTE EN EL CURSO PROPEDéUTICO DE INGRESO A LA UNIVERSIDAD AUTóNOMA DE AGUASCALIENTES.

García Galindo María del Carmen, Universidad Autónoma del Estado de México. Morales Hernandez Virginia, Universidad Autónoma del Estado de México. Asesor: Dr. Miguel Angel Meza de Luna, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Actualmente la duración de un curso propedéutico presencial no es suficiente para resolver todas las dudas que los alumnos se plantean, debido a que el grupo es amplio lo cual evita que se les brinde la misma atención a todos los estudiantes, generando así que muchos de ellos se queden con dudas que a corto plazo les ocasionan problemas y lagunas de confusión en su formación académica, evitando que su progreso sea exitoso. Por lo anterior, durante el verano de investigación se continuó con el desarrollo de un sistema tutor inteligente que permite llenar estos posibles vacíos que se generan por la falta de tiempo del docente para atender de manera personalizada a un estudiante cuando los grupos son numerosos o bien cuando el estudiante está tomando el curso a distancia. El contar con una herramienta de apoyo inteligente elaborado con objetos inclusivos le permitirá al docente mejorar su proceso de enseñanza-aprendizaje en beneficio de cada alumno, reflejándose en el rendimiento académico de ellos.



METODOLOGÍA

El estudio se llevó acabo en la Universidad Autónoma de Aguascalientes en el departamento de Ciencias de la Computación, con los alumnos de nuevo ingreso a la Carrera de Ingeniería en Computación Inteligente.  Se realizaron estudios exploratorios sobre Sistemas Tutores Inteligentes (STI) y plataformas de Sistemas para la Gestión del Aprendizaje (LMS), seleccionando los más adecuados para el desarrollo de un sistema tutor inteligente. Posteriormente se evaluó la calidad de los materiales instruccionales realizados en la primera etapa del proyecto, basándonos en una rubrica de evaluación de objetos de aprendizaje (OA). Con base a los resultados obtenidos en el proceso anterior, se desarrollaron nuevos objetos de aprendizaje categorizados por tipos de aprendizaje en los cuales se incorporaron materiales instruccionales.  Los nuevos materiales se desarrollaron en la plataforma Exelearning, debido a que es un editor XHTML que permite la creación de contenidos e-learning, además de ser fácil de utilizar y bastante flexible para exportar, importar y reutilizar contenidos, permitiendo crear cursos digitales completos. Estos recursos se llevaron a cabo considerando el nivel de conocimiento categorizado en básico, intermedio y avanzado, cada uno enfocado a las tres preferencias de aprendizaje siguientes, auditivo, textual y visual, además, a los objetos de aprendizaje se les implemento un chat de dudas elaborado con apoyo de Dialogflow, mediante el cual el alumno puede preguntar todas las interrogantes que le surjan respecto a algún tema del curso. Los materiales instruccionales elaborados se agruparon en objetos de aprendizaje, mostrando temas de la carrera de Ingeniería en Computación Inteligente, quedando de la siguiente forma:  el curso básico aloja temas de programación básica como son: Algoritmo, Diagrama de Flujo, Variables, Lenguajes de programación, Entornos de programación, Operadores, Condicionales y Ciclos. El curso intermedio explica temas enfocados a Programación Orientada a Objetos (POO), tal como:  Funciones, Clases, Objetos, Métodos, etc y el curso avanzado se enfoca en temas de desarrollo web, tal como HTML y HTML5, CSS y CSS3, PHP, etc.  Una vez concluido el desarrollo de los OA , se importaron a la plataforma Schoology de forma que en conjunto actúan como un LMS. Es importante mencionar que los resultados de la medición del nivel de conocimientos, así como la identificación de estilo de aprendizaje se obtuvieron de la implementación de un chatbot, el cual mediante una entrevista al estudiante determina que tipo de curso es el más adecuado para él. Mencionando que los estilos de aprendizaje considerados para este proyecto se establecieron con base al modelo de Felder-Silverman que clasifica las preferencias de aprendizaje en 4 dimensiones de las cuales solo se tomaron en cuenta las de estilo visual o verbal, activo o reflexivo. Cabe destacar que esta fase se desarrolló por otro equipo de trabajo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la forma en que trabaja un STI, permitiéndonos desarrollar e implementar uno enfocado al curso propedéutico de programación impartido en la Licenciatura de Ingeniería en Computación Inteligente dependiente de la Universidad Autónoma de Aguascalientes, clasificando y aportando a los alumnos recursos de apoyo con base a su nivel de conocimientos y estilo de aprendizaje, mencionando que también se desarrolló un chatbot de dudas apoyado en técnicas de inteligencia artificial, el cual se implementó a todos los OA. Se espera que cuanto mejor y mayor sea la atención educativa y apoyo que se les brinde a los alumnos de nuevo ingreso en la resolución de sus dudas e impartición de temas de forma personalizada, su formación académica sea cada vez mas encaminada al éxito, inculcando en ellos el aprovechamiento positivo del uso de los avances tecnológicos, manteniéndolos a la vanguardia educativa y tecnológica.
Morales López Germán, Universidad Politécnica de Sinaloa
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

CIBERSEGURIDAD


CIBERSEGURIDAD

Escobedo Hernández Carmen Gabriela, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Morales López Germán, Universidad Politécnica de Sinaloa. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El desarrollo tecnológico ha transformado las operaciones de el gobierno, ciudadanos, empresas e instituciones y la forma en que interactúan.La dependencia que todos los sectores sociales y económicos tienen de la infraestructura de las TI ha crecido extraordinariamente, volviéndose compleja, difícil de gestionary a la vez han traído riesgos y dificultades en cuanto a la seguridad de la información. Según el informe sobre riesgos globales para 2016 del Foro Económico Mundial, los ataques cibernéticos se han considerado como uno de los principales riesgos globales entre los más probables de ocurrir y con mayores consecuencias, en los últimos años han aumentado rápidamente atacando a los negocios en todo tipo de sectores, para ello se necesitarán implementar nuevas estrategias  que garanticen la seguridad minimizando los riesgos de ataques cibernéticos. “Las personas representan el eslabón más débil dentro de la seguridad informática: a diferencia de los ordenadores, las personas no pueden seguir instrucciones exactamente tal y como fueron dictadas” (Álvaro Gómez, 2014). 



METODOLOGÍA

hemostomado como punto de partida referencias bibliográficas procedentes de diferentes ámbitos del sector de la ciberseguridad, enfocandolo a la comunidad educativa de la Universidad Politécnica de Sinaloa. Se ha seguido el procedimiento descrito a continuación:  Para el lanzamiento del estudio  se realizo una investigaión exaustiva A lo largo de la elaboración del estudio se ha mantenido una interacción para la presentación de avances, el seguimiento y modificaciones.  Se emplearón encuestas como instrumento para cuantificar y conocer lo que piensa la poblacion UPSIN


CONCLUSIONES

La principal amenaza que afecta a la seguridad de la información es el desconocimiento de la misma, la confidencialidad e integridad, por lo que el implementar estrategias que axilen a la de prevención de ataques cibernéticos y mantenga informados a la comunidad de la Universidad Politécnica de Sinaloa, permitiria disminuir la vulnerabilidad en la seguridad informatica.
Morales Martinez Dorhelly Jetzabell, Instituto Tecnológico de Matamoros
Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo

BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.


BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.

Morales Martinez Dorhelly Jetzabell, Instituto Tecnológico de Matamoros. Peláez Carrasco Jesse Sallem, Benemérita Universidad Autónoma de Puebla. Rangel Garcia Josue Arturo, Instituto Politécnico Nacional. Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Uno de los recursos naturales no renovables, como las minas de caolín empiezan a escasear y solamente van quedando minas de caolín contaminado con diferentes elementos como son: hierro, titanio, azufre, etc. Para esto es necesario darle tratamiento al caolín para poder utilizarlo efectivamente en cualquier industria. Esto representa un gran problema ya que con el podemos producir cosas como pintura, cerámica, papel hasta medicamentos es por esto que en  el presente trabajo se obtienen resultados para blanqueamiento electroquímico de caolín, se utiliza ácido oxálico y un sistema que armado principalmente con discos de latón que cumplen la función de cátodo placas de grafito que trabaja como el ánodo del sistema; para obligar a los iones de hierro (Fe) a salir y obtener caolín que pueda utilizarse industrialmente; además se considera un reciclado del ácido oxálico para retirar del mismo los iones Fe3+ y así hacer un reciclado continuo del sistema evitando contaminación y costos innecesarios.



METODOLOGÍA

Se empleó un prototipo el cual está conformado por placas de grafito (cátodo)   discos de latón (ánodo) y  aspas de plástico colocadas entre las placas y los discos para mantener en constante movimiento la solución; este sistema  está conectado a una fuente de CD a un potencial establecido, mientras los discos giran a una velocidad de 95 RPM. Dicho prototipo está sumergido en una solución con cantidades específicas de ácido oxálico, agua, dispersante y  caolín extraído de las minas del estado de Hidalgo. Primeramente, para comprobar que el método utilizado cumple con su objetivo, se realizaron dos prototipos uno en escala el cual después de realizar las pruebas correspondientes mostro resultados favorables, y el segundo prototipo tenia mayor capacidad en solución a nivel industrial por lo que este tenía que estar en constante agitación. La función del movimiento es tener una hidrodinámica en la solución y evitar el asentamiento del caolín. El equipo se probó por 4 horas en las cuales se pudo observar cambio en la corriente debido a la reducción de los iones de Fe+3 y un cambio en la coloración del caolín. Se obtuvieron muestras en intervalos de 30 minutos de la solución para posteriormente filtrarlos y, el oxalato obtenido fue analizado por medio de un análisis de absorción atómica. También se realizaron pruebas de conductividad a cada muestra y los resultados descendieron con lo cual sabemos que baja la concentración de  los sólidos. El oxalato presenta contaminantes como iones de hierro los cuales provocan que éste se sature, y en un aspecto industrial y económico se considera más viable poder recuperarlo para su reutilización. En el caso de los discos de latón se presentan contaminantes que se pueden observar a simple vista lo cual impide en un futuro uso, que tengan un desempeño favorable. Para esto, los discos pasan a ser pulidos hasta que recuperen su coloración y brillo original para eliminar los metales adsorbidos. El oxalato pasa a ser reciclado por dos métodos los cuales son el uso del reactor FM-01 y ser filtrado a través de carbón abierto. El reactor FM-01 se conectó a una bomba peristáltica (con variaciones en los rpm) y a una fuente de CD con un potencial establecido y fue sometido a prueba con la solución de oxalato obtenido del sistema, después de un lapso de tiempo se obtuvieron resultados favorables. Para el caso del carbón se realizaron diversas pruebas haciendo uso de carbón vegetal, el primero hecho a base de deshechos de cocina (cascaras de frutas, semillas, plantas) y el segundo era carbón comercial usualmente usado en actividades gastronómicas. Para la fabricación del carbón de desechos de cocina fue necesario comprimir la basura en una biela para  posteriormente probar diferentes tiempos y temperaturas de calentamiento que variaron desde los 650 0C hasta los 750 0C.  El carbón se sumergió en el oxalato. Gracias a sus estructuras que funcionan como un filtro se pudo observar una adsorción de hierro en el carbón y por ende un cambio en la coloración. En el caso de las pruebas con el carbón vegetal comercial los resultados no fueron tan satisfactorios como los anteriores debido a que no tenía la misma porosidad y estructura que se necesitan para poder realizar la absorción de los iones de Hierro.


CONCLUSIONES

Se lograron obtener blancuras de caolín desde un 80% hasta un 92% con el sistema electroquímico de latón y grafito, que son aceptables a nivel industrial. Con diferentes métodos usados para poder utilizar  el ácido oxálico nuevamente los cuales son: Reactor FM-01 Carbón abierto Se observaron mejores resultados al tratar el oxalato con carbón abierto, elaborado  de desechos orgánicos ya que retira, un gran porcentaje de los  iones de hierro que tenía el oxalato.
Morales Quezada Marisol, Universidad Veracruzana
Asesor: Dr. Carlos Escamilla Alvarado, Universidad Autónoma de Nuevo León

RESUMEN DE ACTIVIDADES.


RESUMEN DE ACTIVIDADES.

Morales Quezada Marisol, Universidad Veracruzana. Asesor: Dr. Carlos Escamilla Alvarado, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Se está trabajando en las siguientes líneas de investigación: Biorrefinerías y recuperación energética, a cargo del Dr.Carlos Escamilla Alvarado. Este proyecto tiene como principal objetivo, buscar alternativas factibles para evitar el uso excesivo de los combustibles fósiles, utilizando materiales orgánicos que ya no se utilizan para la generación eficiente de hidrógeno y metano.



METODOLOGÍA

Se inocularon bacterias purpuras no del azufre, adaptadas a medios sintéticos para la mejora del rendimiento de la producción de hidrógeno. En estos medios se variará la fuente de carbono (malato, lactato, ácido acético, ácido butírico). Se realizaron cinéticas de crecimiento microbiano y cinéticas de producción de hidrógeno en medios sintéticos.   Se determinaron los AGV’s (Ácidos Grasos Volátiles) de los efluentes del reactor de fermentación oscura. Se evaluaron los pretratamientos de estos efluentes (filtración, adsorción con carbón activado). Se sembraron bacterias fotofermentativas en medios reales de ácidos orgánicos volátiles, con el objetivo de adaptarlas a medios reales y corroborar su crecimiento en dichos medios. Se realizaron cinéticas de producción de hidrógeno y crecimiento de biomasa en sistemas fotofermentativos a partir de efluentes reales de fermentación oscura. De manera paralela, se realizaron tinciones de Gram para la identificación morfológica de las bacterias purpuras no del azufre. También se sembraron bacterias fotofermentativas en medios reales, mejorando las condiciones de estos para su mejor adaptación.


CONCLUSIONES

Los resultados obtenidos a lo largo de estas semanas han sido favorables, pues se ha obtenido una buena producción de hidrogeno, de las bacterias sembradas en los medios antes mencionados. Se espera la mejora en el aumento de producción probando en medios distintos con concentraciones diferentes y con otras cepas.
Morales Tepole Jesus Gabriel, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla

CAMINADO EXPERIMENTAL PARA ROBOT TIPO HEXáPODO


CAMINADO EXPERIMENTAL PARA ROBOT TIPO HEXáPODO

Morales Tepole Jesus Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los insectos son base fundamental en el estudio de la robótica reactiva ya que estos poseen características biológicas y motrices que son de interés para ser implementadas en robots bioinspirados, teniendo en cuenta el desempeño de éstos en diferentes áreas. Por otra parte, los animales hexápodos poseen desplazamiento omnidireccional, debido a la formación del trípode de apoyo, el cual se crea en sus patas al dar un paso, lo cual les permite sobre pasar diferentes obstáculos con facilidad y velocidad constante. En la Universidad Politécnica de Puebla se cuenta con un robot de tipo hexápodo de la serie Robotis Bioloid, el cual está compuesto por 18 servos (articulaciones), distribuidos de 3 servos por cada pata, el hexápodo cuenta con 6 patas, todos los servos se encuentran conectados de forma simultánea a un micro controlador el CM-530 el cual nos permitirá controlar los 18 servos. Lo que se busca en este proyecto es poder programar varias rutinas de caminado bajo el lenguaje C, el problema que se presenta en este proyecto es que el no se cuenta con ningún trabajo antecedente para el hexápodo en lenguaje C, ya que el microcontrolador CM-530 presenta algunos problemas para su programación en C++. Así, el objetivo base es poder cargarle una rutina de caminado al micro controlador CM-530 con cualquiera de las plataformas existentes compatibles con el micro controlador, por ejemplo a través de su lenguaje nativo en RoboMotion. 



METODOLOGÍA

Este proyecto se desarrollo en el estado de Puebla, en el laboratorio de robótica de la Universidad Politécnica de Puebla. Se inició con el proyecto revisando en diferentes fuentes de información acerca de las plataformas de programación existentes compatibles para el micro controlador CM-530, además de realizar un análisis acerca de las especificaciones de dicho micro controlador, así como también de los 18 servos a utilizar. Las plataformas que se encontraron para realizar dicha programación fueron Eclipse, AVR-Studio y RoboPlus, y por simplicidad y tiempo disponible para el proyecto se decidió implementar y trabajar sobre robotplus. Posteriormenté, se instaló el software RoboPlus en nuestra terminal y se hacieron las configuraciones necesarias para el uso del microcontrolador CM-530. De igual manera se comenzó un estudio en diferentes manuales acerca de cómo trabajar la herramienta RoboPlus para poder realizar de la mejor manera posible la programación de las diferentes rutinas de movimiento y caminado del hexápodo. Posteriormente se comenzó el análisis detallado del caminado de una araña con ayuda de diferentes videos para de esta manera, poder poder simular de la mejor manera el caminado de la araña y poder aplicarlo a nuestro hexápodo. Lo primero que implementó para el caminado de nuestro hexápodo fue hacer una posición home, la cual le permite al robot colocarse en una posición segura para poder iniciar dicho caminado. Una vez teniendo idea de cómo se movería el robot para caminar, lo que se hizo fue determinar el rango de movimiento que tendrá cada servo. Posteriormente, utilizando la herramienta de RoboPlus se fue probando servo por servo como mover cada una de las paras del hexápodo, y finalmente se desarrollo una rutina en la que el movimiento de las seis patas provocara que el hexápodo caminara. Una vez teniendo todas las secuencias de movimientos para los 18 servos, se ejecutó dicho proceso para poder apreciar el caminado y hacer las correcciones necesarias. Lo último que se implementó fue una rutina la cual le permitiera antes de empezar el caminado, realizar una prueba de los 18 servos agrupados en las 6 patas del hexápodo. Una vez teniendo todas las rutinas deseadas, lo que se hizo fue realizar un pequeño código en en la herramienta de RoboPlus Task, el cual le permitiera cagar y ejecutar todas las rutinas de caminado precargadas.   


CONCLUSIONES

En el desarrollo del presente proyecto se implementó una rutina experimental de caminado para un robot tipo hexápodo. El tiempo dedicado al proyecto así como el conjunto de herramientas necesarias para programar al robot en lenguaje C, motivaron a que el desarrollo del mismo se hiciera bajo la herramienta de RoboPlus. Se desarrollaron satisfactoriamente tres rutinas, una rutina de inicialización del robot, necesaria para verificar que las articulaciones estuvieran correctamente colocadas antes de iniciar el caminado; una segunda rutina que lleva a cabo la prueba de que los 18 servos que mueven las 18 articulaciones del robot estén trabajando correctamente; y finalmente, se implementó una rutina experimental de caminado por el robot hexápodo. El trabajo desarrollado sirve de soporte para que mas adelante se continúe trabajando en mejorar el caminado de este robot e incrementar el numero de rutinas y poder asociar en el corto plazo una rutina reactiva a eventos externos, agregando sensores al robot.
Morales Torres Bernardo Ivan, Instituto Tecnológico de Matamoros
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE ALGORITMOS DE DETECCIóN DE OBJETOS GENéRICOS USANDO TéCNICAS DE APRENDIZAJE PROFUNDO Y VISIóN COMPUTACIONAL


EXPLORACIóN DE ALGORITMOS DE DETECCIóN DE OBJETOS GENéRICOS USANDO TéCNICAS DE APRENDIZAJE PROFUNDO Y VISIóN COMPUTACIONAL

Álvarez Félix César Hugo, Instituto Tecnológico de Culiacán. Morales Torres Bernardo Ivan, Instituto Tecnológico de Matamoros. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los daños en el asfalto es un problema de alto impacto ya que estos daños afectan los diferentes tipos de transporte terrestre que existe en el mundo. Debido a esto existen programas del gobierno los cuales realizan obras de balizamiento para el mejoramiento de las calles o vías de transporte terrestres, por esta razón se necesitan sistemas para agilizar y optimizar la búsqueda de estos daños. Por lo tanto, Jalisco al igual que todo el mundo cuenta con un grave problema el cual se busca atacar y durante la estancia verano de investigación se hizo una compilación de imágenes de daños estructurales para posteriormente entrenar a una red neuronal la cual será capaz de detectar los daños existentes en el estado mediante una cámara de video , la cual puede estar integrada en un dron o en un automóvil , y gracias a eso poder atacar los daños estructurales de manera más eficiente y también para poder saber que zonas son las mas dañadas para poder atacarlas con más prioridad que otras.



METODOLOGÍA

Las bases para el desarrollo de este proyecto de investigación se basaron en el uso de software y herramientas utilizadas dentro del campo de la inteligencia artificial, además del uso de almacenamiento ubicado en la nube. En primer plano se dispuso a recolectar imágenes con las cuales se crearía un data set el cual contara con diversos tipos de daños de las vías de tránsito, por medio de comandos y el uso del software anaconda se realizo el etiquetado de los daños mostrados en las imágenes recolectadas, posterior a esto se aplicó una herramienta llamada augmentation con el fin de lograr que nuestra red neuronal pueda contar con un porcentaje mas alto de datos lo cual llevara a una forma de trabajo más eficiente y confiable por parte de la red neuronal al momento de ponerla a prueba. Se conto con el espacio Google colab para realizar el entrenamiento de la red neuronal, debido a que dentro de esta plataforma se puede disponer de un GPU con el cual se puede entrenar de mejor forma la red neuronal y reducir considerablemente el tiempo del proceso. Por último, se llega al momento de realizar pruebas con la red neuronal ya entrenada y se verifica que su funcionamiento sea el deseado, siendo capaz de identificar daños sobre las vías de transporte con un porcentaje de credibilidad alto.


CONCLUSIONES

Este proyecto se enfocó directamente en un problema de alto impacto tal y como lo son los daños estructurales en las vías de transporte buscando disminuir los problemas ocasionados por este tipo de daños, pero sin duda se presentan en nuestro día a día distintas problemáticas mas las cuales pueden ser atacadas con el uso de herramientas como las cuales se utilizaron en este proyecto. Siendo participe dentro de este proyecto de investigación se crea no solo una visión mayor ante las nuevas tecnologías que se encuentran a nuestra disposición, sino que también un interés por el seguir adentrándonos dentro de este campo. Si bien, gran parte de lo visto fue nuevo e innovador, si se logra adquirir gran parte del conocimiento y de las herramientas utilizadas, llevándonos una visión diferente entorno al como lograr y ofrecer una mayor calidad de vida además de la misión de incrementar el interés por adentrarse a conocer este mundo de la tecnología.
Morales Vargas Sheila Alondra, Universidad Autónoma de Guerrero
Asesor: Dr. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ANÁLISIS DE RECUPERACIÓN TÉRMICA EN LA REGIÓN PLANTAR


ANÁLISIS DE RECUPERACIÓN TÉRMICA EN LA REGIÓN PLANTAR

Morales Vargas Sheila Alondra, Universidad Autónoma de Guerrero. Asesor: Dr. Hayde Peregrina Barreto, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La termorregulación es la capacidad de los organismos de regular y mantener su temperatura corporal dentro de ciertos rangos con variaciones que dependen de la actividad física o de la condición fisiológica que el organismo presente. La termografía infrarroja es una de las herramientas experimentales más efectivas para estudiar la variación en la temperatura, lleva consigo grandes ventajas al no ser invasiva para el paciente además de ser económica. Se ha utilizado en diversas disciplinas tales como zootecnia, área industrial y área clínica dando la pauta a la prevención de enfermedades. En este trabajo nos enfocamos en el estudio de la recuperación térmica en la región plantar aplicando el uso de la termografía infrarroja en extremidades inferiores inducidas por estrés frio. Este estudio es importante para el área clínica ya que con él se conoció cuantos pacientes relativamente sanos presentan el patrón de mariposa obtenido de un grupo control.



METODOLOGÍA

Se realizó el consentimiento informado explicándole al paciente el método de estudio iniciando por una historia clínica básica la cual consistía en: Datos generales del paciente Toma de presión arterial Medición de peso Medición de circunferencia de cintura Medición de muñeca (para la obtención de la complexión corporal) Frecuencia de actividad física Frecuencia de consumo (alcohol, tabaco, café) Antecedentes familiares y problemas patológicos actuales PROCEDIMIENTO DE ADQUISICION DE TERMOGRAMAS Se realizó la aclimatación del aula evitando aparatos como lámparas incandescentes que generaran cambios en la temperatura de la sala. El dispositivo infrarrojo (IR) utilizado para la adquisición de termogramas fue la cámara FLIR E60 IR. Primero se tomó la temperatura del aula la cual presentaba cierta variación y estaba en un rango de 25C°-28C° ya que la temperatura que se debe mantener supervisada evitando alteraciones en las tomas. La posición del paciente es sentado en una silla con las extremidades rectas apoyándose en otra silla, de manera que los pies queden sobresalientes de esta. Después la cámara infrarroja se colocó a 1 metro de distancia de las extremidades inferiores para realizar los termogramas, procedente a esto se realizó el primer termograma antes de la aclimatación del paciente. Se esperó el tiempo de aclimatación que fue de 10 minutos para que el paciente alcanzara un estado de termodinámica, mejorando así la precisión de las tomas. Durante el periodo de aclimatación las extremidades inferiores permanecieron descubiertas sin contacto con alguna superficie que pudiera alterar los resultados de las tomas termograficas. Se procede al segundo termograma después de haber transcurrido el periodo de aclimatación establecido. Se coloca el agua fría a 20 C° en un recipiente de plástico y el paciente sumerge los pies durante dos minutos, para así comenzar con los termogramas y conocer el avance termoregulatorio a través de las imágenes en un tiempo establecido de 8 minutos, capturando un termograma por cada minuto transcurrido. Posterior a esto el paciente saca los pies del recipiente con agua fria, sin tocar alguna superficie se colocan las extremidades en la posición inicial y se procede a realizar los termogramas hasta completar 8 minutos, de manera que en total sean 10 fotografías termograficas por paciente. La cámara de infrarrojos automáticamente ajusta la escala de temperatura de acuerdo con el más punto caliente y el punto más frío de la escena. Finalmente se estableció una escala de temperatura a los termogramas de 19C° a 35C° Por lo cual todos los termogramas están representados dentro del intervalo 19C°-35C° para que la variación de color por temperatura no afecte la visibilidad del patrón de mariposa.


CONCLUSIONES

RESULTADOS 1 NO 2 NO 3 SI 4 NO 5 SI 6 SI 7 SI 8 NO 9 SI 10 SI Tabla 2. Pacientes que presentaron similitud de patrón de mariposa. Se realizó la comparativa tomando como referencia del termograma 1 (10 min después de aclimatación) al termograma 10 (termograma del minuto 8) para conocer cuántos pacientes presentan el patrón de mariposa del grupo control tomado como referencia del trabajo A quantitative index for classification of plantar thermal changes in the diabetic foot. Se obtuvo de acuerdo al estudio anterior que 7 de los 10 pacientes presentaron similitud con el patrón de mariposa.
Morales Vazquez Samuel, Instituto Tecnológico de Tapachula
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)


HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)

Morales Vazquez Samuel, Instituto Tecnológico de Tapachula. Pérez Arcos. Miguel Alejandro, Instituto Tecnológico Superior de Los Ríos. Rodas Cabrera Carlos Valentin, Instituto Tecnológico de Tapachula. Salazar Ruiz Miguel Ángel, Instituto Tecnológico de Tapachula. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

Actualmente los diseños de los sedimentadores de alta tasa se realizan con base en los criterios y ecuaciones recomendados en la literatura y la metodología descrita por los diversos autores es muy similar entre sí y data de varios años atrás. Los actuales diseños de tanques sedimentadores están sobredimensionados, esto hace que existan perturbaciones en el comportamiento del fluido y la presencia de corrientes preferenciales o flujos anómalos, provocando corto-circuitos y zonas muertas En este trabajo se va a realizar una revisión y evaluación exhaustiva, sobre cómo se encuentran actualmente diseñados los tanques sedimentadores de alta tasa que integran al proceso de clarificación convencional durante la potabilización, para desarrollar una metodología de diseño y recomendaciones, que permitan mejorar las condiciones de operación de las plantas potabilizadoras.



METODOLOGÍA

  Se realizó un análisis crítico de los procedimientos de diseño existentes de sedimentadores de alta tasa que se utilizan en plantas potabilizadoras, basado en una revisión bibliográfica, experiencias e investigación propia. De la revisión bibliográfica se observó que los diseños de las unidades de sedimentación se fundamentan en criterios, lineamientos, ecuaciones algebraicas, diagramas y ejemplos prácticos, que los ingenieros han transmitido desde hace varios años y que no han tenido modificaciones importantes en fechas recientes.  La metodología de cálculo propuesta por Romero J. (2000), donde utiliza ecuaciones algebraicas para determinar la carga superficial, el número de Reynolds, la velocidad de sedimentación y tiempo de residencia; sin embargo, no considera el tipo de entrada del flujo ni la posición de salida, por lo tanto, el diseño no garantiza eficiencia hidráulica del tanque sedimentador.                                                                                                                                         


CONCLUSIONES

El presente trabajo pretende sentar las bases para analizar la influencia que ejerce, la carga superficial, el ancho, el largo, la profundidad, el tipo y posición de la entrada y salida del agua en el sedimentador de alta tasa, sobre el comportamiento hidráulico- presencia de zonas muertas y cortos circuitos, para mejorar la eficiencia de la sedimentación. El objetivo principal de usar un software de Dinámica de Fluidos Computacional (CFD), es para realizar una evaluación hidrodinámica de los diferentes escenarios del sedimentador de alta tasa y encontrar las variables de respuesta y con ellos determinar la presencia de zonas de corto-circuito, así como de zonas muertas.
Morales Vidal Ana María, Instituto Tecnológico de Cuautla
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

COMPARACIóN DE NIVELES DE ATENCIóN ENTRE PERSONAS CIEGAS Y NORMOVISUALES EN UN ENTORNO DE APRENDIZAJE MEDIANTE ANáLISIS DE EEG.


COMPARACIóN DE NIVELES DE ATENCIóN ENTRE PERSONAS CIEGAS Y NORMOVISUALES EN UN ENTORNO DE APRENDIZAJE MEDIANTE ANáLISIS DE EEG.

Lopez Justo Carolina, Universidad Autónoma del Estado de México. Morales Vidal Ana María, Instituto Tecnológico de Cuautla. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Debido a la falta de inclusividad en las aulas educativas, se pretende evaluar a diferentes grupos de personas (con ceguera y normovisuales) para encontrar diferencias y similitudes mediante el análisis de EEG, bajo la intención de ayudar a construir aprendizaje equitativo para todos. El proyecto es la etapa de validación de pruebas de un proyecto más grande que dirige el Dr Álvarez en el cual se busca el aprendizaje inclusivo.



METODOLOGÍA

Para llevar a cabo el presente estudio de investigación, se seleccionaron diez personas normovisuales. Puesto que en estudios similares se utiliza este mismo número de muestras o menos. De las cuales, cinco de ellas fueron mujeres con un rango de edad de entre 20- 45 años, así como también cinco hombres con las mismas características de edad. Las diez personas fueron seleccionadas en la Universidad Autónoma de Aguascalientes debido a que fue el lugar de experimentación, teniendo en su mayoría estudiantes de la universidad mencionada.   Mientras que, para la selección de personas ciegas sólo se tomaron registros de cinco personas que se prestaron a colaborar con la experimentación. Tres de ellas fueron hombres con un rango de edad de entre 22 - 45 años, y el resto de las personas fueron mujeres con las mismas características de edad.  Para la selección de personas ciegas, se asistió al Centro de Desarrollo Integral de la Familia (DIF) del municipio de Aguascalientes. La facilidad de trabajar con personas del DIF fue gracias al convenio de trabajo DG042_18.  El modelo de experimentación utilizado constó de tres fases. La primera fase consistió en la preparación técnica y del participante. Es decir, se le explicó a cada participante en qué consistía el experimento, se les pidió que leyeran o escucharan atentamente (de acuerdo con las condiciones del participante) y firmaran la Carta de Consentimiento Informado en donde se encontraban detalladamente las instrucciones a seguir para realizar el experimento y la especificación de la confidencialidad de los datos. Posterior a esto, se les preguntó sobre posibles dudas. Una vez aclaradas las dudas e informado el participante, se le colocó la diadema MindWave Mobile y los auriculares. En cuanto a los aspectos técnicos, se preparó el video y se les pidió ajustaran el volumen a su preferencia, además se estableció la conexión entre la diadema y la laptop en donde se adquirió el registro del EEG. El tiempo empleado en esta primera fase fue de un aproximado de cinco minutos.   La segunda fase constó de la reproducción del material audiovisual elegido de acuerdo con la preferencia del participante. Una vez establecida la conexión entre la diadema MindWave Mobile con la segunda computadora, se le pidió al participante que mantuviera los ojos cerrados y tratara de relajarse durante treinta segundos, con la finalidad de obtener un registro del estado basal del sujeto en periodo de relajación. Concluido este tiempo, el sujeto oprimió la tecla espaciadora para reproducir el video. Durante esta fase, se inició con la adquisición datos del EEG del sujeto. El procedimiento dura un aproximado de siete minutos.    En la tercera fase el participante procedió a resolver de manera verbal un cuestionario que constaba de cinco preguntas pregrabadas, relativas al video previamente visto o escuchado según fuera el caso. El registro de datos del EEG terminó cuando el participante finalizó con la respuesta del cuestionario. 


CONCLUSIONES

Bajo este entorno de experimentación, se puede concluir que tanto ciegos como normovisuales presentan características similares en su análisis de EEG presentando señales Delta, Theta y Attention, con la diferencia de que las personas normovisuales además de presentar las ya mencionadas señales, también presentan potencias de ondas High Beta por lo que sugiere que los algoritmos para evaluar la atención en entornos de aprendizaje podrían funcionar tanto en personas normovisuales como ciegas.   Sin embargo, es necesario realizar estudios con un mayor número de participantes, puesto que no es una conclusión contundente. Es por ello por lo que se pretende en un futuro, trabajar con un número de participantes mayor y seguir analizando dichos patrones además de mejorar el entorno de experimentación, buscando entornos más próximos a la cotidianidad.  
Moreno Cabrera Daniel, Universidad Autónoma de Zacatecas
Asesor: Dr. Javier Guzmán Pantoja, Instituto Mexicano del Petróleo

ESTUDIO DE CAPTURA DE DIóXIDO DE CARBONO UTILIZANDO LíQUIDOS IóNICOS. SIMULACIóN DEL PROCESO


ESTUDIO DE CAPTURA DE DIóXIDO DE CARBONO UTILIZANDO LíQUIDOS IóNICOS. SIMULACIóN DEL PROCESO

Moreno Cabrera Daniel, Universidad Autónoma de Zacatecas. Asesor: Dr. Javier Guzmán Pantoja, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la cantidad de CO2  en el planeta ha aumentado de manera alarmante debido a la alta demanda de combustibles fósiles, la necesidad de métodos de mitigación han sido un tema de interés debido a los problemas que conlleva este aumento. Se han desarrollado muchas técnicas para la absorción de CO2. Sin embargo los procesos poseen una huella ecología de gran impacto lo que conduce desarrollar nuevas técnicas para poder disminuir la contaminación del medio ambiente.   La utilización de líquidos iónicos parece ser una buena alternativa para la mitigación de CO2, ya que se ha observado un comportamiento favorable al momento de reaccionar. La simulación del proceso es una buena herramienta para determinar el comportamiento del líquido  iónico y dar una visión más amplia de sus capacidades.



METODOLOGÍA

1. Búsqueda y análisis bibliográfico  2. Resumen informativo de las metodologías de simulación y diseño de procesos para la absorción de CO2 con líquidos iónicos. 3. Aprendizaje del software especializado para realizar la simulación (ASPEN HYSYS). 4. Análisis metodológico para el planteamiento de los parámetros termodinámicos de los líquidos iónicos. 5. Calculo de propiedades termodinámicas de los compuestos utilizados que no se encuentra en banco de datos del software.  6. Diseño del proceso que incluya, al menos, una unidad de absorción de CO2 utilizando sistemas líquidos. 7. Diagrama de flujo de equipos.   8. Simulación del proceso de absorción de CO2 variando diversos parámetros, tales como: flujos de gases y líquidos, concentración de CO2, temperatura de las corrientes, presión de los gases, composición de los líquidos absorbentes.


CONCLUSIONES

Se realizó la simulación del proceso de absorción utilizando el líquido iónico de interés, mediante una serie de corridas, con el simulador se obtuvieron los datos experimentales, con un margen de error del 5%, considerándolo como una buena aproximación y logrando realizar la extrapolación de datos para estudiar su comportamiento mediante la utilización del software, logrando obtener condiciones de operación utilizando distintos parámetros.
Moreno Guerra Valeria Gabriela, Universidad de Guadalajara
Asesor: Dr. Virginia Francisca Marañón Ruiz, Universidad de Guadalajara

AZO-POLíMEROS


AZO-POLíMEROS

Moreno Guerra Valeria Gabriela, Universidad de Guadalajara. Asesor: Dr. Virginia Francisca Marañón Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día nos enfrentamos a un severo problema de contaminación ambiental, y el poliestireno es uno de los termoplásticos que más contribuyen de manera desfavorable al cambio climático, además, es un material sumamente utilizado que tarda de 500 a 1000 años en degradarse. Es la quinta resina más importante en términos de producción y consumo a nivel mundial. También representa el 10% del consumo total de plásticos, con muchas aplicaciones tanto medicas como de la vida cotidiana. Cabe destacar que el poliestireno es un material que ocupa grandes cantidades de espacio, lo cual también da paso a problemáticas ambientales y de almacenaje de desechos. Es por eso que, a través del presente trabajo, se pretende utilizar el poliestireno como materia prima para la creación de azo-polímeros, esto nos permitirá darle un segundo uso a este material, así como la reducción de desechos del mismo.



METODOLOGÍA

Para este trabajo se utilizaron dos metodologías para la formación de azo-polímeros, como primera instancia se utilizó el poliestireno expandido (PS) como materia prima para sintetizar polinitroestireno; para este primer paso se procedió a disolver PS en cloruro de metileno con agitación constante, la relación de PS:CH2Cl2 se mantuvo en 1:20, después se añadieron 2 equivalentes (respecto al PS) de ácido sulfúrico gota a gota, manteniendo la reacción en baño de hielo. Se preparó una mezcla nitrante de relación 1:1 de ácido sulfúrico y ácido nítrico que se añadió gota a gota al PS disuelto en baño de hielo y agitación.  Se mantuvieron estas condiciones por 12 horas. Se procedió a su neutralización y secado. El polinitroestireno (PNS) obtenido posteriormente fue pesado (1 equivalente) y disuelto en etanol en un matraz bola, se procedió a añadir 2 equivalentes de Ácido Clorhídrico al 37%. Se procedió a activar 2 equivalentes de Hierro con etanol para después ser añadido al PNS. Se colocó a sistema reflujo por 19 horas. Se dejó enfriar para extraer el hierro sobrante de la reacción. Se calentó con NaOH al 10% y se colocó a agitación magnética. La mezcla se volvió de un color negro muy intenso. Se formó lo que se conoce como resinas catiónicas y aniónicas. Se decantó la reacción y de le adicionó una solución de HCL al 5% y se continuo con la adición de HCL concentrado y lavado hasta la eliminación completa de hierro. Se neutralizó y se procedió a secar. Una vez seco el polinitroestireno se puede sintetizar la sal de diazonio necesaria para posteriormente sintetizar el azo-polímero. Los siguientes pasos se utilizaron para la creación de diferentes azo-polímeros; se adicionó 1 equivalente de PNSR a un matraz bola para su dilución en 40 ml de Acetona. Se colocó a reflujo después de la adición de una disolución de2 equivalentes de Nitrito de Sodio en agua, se esperan al menos 10 minutos antes de adicionar una disolución de 2 equivalentes Ácido Clorhídrico y agua. La reacción se mantuvo en reflujo hasta la formación de la sal de diazonio. Se prepara independientemente una disolución de 1 equivalente de Carbonato de Sodio y agua a la que se le añade el compuesto aromático (fenol, resorcinol, anilina, 4-aminofenol y 3-aminofenol, 1,2-fenilendiamina) del que sé preparará el Azo-Polímero. La disolución anterior se añadió gota a gota en frío. Se neutralizó la reacción y se dejó secar. Como segunda opción para la formación del azo-polímero se utilizó el poliestireno y la previa síntesis de la sal de diazonio para la formación de los azo-polímeros. Se prepararon 4 disoluciones, preparadas en relaciones de 1 equivalente: la primera del compuesto aromático (anilina, 4-aminofenol y 3-aminofenol, 1,2-fenilendiamina) con carbonato sodico y agua, la segunda de nitrito sódico en agua, la tercer de ácido clorhídrico en agua y la cuarta de PS disuelto en cloruro de metileno. Se enfriaron las 4 reacciones y solo frías se procedió a verter sobre la disolución de nitrito sódico la disolución del compuesto bencénico. Se mantuvo en baño de hielo y agitación constante. Se adicionó después la disolución de ácido clorhídrico. Una vez finalizada la reacción se añade la disolución de PS y se montó a reflujo. Se vació a un embudo de decantación y se le añadió agua y AcOEt para separar la fase orgánica. Esta se colocó a rotavapor y se recuperó el azo-polímero. Se analizaron los azo-polímeros sintetizados: PAR, PAF, PA3F, PAA, PA2A y PAG. Para caracterizar los azopolímeros se emplearon las técnicas de UV-Vis y FTIR ATR. Los espectros de UV-Vis de los azo-polímeros sintetizados se muestran en los rangos de 700 hasta los 300 nm que son consistentes con las transiciones electrónicas del grupo azo. También se pueden ver transiciones electrónicas que corresponden a la parte aromática del compuesto, las conjugaciones que se dan en las interacciones de π à π* aparecen en hombros de absorción de entre los 480 y 550 nanómetros, sin embargo, también se pueden observar uno de menor intensidad que va a los 580 nanómetros. Los espectros de FT-IR por la técnica de ATR, para los polímeros PAR, PAF, PAG. mostraron las señales de los enlaces hidroxilo (O-H) se aparecen en un rango entre 3000cm-1 a 3221cm-1, el enlace C-OH a 1155cm-1, Por otra parte, para los polímeros PA3F, PAA, PA2A el enlace amino (N-H) a 3280 cm-1, el enlace C-N a 1020 cm-1 y además para el polímero PAG aparace la señal del enlace carbonilo de ácido (C=O) a 1600cm-1.  


CONCLUSIONES

Se obtuvieron 5 azopolímeros derivados de estireno expandido descritos como PAR, PAF, PA3F, PAA, PA2A, PAG. Fueron caracterizados por espectroscopia uv-vis y FT-IR ATR, donde se asignaron las señales características de las transiciones electrónicas de pi a pi antienlace tanto de aromáticos como del grupo azo. Se propone una alternativa de uso de poliestireno expandido en donde se obtienen materiales con potenciales aplicaciones en optoelectrónica.
Moreno Méndez Dalia Marlen, Instituto Tecnológico de Tláhuac
Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional

MODELO ANALÓGICO DE CONTROL PARA UN SERVOMOTOR ESTABILIZADOR DE UN EJE.


MODELO ANALÓGICO DE CONTROL PARA UN SERVOMOTOR ESTABILIZADOR DE UN EJE.

Moreno Méndez Dalia Marlen, Instituto Tecnológico de Tláhuac. Asesor: Dr. Bernardino Benito Salmerón Quiroz, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Una de las problemáticas que se presentan en los drones es la mala calidad de las fotos que capturan las cámaras ya que la intemperie así como otros factores, causan que la plataforma al estar en movimiento la cámara se mueva conforme a esta y provoque un mal enfoque capturando malas fotografías, fuera de que se tenga una cámara con una buena resolución. Por lo que durante el verano de investigación se pretende realizar un sistema capaz de estabilizar la cámara de un dron, con ayuda de un modelo analógico de control que sea aplicado a un servomotor, donde como fin se espera controlar la inclinación necesaria del eje corrigiendo cualquier perturbación y que la cámara capture fotos de buena calidad.



METODOLOGÍA

Al iniciar el proceso del proyecto se hizo un repaso de temas como la transformada de Laplace, modelado de sistemas, amplificadores operacionales, controladores PID (proporcional integral derivativo),Matlab, para poder comprender de mejor manera lo que se iba a realizar. Para comenzar se investigó y realizo las ecuaciones del sistema eléctrico y mecánico en función al servomotor ya que son parte fundamental para poder manipular los grados y por ende mantener la estabilidad de la cámara del dron, no sin antes mencionar que estos sistemas se resolvieron por el método de la transformada de Laplace para ser simulados en la herramienta simulink ya que está cuenta con las funciones necesarias para simular los sistemas y ver en forma gráfica cómo funcionan. En la simulación de los bloques en simulink se presentan dos casos para ver mejor el funcionamiento y entender lo que arrojaban las gráficas mencionado que las gráficas a lazo abierto son aquellas donde la salida se generará dependiendo de la entrada de los volts suministrados para que funcione el servomotor y en lazo cerrado la salida depende de las consideraciones y correcciones realizadas por la retroalimentación. Haciendo énfasis que para simular los sistemas hechos en los bloques de simulink fue necesario conocer las características del servomotor sg90 a utilizar así como su velocidad angular, rotación, momentos de inercia, etc. La innovación de este proyecto es que el control se realiza no con una función de transferencia, sino por medio de un circuito analógico con PID (Proporcional Integrador Derivativo), el cual es comparado con el control que usa la función de transferencia con PID y corroborar la similitud. Un punto referente del PID es el uso de las ganancias en el diagrama de bloques, ya que el error lo disminuía con Kp (ganancia proporcional), era más rápido con Ki (ganancia integral) y la modificación de Kd (ganancia derivativa) eliminaba cualquier oscilación reflejando así un sistema con mejor estabilidad. Terminado lo anterior el Doctor nos enseñó como enlazar el programa Arduino  y Matlab para poder recibir los datos que mandaba y poder simular un circuito que simulara lo antes hecho en los sistemas, teniendo la interfaz, se usó un inclinómetro para conocer la inclinación y acoplar el comportamiento del servomotor en función del sensor y de acuerdo al voltaje suministrado mostrar como varia la posición de los ángulos y verificar como se estabilizaba la cámara de acuerdo a una perturbación.


CONCLUSIONES

Concluí que en la actualidad los drones han tenido un gran desarrollo en el mercado, siendo diversas las aplicaciones en las que pueden utilizarse, como en vigilancia, reconocimiento y de control del mismo dron, permitiéndonos explorar diferentes algoritmos en la medida que la capacidad de cómputo de los procesadores lo permiten. Cabe mencionar que el enfocarnos en temas relacionados con la carrera de mecatrónica, temas como lo fueron la transformada de Laplace, el control y el uso y manejo de softwares (Matlab, Arduino y Proteus), hizo que reforzara mi conocimiento y aprender mas sobre estos. A través de este proyecto, el objetivo de hacer un sistema estabilizador para quitar o eliminar   las perturbaciones y mantener en equilibrio la cámara del dron fue todo un éxito,  aunque el proceso para comprender como funcionaba cada sistema tanto mecánico como eléctrico fue algo tardado ya que se tuvo que comprender como funcionaban cada uno de los sistemas para después aplicar el método de la transformada de la Laplace para crear su diagrama de bloques en Matlab y con ello observar su tiempo de retardo en gráficas, para que a partir de ese punto se pudiera crear un sistema completo que comprendiera el funcionamiento del servomotor. Terminado lo anterior se incluyó ese sistema en la plataforma para que trabajaran los dos juntos y poder estabilizar la cámara y así poder tomar cualquier captura sin ningún inconveniente y con un buen enfoque, todo reflejado en un circuito ayudado de los sistemas Arduino, Matlab y un inclinómetro que de acuerdo a los ángulos ingresados se modificará para mantenerse estabilizado mostrando que el trabajo que se hizo de acuerdo con los sistemas fuera el correcto. Por ultimo cabe mencionar que la innovación de modelo de control analógico es viable, ya que se puede implementar de forma física y evitar cargar el programa de Matlab en una tarjeta como el caso de Raspberry pi y algunas otras, cuyas dimensiones y costos son elevados, por otra parte, tiene mayor velocidad de lectura de Arduino.  
Moreno Peña Denisse Fernanda, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

MATERIALES COMPUESTOS SUSTENTABLES DE POLIETILENO RECICLADO REFORZADOS CON CARGA HÍBRIDA DE FIBRAS DE CARBÓN Y FIBRAS DE AGAVE.


MATERIALES COMPUESTOS SUSTENTABLES DE POLIETILENO RECICLADO REFORZADOS CON CARGA HÍBRIDA DE FIBRAS DE CARBÓN Y FIBRAS DE AGAVE.

Guerrero Arredondo Eduardo, Universidad Autónoma de Sinaloa. Moreno Peña Denisse Fernanda, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, dentro de los materiales compuestos, los materiales híbridos basados en polímeros reforzados con cargas híbridas compuestas por fibras naturales y fibras sintéticas han despertado un gran interés, ya que permiten la combinación de componentes orgánicos (tal como fibras naturales provenientes de desechos agroindustriales) e inorgánicos (como fibras de vidrio o carbono recicladas) con el objetivo de producir materiales sustentables, ligeros y más económicos, con propiedades óptimas para una aplicación específica, debido a la interacción de los componentes (efecto de hibridación).   En este sentido, las fibras naturales poseen algunas ventajas sobre las fibras sintéticas, tales como su baja densidad, baja abrasividad y toxicidad, alta disponibilidad, bajo costo y biodegradabilidad, sin embargo, uno de sus principales inconvenientes es la incompatibilidad que presentan al ser empleadas como refuerzos en materiales compuestos, debido a la naturaleza hidrofílica de las fibras e hidrofóbica de la mayoría de la matrices poliméricas. Por todo ello, la combinación de los dos tipos de fibra en un material híbrido es una propuesta interesante. Existen compuestos híbridos de fibra natural con fibra sintética que son rentables y alcanzan un rendimiento eficiente, por lo que durante el verano de investigación científica se prepararon compuestos híbridos utilizando fibra de agave y fibra de carbono reciclada en una matriz de polietileno de baja densidad, con la finalidad de conseguir un material que presente mejoras en cuanto a su resistencia al impacto, tensión y flexión.



METODOLOGÍA

Los materiales requeridos en el presente estudio fueron: fibra de agave proveniente de desechos industriales de la producción del tequila de diversas destilerías locales (Tequila, Jalisco), fibras de carbono recicladas y particuladas, suministradas por la empresa Zoltek (El Salto, Jalisco), y como matriz polimérica polietileno lineal de media densidad (PELMD RO 93650) en polvo, así como polietileno de baja densidad reciclado (r-PEBD) en polvo, proveniente del rechazo del proceso de fabricación de películas contenedoras de soluciones inyectables de la empresa PiSA (Guadalajara, Jalisco).  Se inició realizando la matriz polimérica mezclando 60% de polietileno virgen y 40% de polietileno reciclado. A partir de esto se realizaron las siguientes muestras: 85% de la matriz polimérica y 15% de fibras de carbono. 85% de la matriz polimérica y 15% de fibras de agave. 85% de la matriz polimérica, 10% de fibras de carbono y 5% de fibras de agave. 85% de la matriz polimérica, 10% de fibras de agave y 5% de fibras de carbono. Las mezclas fueron llevadas a un horno a 70° C durante aproximadamente 24 horas con el objetivo de reducir su humedad. Una vez transcurrido este tiempo, se procedió a realizar tres placas de 5 x 5 in de cada material, utilizando 25 gramos de mezcla por placa, en una termo prensa hidráulica para muestras de plástico, a 180°C durante 10 minutos hasta una presión máxima de 200 bar. Posteriormente, se cortaron dos tipos de muestras en las placas utilizando suajes, aplicando presión con la prensa hidráulica. El primer tipo de corte se realizó con una geometría correspondiente a probetas tipo IV (tipo hueso o mancuerna) para ser ensayadas en una máquina universal de ensayos mecánicos (INSTRON 3345) de acuerdo con la norma ASTM D638, y el segundo tipo de corte fue en probetas rectangulares de 12.7 x 127 mm, a las cuales se les realizó un corte en forma de muesca triangular y se ensayaron de acuerdo a la norma ASTM D6110 en un impactador Charpy (INSTRON CEAST 9050).  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las pruebas mecánicas que se realizan para la cuantificación de las propiedades de compuestos híbridos. Se llegó a la conclusión que al adicionar las fibras de carbono recicladas se producen compuestos sustentables con mejor desempeño mecánico del material compuesto a base de un polímero post-industrial y  además, en conjunto con las fibras de agave se obtiene un incremento considerable en las propiedades mecánicas debido al efecto de hibridación, a la vez que se reduce el costo de y el peso de estos materiales.
Moreno Pioquinto María Guadalupe, Universidad Autónoma de Guerrero
Asesor: Dr. Sarah Ruth Messina Fernández, Universidad Autónoma de Nayarit

PELíCULAS DELGADAS DE SULFURO DE ESTAñO POR DEPóSITO QUíMICO Y DIP COATING


PELíCULAS DELGADAS DE SULFURO DE ESTAñO POR DEPóSITO QUíMICO Y DIP COATING

Moreno Pioquinto María Guadalupe, Universidad Autónoma de Guerrero. Asesor: Dr. Sarah Ruth Messina Fernández, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

  La tecnología utilizada tiene la particularidad de crear películas de alta calidad cristalina, de crecimiento rápido y de un espesor que oscila entre las dos y cuatro micras (una micra es una millonésima parte de un metro). Se preparan sobre un sustrato de vidrio cubierto con un material conductor transparente, que permite hacer contacto eléctrico con la película. Dado el espesor, se emplea un mínimo de material.  



METODOLOGÍA

Pretratamientos de sulfito de sodio Anhidro 0.1 M  Reactivos: Sulfito de sodio  1.26 gr Agua destilada 100 ml Procedimiento:  limpieza de sustratos con baño ultrasonico (acetona,propanol) Se preparó la solución el sulfito de sodio anhidro y el agua destilada  se agitaron, hasta volverse homogénea y trasparente. Los sustratos  se colocaron en un vaso de precipitado con la solución y permanecieron a temperatura ambiente durante 17 horas. Películas delgadas de  ZnO/CdS/SnS Deposito por baño químico  Reactivos: Sulfuro de Zinc Sulfato de Zinc Trietanolamina 50% pH10^1  Tioacetamida  Agua destilada Sulfuro de Cadmio Nitrato de Cadmio Citrato de Sodio NH4OH 4 M   Tiourea  Agua destilada Sulfuro de estaño Cloruro de estaño   Acetona Trietanolamina  50%  Agua desionizada  Tioacetamida NH4OH  4 M       Procedimiento Limpieza de sustratos  por  baños ultrasónicos diferentes uno con agua jabonosa al 2% y el segundo con propanol ambos 15 min y secados con una pistola de aire después de cada baño. Depósito por baño químico de los sustratos en Sulfuro de Zinc al 50% y sustratos con pretratamientos  durante 17 horas a temperatura ambiente. Tratamiento térmico a los sustratos  con sulfuro de zinc en aire a 400°C. Depósito por baño químico de los sustratos en Sulfuro de Cadmio al 100% durante 1 hora a 80°C. e) Depósito por baño químico de los sustratos en Sulfuro de estaño al 100% de manera que los baños fueron de manera secuencial  a 40°C. Tratamiento térmico a los sustratos en argón a 400°C. con pintura de carbón  se pintaran  cuidadosamente dos rectángulos dentro y fuera de las películas del sustrato.   Caracterización Óptica Elaboración de gráficas de espectros de: Transmitancia Reflectancia   Películas delgadas de ZnO Deposito Dip-Coating  Reactivos: Nota: se usó agua (𝐻2o) como material de partida solvente y estabilizador. Método de Soxhlet y método por agitacion Óxido de zinc -Sol Gel  Acetato de Zinc deshidratado Etanol absoluto Agua destilada Procedimiento:Método de Soxhlet La solución es agregada al matraz y puesta en la placa de calentamiento, para después colocar el sifón, muy bien tapado. La bomba es colocada dentro del termo con agua fría a 10°C. La parrilla  a 85°C por dos horas junto a la bomba que  empezó a recircular agua e. Se esperó enfriar  la solución. se agregaron 110 ml de agua; gota a gota en la solución.  La solución se agitó  continuamente durante 1 horas a 100ºC. se dejó envejecer el sol-gel  durante 24 horas. Procedimiento:Método de agitacíon  La solución se  agitó vigorosamente usando un agitador magnético durante 1 hora en una placa caliente a 60 ° C.  Se enfriar  la solución. se agregaron 50 ml de agua; gota a gota en la solución  La solución se agitó  continuamente durante 3 horas a 100ºC. se dejo enevejecer 24 horas. metodología dipcoating (método Soxhlet y método agitación) se llevó  a cabo un revestimiento por inmersión. Las películas y sustrato con pretratamiento   se depositaron a una velocidad de extracción de 50, 100, 150, 175, 200 y  250 mm/s.  Secado  cada capa de película a 80°C, 120°C y 350° en aire durante 5 y 15 minutos. Nota: cuando se secó las capas de película al 350°C hubo una espera de 5 minutos en cada ciclo para dejar enfriar el sustrato.   El proceso de inmersión se realizó 3,4,5 veces después de cada capa  que se enfriara  a temperatura ambiente.    Las películas que se secarón a 80°C y 120°C  se calcinarón  a 350 ° C en aire para garantizar que todas las especies orgánicas sean  expulsadas de las películas  se realizó la caracterización óptica en reflectancia y transmitancia en un espectrofotómetro   en la región de longitud de onda de 190 nm a 1100 nm         


CONCLUSIONES

Por la técnica de depósito por baño químico se puede concluir que efectivamente las películas con pretratamiento mejoro la calidad de depósito en el SnS   , esto con ayuda de las gráficas de espectro de transmitancia y reflectancia ya que claramente tenemos valores distintos entre cada depósito incluso comparándolo con un sustrato sin película. Además, se aprecia como cuando al sustrato se adhiere una película delgada de un tono más obscuro la transmitancia baja, lo cual es lógico pues impide menos paso de luz al tornarse la película delgada de un color distinto al transparente y nos confirma que una película delgada se desarrolló en el sustrato después de llevar a cabo nuestro depósito químico. Por la técnica Dip-Coating las velocidades de inmersión variaron entre las distintas velocidades, se observó unas manchas blanquizcas en los sustratos con pretratamiento  los cuales se quitaron con algodón y agua desionizada, el sustrato con mejor adherencia visible fue 5 y 10 mm/s. Esto con ayuda de las gráficas de espectro de transmitancia y reflectancia ya que claramente tenemos valores distintos entre cada depósito incluso comparándolo con un sustrato sin película.  La solución gel por método  Soxhlet  se  mantuvo homogénea con agitación y estable durante cada inmersión, la solución por método de agitación se observó menos homogénea y más liquida, por ende los sustratos con la solución de Soxhlet   visiblemente se ven más adherida y uniforme.    
Moreno Ruiz Edson Rafael, Universidad de Colima
Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)

ARQUITECTURA DE SOFTWARE ORIENTADA A MICROSERVICIOS PARA LA RECOLECCIóN Y TRATAMIENTO DE VARIABLES AMBIENTALES


ARQUITECTURA DE SOFTWARE ORIENTADA A MICROSERVICIOS PARA LA RECOLECCIóN Y TRATAMIENTO DE VARIABLES AMBIENTALES

Lechuga Illingworth Victor Alfonso, Universidad de Colima. Moreno Ruiz Edson Rafael, Universidad de Colima. Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

Las aplicaciones de Internet de las Cosas (IoT) en el contexto del monitoreo ambiental son un componente clave para la industria y el desarrollo de ciudades inteligentes. Estas aplicaciones se benefician de los avances de la computación en la nube y el Big data para realizar un conjunto de tareas que van desde la recolección de datos provenientes de una red de sensores, hasta el procesamiento, análisis y presentación de los mismos. Este tipo de aplicaciones requieren de una arquitectura que sea distribuida, escalable, flexible, eficiente y segura. Donde cada uno de los componentes sean independientes, puedan interactuar entre ellos y permitan un desarrollo continuo. Sin embargo, estas características son difíciles de conseguir con los sistemas monolíticos convencionales haciendo que su desarrollo sea lento y complejo. Por lo tanto, en este estudio se propone el desarrollo de una arquitectura de microservicios (en inglés, Micro Services Architecture, MSA), usando patrones orientados a este tipo de arquitectura.



METODOLOGÍA

Arquitectura de microservicios La arquitectura de microservicios (Micro Services Architecture, MSA) es una aproximación con la que se puede enfrentar el desarrollo de software, que consiste en construir una aplicación como un conjunto de pequeños servicios, los cuales se ejecutan en su propio entorno y se comunican con protocolos ligeros. Cada servicio se encarga de implementar una funcionalidad del negocio. También, cada servicio es desplegado de forma independiente y puede estar programado en distintos lenguajes y usar diferentes tecnologías de almacenamiento de datos (Lewis & Fowler, 2014). En cierto modo, los microservicios son la evolución natural de las arquitecturas orientadas a servicios, pero hay diferencias entre los microservicios y estas arquitecturas. Estas son las características de un microservicio (Wasson, 2018): Los servicios son pequeños e independientes y están acoplados de forma flexible. Cada servicio es un código base independiente, que puede administrarse por un pequeño equipo de desarrollo. Los servicios pueden implementarse de manera independiente, sin afectar a otros dentro de la aplicación. Los servicios son los responsables de conservar sus propios datos o estado externo. Los servicios se comunican mediante API definidas. Los detalles de la implementación interna se ocultan a los otros servicios. No es necesario que los servicios compartan la misma tecnología, bibliotecas o framework. A diferencia del enfoque tradicional y monolítico de las aplicaciones, en el que todo se integra  en una única pieza, los microservicios son independientes y funcionan en conjuntos para llevar a cabo las tareas. Este enfoque sobre el desarrollo de software privilegia el nivel de detalle, la sencillez y la capacidad de compartir procesos similares en varias aplicaciones. Los microservicios son más fáciles de diseñar, probar, implementar y actualizar. El objetivo es distribuir software de calidad con mayor rapidez ("¿Qué son los microservicios?", s. f.).    MQTT (Message Queuing Telemetry Transport) MQTT es un protocolo de conectividad máquina a máquina (M2M). Fue diseñado como un transporte de mensajería, basado en el estándar ISO ISO/IEC PRF 20922, de publicación/suscripción ("FAQ - Frequently Asked Questions | MQTT", s. f.). Inicialmente, MQTT fue inventado y desarrollado por IBM a finales de los 90´s. Su aplicación original era vincular sensores en oleoductos de petróleo a satélites. Se trata de un protocolo de mensajería con soporte para la comunicación asíncrona entre las partes. Un protocolo de sistema de mensajes asíncrono separa al emisor y al receptor del mensaje tanto en el tiempo como en el espacio, permitiendo la escalabilidad en ambientes de red que no sean de confianza (Banks & Gupta, 2015). Algunas características de este protocolo son: Uso del modelo de mensajería de publicación/suscripción. Un transporte de mensajería que es agnóstico al contenido de la carga útil. Es extremadamente ligero, abierto y simple. Está diseñado para que sea fácil de implementar. Es útil en conexiones con ubicaciones remotas, donde se requiere un pequeño código y donde el ancho de banda es una limitante. Tres calidades de servicio para la entrega de mensajes: Como máximo una vez, donde los mensaje se entregan de acuerdo con los mejores esfuerzos del entorno operativo. La pérdida de mensajes es tolerable. En caso de que el cliente no se encuentre disponible en ese momento, perderá el mensaje. Al menos una vez, donde se asegura que los mensajes lleguen pero pueden ocurrir duplicados. Exactamente una vez, donde se asegura que el mensaje llegue exactamente una vez. Estas características han convertido este protocolo en una constante dentro del área de IoT (Internet of Things), convirtiéndolo en un patrón para sus comunicaciones. También es ideal para aplicaciones móviles debido a su pequeño tamaño, bajo consumo de energía, paquetes de datos minimizados y distribución eficiente de información a uno o varios receptores.


CONCLUSIONES

Como solución al problema planteado y siguiendo la metodología establecida, se desarrolló una arquitectura de microservicios capaz de soportar una gran cantidad de datos provenientes de una red de sensores y aplicandoles distintas transformaciones a través de un flujo de trabajo. Haciendo uso de las características y beneficios que los contenedores virtuales poseen. La arquitectura propuesta se caracteriza por la facilidad de distribuir los procesos en diferentes microservicios independientes, proporcionando la facilidad de escalar o añadir nuevos servicios de la aplicación sin afectar a los demás servicios. Este trabajo presenta una forma idónea de solventar el problema y facilitar las tareas de desarrollo haciéndolas flexibles, eficientes y seguras.
Moreno Valenzuela Elsa Fernanda, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Moya Partida Adriana Sinahy, Instituto Tecnológico de Tepic
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA IMPLEMENTAR CONCRETOS DE ALTAS PRESTACIONES

Dimas Gómez Edgar Daniel, Universidad de Colima. Martinez Diaz Rosina Belen, Instituto Tecnológico de Tepic. Moya Partida Adriana Sinahy, Instituto Tecnológico de Tepic. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. En la actualidad nos enfrentamos a una crisis sin precedentes, la contaminación por desechos humanos cada vez es más crítica y de eso surgió la idea de aprovechar residuos para mejorar las características del cemento, como por ejemplo el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión. Todo eso con el objetivo de mitigar la contaminación que generamos día con día.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indica la norma NMX-C-160-ONNCCE-2004. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma NMX-C-160-ONNCCE-2004 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa NMX-C-160-ONNCCE-2004. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó según la norma NMX-C-083-ONNCCE-2002 para la prueba a compresión de elementos de concreto y la norma NMX-C-191-ONNCCE-2004 para los ensayos a flexión de concreto.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a los 250 kg/cm2 calculados, el espécimen ensayado a 28 días llego aproximadamente a el 20% de la resistencia deseada, por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró sustituir el 15% del peso total del cemento por dicha ceniza no lo hace tan resistente como el convencional de 250kg/cm2, pero por muy poco, el espécimen ensayado a 28 días dio una resistencia de 218.5 kg/cm2 a compresión, pero ayuda a tener un revenimiento menor. El concreto con PET en escama se le adiciono un aditivo acelerarte, presento un mayor rendimiento al convencional, y el espécimen ensayado a los 14 días presento una resistencia a la compresión aceptable de 209.9kg/cm2. Durante la elaboración de las mezclas antes mencionadas se tuvo una circunstancia que afecto en el desempeño de los especímenes y fue el hecho de que al momento de hacer la dosificación de la muestra no se caracterizaron los agregados pétreos, esto género que en cada mezcla se agregara una cantidad total diferente de agua con el objetivo de hacerla lo sufrientemente trabajable. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo.
Moya Rodríguez Aldo Saúl, Instituto Politécnico Nacional
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

DISEñO E IMPLEMENTACIóN DE UN POTENCIóMETRO DIGITAL DE CAMPO.


DISEñO E IMPLEMENTACIóN DE UN POTENCIóMETRO DIGITAL DE CAMPO.

Moya Rodríguez Aldo Saúl, Instituto Politécnico Nacional. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El pH es una variable química de suma importancia en diversos ámbitos de la actividad del ser humano. Contar con un equipo práctico y sencillo para medición de este parámetro en campo o incluso en el laboratorio puede ser muy útil para una primera medición. En base a esta primera lectura se pueden tomar decisiones rápidas y actuar a tiempo antes de que se cause algún daño o se tengan pérdidas económicas. En el presente trabajo se desarrolla la primera versión de un prototipo de medición de pH portátil, de bajo costo y fácil de usar por cualquier persona, incluso si no tiene educación técnica.



METODOLOGÍA

Primeramente, el Maestro Francisco Ruiz me instruyó en el uso y funcionamiento de un potenciómetro en el laboratorio de genética de la Universidad del mar para familiarizarme con este tipo de instrumentos y así  llevar a cabo el prototipo que compete a este verano. Tras platicar con el profesor de mis primeras ideas para desarrollar el proyecto, me informó de los materiales y equipo con el que podía disponer. Se decidió usar una placa Arduino nano debido a su pequeño tamaño y buen rendimiento. Para la visualización de los datos el profesor me proporcionó una pantalla OLED ssd1306 debido a su pequeño tamaño y bajo consumo. Además, me otorgó un shield para Arduino  sensor de pH modelo Dormant labs pH module V2. Por lo que lo comencé a investigar, experimentar y poner a funcionar estos dispositivos. Una vez que se hizo funcionar cada uno de los shields, se juntaron en un único sistema y realizaron las primeras mediciones en soluciones acuosas para compararlas con las del potenciómetro Hannah que se encuentra en la universidad del mar. Ya que los resultados fueron satisfactorios, se continuó por pulir el funcionamiento del prototipo, se agregaron unas rutinas de calibración automática y de un setpoint para que se dé una señal si es que el pH supera ese valor predefinido por el usuario. Se mostraron los resultados al profesor para retroalimentar el potenciómetro desarrollado, se hizo un poco más amable la interfaz, agregando unos botones y desplegando instrucciones en pantalla, ya que este prototipo está dirigido a cualquier usuario tiene que ser sencillo y amable con el mismo. Finalmente se hizo un diseño electrónico de un regulador de tensión para que el prototipo funcionara con una batería de 9V para poder usarlo en campo y soldé los componentes electrónicos en una pequeña placa fenólica, para darles mayor estabilidad y solidez en su transporte.


CONCLUSIONES

Al comparar los resultados obtenidos por el prototipo con los del equipo Hanna que se encuentra en el laboratorio de genética de la UMAR, se puede concluir que los resultados obtenidos por el sistema desarrollado durante la estancia son aceptables para una primera medición de campo y cumple con sus objetivos; el sistema es compacto, portátil, práctico, fácil de usar y de bajo costo. El prototipo ofrece una solución al problema del limitado acceso que se tiene a potenciómetros en muchos ámbitos donde resultan muy importantes para evitar pérdidas económicas, de recursos naturales o daños a la salud. Este prototipo es una primera versión, la cual aún puede ser mejorada y actualizada por futuros estudiantes que realicen su estancia de verano con el profesor Francisco Ruiz Ruiz en la Universidad del Mar.
Munguía Aldapa Carlos, Universidad de Sonora
Asesor: Dr. Ivan Cruz Aceves, Centro de Investigación en Matemáticas (CONACYT)

DETECCIóN DE CASOS DE ESTENOSIS MEDIANTE APRENDIZAJE MáQUINA


DETECCIóN DE CASOS DE ESTENOSIS MEDIANTE APRENDIZAJE MáQUINA

Alvarez Bacame Guillermo, Universidad de Sonora. Munguía Aldapa Carlos, Universidad de Sonora. Asesor: Dr. Ivan Cruz Aceves, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El objetivo principal de la investigación es la creación de un programa computacional que permita a los médicos detectar y ubicar casos de estenosis, para así facilitar el diagnóstico y apoyar en la toma de decisiones. La estenosis consiste en el estrechamiento de un orificio o conducto, en este caso de arterias cardiacas. Este estrechamiento impide que la válvula se abra por completo, lo que reduce u obstruye el flujo sanguíneo del corazón a la arteria principal del cuerpo (aorta) y hacia el resto del organismo. Cuando el flujo de sangre que pasa por la válvula aórtica se reduce o se obstruye, el corazón debe trabajar más para bombear sangre al cuerpo. Con el tiempo, este esfuerzo adicional limita la cantidad de sangre que puede bombear el corazón, lo que puede provocar síntomas y, posiblemente, debilitar el músculo cardíaco. El proceso de detección realizado por el Instituto Mexicano del Seguro Social (IMSS) consiste en una revisión manual de todos los angiogramas realizados al paciente. Este puede ser un proceso exhaustivo como poco eficiente considerando la reducida cantidad de especialistas con respecto a la de casos.



METODOLOGÍA

El trabajo de investigación fue un proceso completo de minería de datos, desde la extracción de características, la reducción de dimensionalidad del sistema y la clasificación de los casos. Se trabajo en el lenguaje de programación Python y las imágenes fueron previamente procesadas en el software GIMP. Se analizaron 6 imágenes de angiogramas coronarios con 9 casos estenosis en total previamente detectados por un especialista. Primeramente, las imágenes fueron examinadas por un médico especializado, quien determino la zona en la que se localiza el caso de estenosis. Además, estas fueron vectorizadas para poder delimitar con precisión la vena y el fondo. Estas imágenes, de 512 por 512 pixeles, fueron segmentadas en subventanas de 151 por 151, por medio de un algoritmo que genera estas subventanas alrededor de pixeles centrales con estenosis, y una misma cantidad de subventanas aleatoriamente obtenidas que no contienen estenosis. Los datos fueron obtenidos a partir de estas imágenes tomadas de las imágenes originales Se tomaron 2452 subventanas distintas, la mitad de ellas con estenosis y la otra mitad sin estenosis, de las cuales se obtuvieron 14 características de imagen, por ejemplo, el grosor de la vena, el largo, el nivel medio de gris en la subventana o la desviación estándar del gradiente de Sobel. Estas características son los datos que fueron obtenidos para entrenar un clasificador, el cual, al estar entrenado, debe de ser capaz de clasificar correctamente los angiogramas con estenosis y los que carecen de estenosis.   Posteriormente, se realizó una reducción de dimensionalidad con dos métodos distintos. Por un lado, se utilizó PCA (Principal Component Analyisis), disponemos de una gran cantidad de variables para modelar el problema, esto hace más difícil visualizar la relación entre las mismas, lo que buscamos es encontrar esas variables que guarden una fuerte correlación (que midan lo mismo bajo distintos puntos de vista), de esta manera se pretende una convergencia de reducción de dimensionalidad y exactitud. Por otro lado, se realizó un programa de Feature selection por medio de un algoritmo genético, el cual selecciona distintas características aleatoriamente y valida los resultados con un clasificador para obtener la precisión de esa combinación de variables. Después, se realizan cruzas entre distintas combinaciones de características, aumentando la precisión de clasificación, hasta que se obtiene una combinación con una precisión aceptable. Finalmente, se utilizó un clasificador de K vecinos cercanos (KNN) para determinar los casos prueba, el cual calcula las distancias euclidianas entre las variables de un caso prueba con respecto al set de datos previamente obtenidos y etiquetados. El algoritmo ordena estas distancias y elige las K más cercanas (k vecinos), después compara sus etiquetas y clasifica el nuevo caso en el conjunto que tenga más vecinos dentro de los k más cercanos. De esta manera, se determina si un nuevo angiograma contiene estenosis o no.


CONCLUSIONES

Durante la estancia de investigación se logró con éxito el desarrollo del algoritmo planteado para la solución del problema, clasificando así las características que determinan la presencia de estenosis en una imagen, sin embargo, la limitada base de datos que poseemos no nos permite detectarla con la precisión deseada. Se espera abordar el problema desde una perspectiva en el cual esto no sea un problema, mediante el uso de técnicas avanzadas de ciencia de datos, debido a que enriquecer esta base de datos podría tratarse de una tarea bastante complicada.
Muñiz Pérez Evelyn Angélica, Universidad Tecnológica de Nayarit
Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)

DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.


DESARROLLO DE APLICACIONES DE SOFTWARE “SOFTWARE DIFTONO”.

Hernández Retana Luis Fernando, Instituto Tecnológico de Toluca. Mejía Pacheco José Roberto, Universidad de La Salle Bajío. Muñiz Pérez Evelyn Angélica, Universidad Tecnológica de Nayarit. Asesor: Dr. Dougglas Hurtado Carmona, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La problemática planteada va en conjunto a la muestra de resultados que se presenta ante el cliente, al realizarse un aclaramiento en la zona intima femenina, ya que dicho aclaramiento se realiza con el uso de tecnología láser. De tal manera que, se requiere un método que muestre el porcentaje de aclaramiento, con la comparación de la primera imagen antes del tratamiento y con una segunda imagen después de este, para así obtener una tercera imagen que dé como resultado con uso de filtros ya que de no tener el software es muy subjetivo la interpretación de resultados.



METODOLOGÍA

Haciendo uso de las comparativas realizadas por los ginecólogos pudimos observar cuales son las áreas de tratamiento y cuales son las zonas especificas en las cuales el acercamiento al tono original de piel toma efecto, con estos datos desarrollamos un software que haciendo uso de algoritmos matemáticos y operaciones con matrices analice pixel por pixel para así encontrar un color promedio de las zonas tratadas, esto para poder analizar de una mejor manera los resultados obtenidos después de cada sesión de tratamiento y que el paciente tenga un mejor panorama respecto a los resultados obtenidos y pueda el verlo a través de la interfaz gráfica. Así mismo se dan las recomendaciones pertinentes para que al momento de la recolección de datos, los resultados finales sean más acertados, esto debido a que si las imágenes se capturan desde diferentes ángulos o con diferente método de iluminación los datos obtenidos carecerán de factibilidad.


CONCLUSIONES

Al realizar las sesiones de acercamiento a tono natural de la piel se notaron mejoras en el desarrollo del software ya que tanto hubo un avance en el ámbito medico como ante el mejoramiento del software mismo, esto debido a que teniendo una mejor calidad a la hora de detección de las zonas que requieren de un mejor cuidado se le puede dar un tratamiento mas especifico a las personas y con ello ofrecer más datos de calidad para utilizarlos en las comparaciones obtenidas para la mejora del código del software. Al utilizar un software para el manejo de los resultados queda descartado el factor humano que puede ser susceptible a los cambios debidos a la fatiga, la forma en cómo se presentan los datos, etc., a contraparte de un software que sin importar el contexto va a arrojar los mismos datos como resultado de la comparativa y así tener una conclusión más certera de los cambios en la tonalidad de la piel, siempre y cuando se sigan las recomendaciones al momento de recolectar los datos (tomar las fotografías).
Muñoz Alonso Luis Angel, Instituto Politécnico Nacional
Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)

TRAZADO DE RUTAS OPTIMAS MEDIANTE ALGORITMOS DE TSP EN MéRIDA


TRAZADO DE RUTAS OPTIMAS MEDIANTE ALGORITMOS DE TSP EN MéRIDA

Muñoz Alonso Luis Angel, Instituto Politécnico Nacional. Asesor: Dr. Joel Antonio Trejo Sánchez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, gracias a la gran comunicación vial que contienen los países en vías de desarrollo y desarrollados se presenta el problema de ¿Cómo llego más rápido?, este problema se ve acrecentado cuando el número de caminos para poder llegar de un destino a otro es muy grande aunado a eso el crecimiento de automóviles en las ciudades. De acuerdo con el sondeo Vehículos de motor registrados en circulación del Instituto Nacional de Estadística Geografía e Informática (INEGI) informó que de 2010 a 2015 Yucatán pasó de 513 mil 792 a 674 mil 366 vehículos automotores, con promedio sostenido de crecimiento de más de 30 mil por año; esto indica que la mayor problemática que se presenta en este tipo de incrementos automovilísticos es la acción de encontrar caminos más adecuados con el fin de evitar atascos y disminuir tiempos creando así una necesidad para el conductor del día a día. Durante el verano de investigación se estudian y se llevan a cabo técnicas y algoritmos específicamente diseñados para determinar las rutas más optimas de viaje comprendido en un solo destino o para múltiples destinos.



METODOLOGÍA

Para llevar a cabo el proyecto se comenzó por delimitar la zona de mapeo, en este caso se decidió utilizar la ciudad de Mérida como punto de partida para realizar el mapa. Con ayuda de Google mapas obtuvimos las coordenadas del centro de la ciudad para a partir de eso trazar el mapa con una simple instrucción por parte de la librería de Python gmplot perteneciente a la empresa google para el trabajo con mapas, la instrucción utilizada fue: gmplot.GoogleMapPlotter(20.967778,-89.621667, 13) Posteriormente con ayuda de puntos específicos de localización geográfica (Latitud y Longitud) obtenidos a través de la API (Application Programming Interface) de Google para mapas se aislaron las avenidas principales de la ciudad tomando en cuenta solo un sentido de dirección para la primera etapa de desarrollo. Con la misma API se determinaron las distancias aproximadas de separación de punto de avenida a punto de avenida y de punto de avenida a punto de entrega y de partida de simulación, esto con el fin de en próximos pasos verificar los cálculos obtenidos para distancias. Se agruparon cada uno de los datos en matrices que a su vez conformaron una matriz única denominada xNode = [  ], dicha matriz se compuso de alrededor de 126 puntos de localización geográfica. xNode = [[lat,lon],[lat,lon],[lat,lon],…] Realizado lo anterior se implementó un método efectivo exclusivo de Python para la creación de un grafo superficial que uniera cada uno de los puntos, el cual obtuvo varios nombres dependiendo de la avenida que se estaba mapeando nMultiDiGraph( ), dicho método creo el grafo aleatorio pero culminado eso, el problema se convirtió en unir cada grafo independiente de las avenidas, para ello se volvió a recurrir a la librería exclusiva de Python para el trabajo de grafos; usando una simple función de unión se logró el objetivo de conectar cada grafo independiente obteniendo un único grafo que representaba las avenidas más importantes de la ciudad. B=nx.compose(A,C) Donde:             B: Grafo final             A,C: Grafos a unir             Nx.compose: Función de unión   Con ayuda de un algoritmo muy conocido para la implementación de la solución del TSP (Traveling Salesman Problem) llamado algoritmo de Dijkstra se logró determinar el camino más corto dado un punto inicial el cual con ayuda de un método para calcular las distancias sobre la superficie terrestre utilizando la ecuación de Haversine se determinó a que punto de las avenidas se aproximaba más, obtenido este resultado al analizar punto por punto se obtuvo el punto de partida, lo mismo aplicó para el punto final. Código para obtener las distancias: Haversine(NodeCJ[0],NodeCJ[1],xNode[a][b],xNode[a][c]) El algoritmo de Dijkstra es un algoritmo para la determinación del camino más corto, dado un punto de origen, hacia el resto de los puntos o vértices en un grafo que tiene pesos en cada arista. La idea de este algoritmo consiste en ir explorando todos los caminos más cortos; cuando se obtiene el camino más corto desde el punto de origen hasta el resto de los puntos que componen el grafo, el algoritmo se detiene; el código base utilizado para esta operación es el siguiente: nx.dijkstra_path(B,PI,PF)   Después se realizó el trazado de la ruta en el mapa interactivo de Google, para ello se precisó nuevamente el usar la API de desarrollador de Google para mapas y con una instrucción muy sencilla se trazaron las marcas y puntos en el mapa para seguir, la instrucción utilizada fue: Instrucción para puntos mapa1.scatter(latitude list, longitude list, '# FF0000', size = 7, marker = False ) Instrucción para líneas                       mapa1.plot(latitude list, longitude_list,'cornflower blue', edge width = 7)   Finalmente se construyó el grafo secundario para el análisis de rutas, dicho grafo fue construido a base de un algoritmo sencillo realizado en conjunto con el asesor.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de los problemas de optimización de transporte en las grandes ciudades, así como en comunidades aledañas poniendo a prueba técnicas propias y ya existentes de manejos de datos mediante grafos y de solución a estos inconvenientes utilizando el TSP como base, sin embargo, al ser un trabajo tan extenso el cual requiere de mucho más tiempo y conocimientos en programación, los resultados obtenidos satisfacen hasta cierto punto la base principal del proyecto. Se espera que el seguimiento del proyecto contemple mejores trazos de las calles de la ciudad, así como de las direcciones múltiples en avenidas y uniones de vialidades, modificando en cierta parte el código escrito durante esta estancia.  
Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla
Asesor: Mtro. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla

ESTUDIO DE DAñOS AL TEMPLO DE NUESTRA SEñORA DE LA MERCED, PUEBLA, PUE.


ESTUDIO DE DAñOS AL TEMPLO DE NUESTRA SEñORA DE LA MERCED, PUEBLA, PUE.

Luna Lopez Luz Selene, Universidad Autónoma de Sinaloa. Muñoz Flores José Gilberto Otoniel, Benemérita Universidad Autónoma de Puebla. Asesor: Mtro. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estado de Puebla es una ciudad moderna, colonial y desde 1987 declarada como Patrimonio Cultural de la Humanidad por la UNESCO, esto gracias a la riqueza de sus monumentos históricos. El patrimonio cultural sin duda es un tesoro que nos han dejado nuestros antepasados, es por eso la importancia de su estudio, cuidado y preservación.  Los monumentos presentan un alto deficiente en el desempeño de las estructuras y si a esto le añadimos que el estado de Puebla está en una zona de alta sismicidad nos ponemos ante una situación verdaderamente vulnerable, no solo por los altos costos de construcción si no también por las técnicas de rehabilitación adecuadas  a utilizar para seguir otorgándoles el título al monumento de "patrimonio cultural" Es por eso que se decidió estudiar el templo de Nuestra Señora de la Merced, el cual fue dañado por el sismo de 1999 y el último sismo que golpeó al estado en 2017. Ambos sismos dañaron severamente la estructura del templo.  



METODOLOGÍA

1. Investigación de la sismicidad en el estado de Puebla, así como también su riqueza en monumentos históricos, en especial sus templos 2. Localización de los templos viables para su análisis.  3.  Deteccion de daños causados al templo por el sismo 4. Técnicas de rehabilitación estructural , patologías, pruebas destructivas y no destructivas 5. Análisis de resultados y conclusiones. 6. Redacción de informe final.


CONCLUSIONES

Se hicieron visitas al Templo de Nuestra Señora de la Merced e inspeccionando los macroelementos,se enfocó el análisis en el arco más dañado, el arco del coro, ya que presentaba una grieta en la clave. Se realizó el levantamiento topográfico, el modelado se hará en SAP 2000 versión 20 y con la aplicación de un Pushover, el cual consiste en aplicar una fuerza en el punto de control y obtener la curva de capacidad-demanda. De los resultados analizados se propone como técnica de rehabilitación estructural una inyección de mortero tixotropico marca Maxrest El objetivo de esta técnica consiste en inyectar mortero a través de grietas para rellenarlas al interior del elemento. Otra técnica que se propone es la de adición de elementos en este caso un perfil de acero que sirva como refuerzo estructural al arco dañado. Este sería una técnica extrema en caso de que se haga un estudio más detallado de las condiciones y se encuentren hundimientos en las columnas y  no exista otra técnica para poder preservar el arco
Muñoz González Eduardo David, Instituto Politécnico Nacional
Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío

IDENTIDAD DIGITAL


IDENTIDAD DIGITAL

Muñoz González Eduardo David, Instituto Politécnico Nacional. Silva Peña Álvaro Vicente, Universidad de La Salle Bajío. Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Día a día, miles de Internautas crean cuentas de usuario en sitios de redes sociales o servicios electrónicos con la intención de disfrutar una buena experiencia. El proceso de creación de cuenta de usuario requiere del llenado de un formulario web que no ha tenido actualización desde sus inicios; es decir, se continua completando los campos con la información solicitada, tal como el nombre, fecha de nacimiento, entre otra información. Con ese procedimiento, los usuarios mal intencionados pueden aprovechar la falta de un mecanismo de validación de identidad para crear cuentas falsas o utilizar información robada, afectando la identidad de una persona y perjudicando el bueno uso de la Internet.



METODOLOGÍA

Se partió con el desarrollo del sistema emisor Web de la identidad digital en formato JSON para lo cual se configuró un servicio web y se utilizó en lenguaje de programación JAVA. Con la generación del JSON, se procedió a configurar un sitio web donde se pueda dar de alta una cuenta de usuario solicitando la identidad digital en formato JSON, reemplanzando el registro por formulario de registro Web. La información personal contenida en el archivo JSON se carga en la base de datos, evitando que el usuario deba teclearla. En este punto, se procedió a incorporar una función hash para proveer de integridad a los datos almacenados en el JSON, modificando tanto el proceso de generación como el proceso de carga de datos a la base de datos. Ademas se proporcina seguridad al usuario al implementar un cifrado DES al archivo JSON mediante un NIP.


CONCLUSIONES

Se cuenta con el prototipo funcional del primer mecanismo para crear cuentas de usuario sin utilizar el formulario de registro Web. Se requiere más trabajo para incrementar la seguridad y hace falta el desarrollo de dos protocolos de seguridad que serán implementados en los siguientes meses.
Muñoz Granados Luis Daniel, Instituto Politécnico Nacional
Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.


CARACTERIZACIóN DEL AGUA PROVENIENTE DE UNA PLANTA DESIONIZADORA PARA EL AUTOCONSUMO EN LAS UNIVERSIDADES, UNA RESPUESTA INTEGRAL.

Huerta Duran Elia, Benemérita Universidad Autónoma de Puebla. Licona Flores Cassandra, Instituto Tecnológico de Pachuca. Muñoz Granados Luis Daniel, Instituto Politécnico Nacional. Asesor: Dr. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Uno de los factores principales de crisis urbana de nuestros días tiene que ver con la disposición de agua para la vida diaria en las viviendas, comercios, servicios e industrias. Obtener nuevas fuentes de agua se va haciendo cada día más difícil, dado que la población crece y demanda este recurso en las ciudades y en el campo. A nivel urbano, el desperdicio del vital líquido tanto por los consumidores directamente como en las tuberías dañadas y muebles sanitarios ineficientes o en mal estado, representa solamente una parte del problema; la contaminación de las aguas usadas tanto en los domicilios como en procesos industriales es otra, y la falta de opciones para su disposición cierra el círculo. No es suficiente con proveer la cantidad de agua requerida, sino que se debe asegurar su calidad necesaria para los diferentes usos, sin consecuencias adversas para la salud, de manera práctica y económica Es por lo anterior que la Facultad de Ingeniería Química de la BUAP optó por instalar una purificadora y desionizadora cuyo abastecimiento es el agua de la red municipal. El objetivo de ésta es suministrar agua purificada para el consumo de los docentes y personal de la misma facultad y de igual modo, proporcionar agua desionizada como reactivo de las prácticas de docencia. Al mismo tiempo el personal del Laboratorio de Operaciones Unitarias (sede de dicha planta) es quien se encarga de monitorear y asegurar la calidad del agua que se produce



METODOLOGÍA

El trabajo de investigación se ha realizado a través de una estrategia de trabajo consistente en las siguientes acciones: Se analizó la calidad de agua que llega y se trata para distribuirla a las instalaciones de la Facultad de Ingeniería Química (FIQ) de la Benemérita Universidad Autónoma de Puebla, en la colonia Jardínes de San Manuel de la capital poblana, Puebla.  El agua que se recibe se procesa en una planta tratadora de agua, ubicada en el Laboratorio de Operaciones Unitarias (LOU) de la FIQ. El tren de tratamiento  ofrece agua purificada para consumo del personal de la misma Facultad y agua des ionizada apta para emplear como servicio auxiliar en equipos, prácticas de docencia e investigación. El muestreo se realizó en 4 válvulas de la planta de tratamiento, válvula 2 (V2), 10(V10), 21 (V21) Y 31 (V31) . El agua de la válvula 2 proviene de la red municipal de agua potable; la válvula 10 suministra agua que ha pasado por un filtro de arena, un filtro con carbón activado y un sistema suavizador, la válvula 21 surte agua purificada, apta para el consumo humano, ésta se encuentra dentro de una cámara donde se procede al llenado de garrafones por solicitud del personal de la facultad. Por último, la válvula 31 dota de agua des ionizada, adecuada para usar en los equipos de todos los laboratorios de la facultad o como reactivo para prácticas de docencia e investigación en los mismos. El muestreo comenzó el día 1 de enero de 2019 y finalizó el 28 de Junio del mismo año. El tiempo de muestreo corresponde a los períodos Primavera 2019 y Verano 2019 para las actividades en la BUAP,en un horario de 9 a las 12 hrs. Se midieron sólo 4 parámetros físico-químicos: conductividad eléctrica (CE), Total de sólidos disueltos (TDS), potencial de hidrógeno (pH) y dureza. Los dos primeros, CE Y TDS se determinaron mediante un multiparámetro portátil OAKTON. El pH y la dureza fueron determinados con ayuda de kits especiales para ello. Para determinar Conductividad eléctrica y TDS se usó un multiparámetro marca OAKTON. Una vez encendido se introducía el electrodo  en el vaso de precipitado con el agua de interés dentro. Se configuraba el multiparámetro para determinar Conductividad presionando MODE. Para tomar una lectura confiable se esperaba a que la pantalla mostrara el mensaje READY, una vez anotada la lectura se presionaba MODE hasta que en pantalla apareciera como parámetro a medir TDS, nuevamente se esperaba el mensaje  READY para leer la medición de TDS. Entre cada muestreo se enjuagaba el electrodo con agua des ionizada y se dejaba escurrir para asegurar que no quedaran restos de la muestra anterior y que ésta afecte la lectura de la siguiente muestra. Para determinar el pH parte de la muestra se vertía en una columna colorimétrica, a la cual se le añadían 2 gotas de indicador Fenol Rojo, luego se agitaba para homogeneizar y la coloración obtenida se comparaba con la escala de pH que incluía el Kit. Las coloraciones podían indicar que el pH era aproximado a 6.8, 7.2, 7.6, 7.8 y 8.2. El interés de conocer la dureza del agua sólo se centró en la Válvula 10, debido a que era necesario conocer la presencia de sales que se le añaden en el intercambio iónico. Ésta se determinó con un kit en el cuál se aforaba en un recipiente de plástico transparente, se añadían 2 o 3 gotas de solución Buffer y posteriormente se titulaba con EDTA. Si a la primer gota de titulante añadida a la solución muestra se tornaba azul indicaba 0 ppm de dureza y luego, por cada siguiente gota añadida significaba 10 ppm de dureza. En solo una ocasión se tituló agua de la válvula 2, la cual indicó una dureza aproximada de 300 ppm.


CONCLUSIONES

De acuerdo a la NOM-127-SSA1-1994, el agua purificada que sale de la válvula 21 cumple con los límites permisibles de acuerdo a los parametros medidos.  De acuerdo a clasificación de los tipos de agua según ASTM 1193: 2001, se tiene un agua desionizada tipo IV la cual es agua con una conductividad final máxima de 5,0 µS/cm. La cual sirve para la preparación de soluciones y para el lavado o enjuague de cristalería. Con base a la norma anteriormente mencionada el agua desionizada que produce la planta satisface los requerimientos en cuanto a conductividad eléctrica y pH. De acuerdo a lo anterior se considera importante continuar los registros de monitoreo en la bitácora, para detectar posibles irregularidades en el funcionamiento de la planta que puedan afectar la calidad del agua que se produce, además se sugiere una sanitización en periodos de cada tres meses para evitar fluctuaciones en los parámetros de calidad.
Muñoz Montes de Oca Jenny Noemí, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

INTERFACES CEREBRO-COMPUTADORA BASADAS EN SSVEP


INTERFACES CEREBRO-COMPUTADORA BASADAS EN SSVEP

Lasso Saldaña Javier, Universidad de Guadalajara. Muñoz Montes de Oca Jenny Noemí, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En México, el 6% de la población presenta algún tipo de discapacidad, inducida por enfermedad o accidentes, lo cual representa aproximadamente a 5 millones de personas.  Según datos de la Secretaría de Salud, la discapacidad más frecuente es la motriz, siendo la dificultad para ver o caminar las más comunes. Las enfermedades neuromusculares son la causa más frecuente de deficiencia motora. (2017) Las enfermedades neuromusculares afectan al sistema nervioso generando una pérdida en la capacidad motriz, entre las cuales destacan padecimientos como Esclerosis Lateral Amiotrófica y Esclerosis Múltiple. Las interfaces cerebro-computadora representan una herramienta para proveer nuevas tecnologías de comunicación y control para pacientes con deficiencia motriz. Este tipo de interfaces facilitan la comunicación usuario-computador mediante la medición de bioseñales tales como los paradigmas P300 y SSVEP.



METODOLOGÍA

Se realizaron experimentos utilizando el paradigma SSVEP en una interfaz cerebro-computadora. Para ello se reclutaron participantes del Programa de Verano de Investigación Delfín 2019. Doce sujetos sanos dentro de las edades entre 19-22 años, participaron en el estudio de SSVEP, utilizando el equipo g.EEGsys para el registro del encefalograma.  El experimento realizado se dividía en 2 fases, durante la fase de preparación el participante se conectaba al electroencefalograma (EEG), utilizando un gorro de electrodos pasivos, aplicando gel conductor al participante para favorecer el contacto del cuero cabelludo y el electrodo. Las señales del EEG eran medidas a través de 8 canales posicionados en los lóbulos parietal y occipital del cerebro, es decir PO7, PO3, POz, PO4, PO8, O1, O2, Oz, y AFz como electrodo de tierra, siguiendo el Sistema Internacional de electrodos ‘10-20’. Se utilizó una configuración de grabación referencial, en donde la diferencia de potencial se obtiene entre un electrodo de grabación y uno de referencia. Para este experimento el electrodo de referencia se colocó en el lóbulo del oído derecho. Las señales sin procesar son amplificadas y procesadas a través del amplificador de bioseñales ‘g.USBamp’ y son transmitidas al computador utilizando el software del mismo. El experimento consiste en 5 partes, la primera, tercera y quinta figuran un entrenamiento neutro, en el cual se registran los datos del EEG en un estado de reposo, para esto la interfaz muestra una barra de tiempo (1 minuto). Para la segunda y cuarta parte del experimento se realizó un entrenamiento con diferentes frecuencias. En este entrenamiento se pidió a los sujetos concentrar su mirada en un cuadrado de 200 pixeles de largo por 200 pixeles de alto, en donde una señal destella a diferentes frecuencias dentro del rango de 5 a 30 Hz, de una manera aleatoria. El experimento consiste en una pantalla en negro (duración 2 segundos) para el periodo de reposo, una pantalla de fijación (duración 1 segundo) para que el sujeto dirija su atención al estímulo, y por último la pantalla del estímulo el cual dura 10 segundos. En esta fase del entrenamiento se muestran 55 estímulos, por lo que se realiza en un total de 12 minutos. Una vez realizada la primera sesión de experimentos a los 12 sujetos, se inició con el procesamiento de datos utilizando el programa ‘SSVEP Analyzer’ para ello se utilizó la función Detector para analizar las frecuencias presentadas contra las señales en reposo del entrenamiento neutro, con lo que se pudieron detectar las frecuencias (o clases) que funcionaban de manera adecuada para cada uno de los sujetos. El análisis se realizó utilizando los algoritmos Cannonical Correlation Analysis, Minimal Energy Conservation y Likelihood Ratio Test, utilizando 4 índices distintos de 0.2, 0.4, 0.6 y 0.8 para cada uno de ellos. A su vez, también se modificaron los parámetros del tamaño de muestras entre 256, 384 y 512. Cada uno de los participantes fue sometido a dos sesiones experimentales como la que se describió previamente. Sin embargo, en la segunda sesión experimental se adicionó la Prueba Online, en la cual se colocaron 2 señales (izquierda y derecha) destellando a las 2 frecuencias más altas para cada sujeto. Posteriormente, se pidió a los participantes concentrar su mirada en una de las señales, con lo que la computadora era capaz de seleccionar la señal elegida por el participante. A su vez se realizó el análisis del tiempo de respuesta del programa para clasificar las frecuencias observadas durante el experimento. Para ello se realizó un gráfico en MATLAB, comparando el porcentaje de error con el intervalo de tiempo, así detectando el tiempo de respuesta del programa para cada uno de los sujetos. Finalmente, se implementó un Interfaz Cerebro-Computadora para el control de un brazo robótico ‘DOBOT’, en la cual el estímulo SSVEP se utiliza para habilitar la interfaz, mientras que el paradigma P300 se utiliza para asignar comandos o indicaciones al robot.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos de las Interfaces Cerebro-Computadora utilizando el paradigma SSVEP. Se analizaron los datos de 12 sujetos, obteniendo para ellos las frecuencias adecuadas para que el sistema funcione, y el tiempo de respuesta del computador. El objetivo principal de la investigación es el diseño de un algoritmo que pueda encontrar estas frecuencias, utilizando la configuración más apropiada, sin embargo, al ser un extenso trabajo analítico solo se llegó a la etapa de procesamiento de datos, la base para la generación del algoritmo. A su vez, fue posible implementar y controlar una Interfaz Cerebro-Computadora empleando SSVEP para el control de un robot de comandos, utilizando los datos obtenidos para llevar a cabo el control de la interfaz.
Muñoz Morales Jared Hazael, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

TRANSPORTE SUSTENTABLE


TRANSPORTE SUSTENTABLE

Muñoz Morales Jared Hazael, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El conocimiento y entendimiento del señalamiento vial ayuda a mitigar pérdidas económicas por congestión, costos de salud, accidentes y daños ambientales, entre otros costos sociales. Actualmente una problemática en México es la tendencia ascendente en el índice de motorización  que es el número de vehículos de motor registrados en circulación por cada 1 000 habitantes, desde el año 2000 al año 2015 se incrementó en un 45% de acuerdo con INEGI (2017), lo anterior nos hace reflexionar en el nivel de seguridad vial para garantizar el traslado que se hace de un lugar a otro, partiendo de un origen hasta su destino. OMS (2009) en su informe sobre la situación mundial de la seguridad vial en el mundo, menciona que a nivel mundial la población entre los 15 a los 29 años son altamente vulnerables a fallecer en accidentes viales, un entre los 5 y 14 años son la segunda causa de muerte, esto nos habla de un problema social que se debe atender, es decir educar a nuestros niños y jóvenes en el conocimiento oportuno y temprano de los lineamientos en seguridad vial. Con base a los registros antes mencionados se entiende la necesidad de la importancia del conocimiento de la seguridad vial y llama la atención sobre las necesidades de todos los usuarios de las vía de tránsito, incluyendo a los grupos más vulnerables, el estado en su gestión de responsabilidad social debe tomarlos en cuenta y dar prioridad en la planificación de las políticas públicas sobre seguridad vial y desarrollo urbano, Por lo anterior se pone en marcha en la universidad politécnica de Sinaloa un instrumento de medición (encuesta) para poder tomar recopilar datos de una muestra de 150 alumnos aleatoriamente con la intención de identificar el nivel de habilitación en materia de cultura vial.



METODOLOGÍA

Se realiza una búsqueda de información sobre movilidad sustentable, seguridad vial y transporte urbano de fuentes confiables auditadas, conociendo el contexto se establece la herramienta a utilizar (encuesta), se diseña el instrumento y se aplica en 150 alumnos de UPSIN, se analizan los datos recopilados y muestran información importante sobre la cultura vial de un grupo de jóvenes entre los 18 y 24 años, siguiendo por la conclusión y reflexión de la investigación.  


CONCLUSIONES

Se encuentra que el total de los encuestados son 89 mujeres y 61 hombres en total 150 persona entre los 18 y 24 años de edad, en conjunto se detecta que solo el 23% de los encuestados tienen licencia de conducir, el 59% conduce vehículos sedan y motocicletas, el 57% aprendió a conducir con la ayuda de un familiar y el 25% lo aprendió de forma empírica (solo), 91 personas de las 150 conocen el reglamento de tránsito es decir solo el 60%, el 28% ha sufrido un hecho de tránsito (accidente), algo a remarcar es que el 86% percibe que los hábitos de conducción son malos y regulares. Actualmente, el proyecto se encuentra en la etapa de investigación inicial, se va a escalonar a un número de 3000 personas para una muestra representativa que permita generar propuestas de política pública que generen el conocimiento y empatía con la seguridad vial, con el propósito de reducir los accidentes de los usuarios de las vía de tránsito, incluyendo a los grupos más vulnerables, así aportar al estado en su gestión de responsabilidad social  y dar prioridad en la planificación y desarrollo de proyecto de movilidad urbana más seguros.
Murillo Guerrero Maria Fernanda, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro

ESTUDIO DE MERCADO DE PRODUCTOS ORGáNICOS Y RECICLADOS QUE PROPICIEN UN ENTORNO SUSTENTABLE EN LA REGIóN DE TACáMBARO.


ESTUDIO DE MERCADO DE PRODUCTOS ORGáNICOS Y RECICLADOS QUE PROPICIEN UN ENTORNO SUSTENTABLE EN LA REGIóN DE TACáMBARO.

Murillo Guerrero Maria Fernanda, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Los fertilizantes, plaguicidas, fungicidas e insecticidas químicos que se aplican a los cultivos, se disuelven en el suelo  y buscan combinaciones con otros minerales que están presentes. De forma directa o indirecta, todos los alimentos provienen del suelo. Hoy en día, los suelos están sobre cultivados, agotados, enfermos, estériles y envenenados por sustancias químicas sintéticas como el glifosato de los cultivos transgénicos. Como consecuencia, la calidad de los alimentos ha sido afectada, al igual que la salud. La desnutrición comienza en el suelo. La salud humana depende de los alimentos sanos que provienen de suelos sanos. Por otra parte, los residuos sólidos que no tienen un adecuado tratamiento, en cuanto a los gases que emanan y los lixiviados provenientes de estos, y que son mal almacenados en vertederos, provocan numerosos efectos en el suelo, agua y aire. El aumento de la calidad de vida ha provocado un aumento en la producción de residuos (empaques plásticos, envases de vidrio, enlatados) y por el contrario, van disminuyendo los residuos orgánicos.



METODOLOGÍA

Se recurrió a un estudio cualitativo, donde se recoge información basada en la observación de los comportamientos de la población objetivo, en el entorno social, económico y medioambiental. En el análisis cuantitativo, los datos recabados se representan de manera cuantificable analizándose con herramientas del campo estadístico; es un estudio transversal que recolectó y comparó información de la agricultura y economía actual,  y longitudinal, cuando se relacionan estos datos con información obtenida a lo largo de 50 años de la historia de la práctica de estas disciplinas, analizando las nuevas tendencias y la constante evolución de este grupo. Ésta investigación es también de tipo documental, donde se observa y reflexiona sobre distintos puntos de vista implícitos en diferentes documentos y fuentes de información. La hipótesis planteada fue la siguiente:  ´´Al concientizar a los productores agrícolas del municipio de Tacámbaro de Codallos sobre los beneficios de la adopción de insumos orgánicos y productos reciclados en comparativa de agroquímicos convencionales, estos  optarán por implementarlos para favorecer el desarrollo de un entorno sustentable´´ Para dar respuesta a esta, se requirió en primer lugar detectar mediante un lienzo Early Adopter, las necesidades de los productores agrícolas de la región de Tacámbaro de Codallos en cuanto a su producción. Con esto se encontró, que las prioridades para estos son aumentar la producción, disminuir los costos, y exportar a nuevos mercados. En menor medida, los productores buscan contribuir con el medio ambiente o desconocen sobre los beneficios económicos, sociales y medioambientales, que brindan el optar por el uso o sustitución de insumos orgánicos en comparativa con los agroquímicos convencionales. De acuerdo al sistema-producto de la región de Tacámbaro de Codallos, la población objetivo corresponde a 2500 productores de caña de azúcar, 2100 productores de zarzamora y 531 productores de aguacate inscritos en asociaciones de productores, dando un total de 4631 productores aproximadamente basado en datos de 2016. El tamaño de la muestra representativa para aplicación del cuestionario (método de recoleccion de datos que se eligió para la investigación) es de aproximadamente 355 productores agrícolas. Entre los resultados obtenidos de la aplicación de los cuestionarios destacan los siguientes: el 92% de los productores agrícolas entrevistados son hombres y solo el 8% lo representan mujeres, en su mayoría de la región de Tacámbaro, de entre 25 y 45 años mayormente. Se pretendió conocer en primer lugar, las necesidades del mercado objetivo. Para el 77% de los entrevistados es más importante aumentar su producción y el otro 23% pone como prioridad producir a menor costo; por otra parte se pudo observar que el mayor problema al que se enfrentan los cultivos son plagas, falta de agua y el hurto de la fruta. El 92% de los entrevistados ha escuchado hablar de los insumos orgánicos, sin embargo, el 54%de estos desconoce los beneficios sociales, económicos y medioambientales que estos traen con su uso. Con estos resultados se procedió a elaborar un modelo de negocio estructurado, que permita emular la distribución y venta de insumos orgánicos y productos reciclados en cualquier momento y lugar; este modelo de negocio tiene como propuesta de valor la venta y distribución de insumos orgánicos certificados para una agricultura sustentable, que influyen de manera directa en la disminución de los impactos ambientales y  que traen con su uso diversos beneficios, entre ellos económicos. Para demostrar esto se elaboró también una estructura de costes, un estudio de factibilidad financiera, plan de competencias y posibles nuevos clientes y un análisis FODA. En la fase final de la investigación, se aperturo una página web para dar a conocer a través de medios electrónicos, las actividades y propuestas, que inviten al mercado objetivo a adoptar el uso de insumos orgánicos certificados, para que gradualmente mejore la calidad de vida de las personas en los ámbitos económico y de la sustentabilidad ambiental.


CONCLUSIONES

En las siete semanas de investigación se pudo obtener conocimiento teórico y práctico sobre las nuevas tendencias globales en la agricultura y la economía. Los resultados esperados con la implementación del modelo de negocio son: posicionamiento de una entidad económica encargada de la distribución-venta de insumos orgánicos y reciclados y crear una conciencia conservacionista de responsabilidad en el medio ambiente. En este momento el 77% de los entrevistados de la muestra del mercado objetivo desean recibir toda la información y capacitación para la implementación de insumos orgánicos en sus cultivos. Se pretende alcanzar al 100% de los productores agrícolas y podemos predecir que la adopción de este tipo de productos orgánicos en los cultivos de la región de Tacámbaro agregaría un valor alto al compromiso y responsabilidad social de los ciudadanos con el medio ambiente.
Murillo López Jesús Iván, Instituto Tecnológico de Culiacán
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Murillo Mendoza Ana Maria, Instituto Tecnológico de La Piedad
Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima

PROCESAMIENTO DE SEÑALES ECG QUE PRESENTAN LA PATOLOGIA ARRITMIAS MEDIANTE LA SEGMENTACION REGRESION LINEAL


PROCESAMIENTO DE SEÑALES ECG QUE PRESENTAN LA PATOLOGIA ARRITMIAS MEDIANTE LA SEGMENTACION REGRESION LINEAL

Lopez Lopez María Fernanda, Instituto Tecnológico de La Piedad. Murillo Mendoza Ana Maria, Instituto Tecnológico de La Piedad. Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

De acuerdo a información de 2015 recabada por INEGI, al año se registran 650 mil decesos en el país, de los cuales 128 mil se debieron a enfermedades cardiovasculares; de éstos, 20 por ciento -alrededor de 24 mil- fueron personas que tuvieron muerte súbita. La arritmia es un padecimiento cardiaco común entre la población, la cual se caracteriza por la variación del ritmo de los latidos del corazón provocada por la generación de señales eléctricas anormales,  si no se detecta de manera oportuna esta alteración puede ocasionar muerte súbita. Para poder detectar estas afecciones es necesario analizar las señales ECG del paciente, debido a que la conversión de una señal analógica a digital puede generar diversos tipos de ruido interfiriendo en la calidad de la señal, se pretende mejorar un algoritmo de regresión lineal para filtrar estas señales y encontrar elementos de sumo interés para la detección de anomalías cardiacas. 



METODOLOGÍA

El análisis se señales de ECG con presencia de arritmia es realizado mediante un algoritmo de regresión lineal basado en técnicas de segmentación que emplea métodos como la regresión lineal, para la detección de puntos de interés de la señal de ECG, los complejos QRS, ondas P y T, que son distinguidos del ruido, línea base y artefactos, intervalo R-R, así como la obtención del periodo y frecuencia de dicho intervalo. El algoritmo es probado con señales ECG extraídas de la base de datos de la physionet.org, llamada Arrhythmia DataBase del MIT-BIT,  las cuales cuentan con 31 registros, cada uno con una frecuencia de 360 Hz, con una duración de 1 minuto y una resolución de 11 bits en un rango de voltaje nominal de 10mV.


CONCLUSIONES

Con la aplicación de este algoritmo de regresión lineal se logró identificar la patología de arritmia presente en las señales ECG, obtenidas de la base de datos Arrhythmia DataBase, del MIT - BIH. Teniendo una sensibilidad 97.26 %.
Nájera Encinas Jessica Paola, Instituto Tecnológico de Sonora
Asesor: Dr. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo

ESTUDIO NUMéRICO CON ELEMENTOS FINITOS EN 3D DE UNA CIMENTACIóN SOMETIDA A CARGAS ESTáTICAS Y PSEUDO-ESTáTICAS


ESTUDIO NUMéRICO CON ELEMENTOS FINITOS EN 3D DE UNA CIMENTACIóN SOMETIDA A CARGAS ESTáTICAS Y PSEUDO-ESTáTICAS

Nájera Encinas Jessica Paola, Instituto Tecnológico de Sonora. Asesor: Dr. Luisa Nicté Equihua Anguiano, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La escasez de reservas de petróleo y gas a nivel, ha forzado a la ingeniería a estudiar nuevos recursos para producir energías renovables limpias. La industria de energía eólica se encuentra actualmente en un punto favorable gracias a los avances tecnológicos y los estudios realizados han permitido reducir su costo hasta alcanzar un puesto competitivo contra los combustibles fósiles. Las cimentaciones offshore carecen de acceso directo desde tierra, por esto es necesario el estudio de la geotecnia para el diseño de éstas, pudiendo permanecer como sistemas fijos o flotantes que requieren distintas técnicas, dependiendo de la profundidad a la que se desplantará el autogenerador eólico en el lecho marino. México cuenta con un gran potencial eólico, sin embargo, un factor adicional en nuestro país es la actividad sísmica del país. El comportamiento de este tipo de estructuras eólicas es de alta complejidad debido a las cargas a la que la estructura se encuentra sometida, entre ellas la carga sísmica, por esto es la relevancia del estudio del tema. En la presente investigación se realizó una comparación de un modelo 3D de pilote en el fondo marino sometido a cargas estáticas y a cargas pseudoestáticas, para analizar respuesta de la conducta del suelo elasto-plástico regido por el modelo Mohr-Coulomb, en ambos casos adaptándose a los parámetros geotécnicos de una arcilla homogénea disponible en el fondo marino del Golfo de México. La simulación del modelo fue calculada en el programa RS3® el cual permite mediante un Modelo de Elementos Finitos (MEF) ejecutar el análisis numérico de la deformación y esfuerzos del suelo en la periferia del pilote.



METODOLOGÍA

Se realizó una modelación 3D de una cimentación de un pilote de acero en el fondo marino con ayuda del programa RS3® que sirve para el análisis numérico de la estructura geotécnica para obras civiles mediante el MEF con el códice preestablecido, conociéndose de esta forma el comportamiento interacción-estructura del modelo. Se tomó como referencia el modelo de López-Arizmendi (2018) donde utilizó una analogía geométrica entre un monopilote y un ancla a succión para obtener un volumen equivalente en ambos modelos. En este caso se utilizó el pilote para el análisis con un diámetro de valor d= 2 m y una longitud L= 15.7 m y una relación L/d= 7.9 donde L es igual a la longitud y d al diámetro. Con la ayuda del programa y la herramienta liners se representó en el modelado el revestimiento metálico en las paredes y en la cubierta del pilote 0.1 m, a excepción de la parte superior donde se tomó un espesor de 0.3 m para asegurar un mayor refuerzo. En el modelo se obtuvieron primero las 3 cargas máximas principales, la carga vertical máxima (V0) que representa el peso propio del autogenerador eólico, la carga máxima horizontal (H0) que figura el oleaje y por último el momento máximo (M0) que simboliza la colisión de la corriente de aire. Para la obtención de éstas, se simularon en distintas cargas puntuales en la parte superior del pilote, debido a que el programa aún no cuenta con la herramienta de localizar la carga en la zona central de la cimentación. Para conseguir la carga máxima en todos los casos, se realizó un proceso iterativo donde a la carga inicial se le aplicaron incrementos de 0.5 a partir de la tercera etapa. Además, RS3® permite incluir una carga sísmica pseudo-estática en el análisis, en el que los efectos de un terremoto son representados por fuerzas inerciales horizontales y/o verticales. El coeficiente sísmico que se introduce es adimensional y representa la aceleración máxima como una fracción de la aceleración por gravedad. Los valores típicos están en el rango de 0.1 a 0.3. En este trabajo se incorporaron dos cargas pseudo-estáticas, una horizontal con un coeficiente sísmico de 0.2 y una vertical con un coeficiente sísmico de 0.3 adicionales a las tres cargas principales ya mencionadas anteriormente.


CONCLUSIONES

Se elaboró una comparativa entre los resultados obtenidos en las gráficas producidas por resultados numéricos del programa RS3® de Desplazamiento vs. Etapa, para encontrar la carga máxima H, V y de M, por un criterio tangencial y un criterio regido por 0.10 del diámetro del pilote, así mismo, se comparó con el trabajo realizado previamente por López-Arizmendi (2018). Esto permitió estudiar la influencia de los criterios de ruptura que se pueden aplicar en la práctica. Al realizar la comparación se lograron resultados bastante similares a los de López-Arizmendi en las cargas máximas, a excepción de la carga vertical, esto puede ser debido a discrepancias del programa, ya que, se utilizó una versión más actual. Esto permitió validar los resultados posteriores. En las cargas pseudo-estáticas, en los casos de la carga H y la carga de M, la carga máxima disminuye en un 4.94% y en un 7.50 % respectivamente, lo cual significa que la carga pseudo-estática si tiene un efecto en la estructura y su resistencia es menor en la presencia de vibraciones sísmicas. En la carga vertical máxima, se dio el caso de un aumento esto se da debido a una contraposición con la carga pseudo-estática donde se obtiene un rendimiento mayor de un 10%. Al ser la carga horizontal y de momento las cargas con más peso, se recomienda realizar un refuerzo mayor en la parte superior del pilote donde se ve más afectado el suelo por la carga pseudo-estática. Es importante considerar que para la elaboración de un modelo 3D, se necesita un computador de alto rendimiento, ya que, para obtener resultados el programa consume mucha memoria RAM, de igual manera, el proceso de cálculo tiende a ser bastante tardado. También es necesario tener conocimiento en geotecnia para saber interpretar la cinemática arrojada por el programa, ya que, a veces podemos obtener resultados erróneos y es necesario corregir el modelo.
Nava Cruz Ricardo Hassan Javier, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

IMPLEMENTACIóN DE METODOLOGíA MICEE (METODOLOGíA INCLUSIVA, COLABORATIVA, EDUCATIVA Y EXPERIENCIA DE USUARIO) PARA PERSONAS SORDAS.


IMPLEMENTACIóN DE METODOLOGíA MICEE (METODOLOGíA INCLUSIVA, COLABORATIVA, EDUCATIVA Y EXPERIENCIA DE USUARIO) PARA PERSONAS SORDAS.

Garcia Alvarado Brandon Emmanuel, Instituto Tecnológico de Reynosa. Nava Cruz Ricardo Hassan Javier, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

A lo largo del paso de los años, ha existido la discriminación y/o marginación dentro de los grupos sociales por no contar con ciertas capacidades, en este caso las personas con discapacidades físicas, aunque se ha batallado para igualar la situación y lograr un entorno inclusivo para que cualquier persona se pueda desenvolver libremente y sin complicaciones en el entorno que le rodea, todavía falta mucho por hacer, cabe mencionar que el primer esfuerzo nacional para la atención de personas con discapacidad se realizó el 13 de enero de 1977 con la creación del Sistema Nacional para el Desarrollo Integral de la Familia (DIF), apoyando así a personas como los sordos, pero no solo termina ahí, también implica la parte educativa. Luna, M. (2013) menciona que la educación inclusiva no es solo brindar acceso a las personas a escuelas sino también a eliminar barreras que limitan el aprendizaje, tales como celulares o computadoras las cuales no son accesibles para personas con discapacidad pues no son totalmente inclusivas. Esto implica según Arencibia, J. que exista una experiencia negativa (UX) es decir que al utilizar ciertas tecnologías se frustren y tengan con ello un resultado muy negativo en su experiencia, retomando el tema educativo Solis, M. yAugusto, M. en base a estudios y pruebas que realizaron, llegaron a la conclusión de que preexiste una tendencia negativa en el aprendizaje hacia las personas sordas en este caso, el tema de comprensión lectora. El aprendizaje de la lectura constituye una de las tareas más importantes a las que se tiene que enfrentar el niño con sordera. Aunque el lenguaje escrito tiene el potencial para suministrar al niño con sordera un modo alternativo de comunicación que le permite acceder a mucha información, gran proporción de niños con sordera nunca llegan a alcanzar unos niveles de lectura competentes. Augusto, J. (2002) Dificultades lectoras en niños con sordera.   Mencionado todo esto, se tienen datos de que uno de los problemas que presentan las personas sordas es la comprensión lectora, para ser más específicos lectoescritura, por lo que   Se pretende implementar y probar la iteración número 2 de la metodología MICEE: (Metodología Inclusiva, Colaborativa, Educativa y Experiencia de Usuario) para detectar posibles mejoras, utilizando las variables de trabajo de discapacidad auditiva de nacimiento y tema educativo de compresión lectora.   Se optó por escoger a las personas con discapacidad auditiva, pues es una población bastante vulnerable y que no muchas personas y/o organizaciones los apoyan, además que la Universidad Autónoma de Aguascalientes facilita el acceso al DIF de Aguascalientes donde se encuentran este tipo de personas, y el tema educativo de la lectoescritura pues constituye en un proceso de aprendizaje en el cual los individuos aprenden a leer y escribir. La lectura y la escritura se constituyen como una posibilidad real y concreta de que las personas sordas y las oyentes interactúen con un alto grado de autonomía.



METODOLOGÍA

La metodología MICEE consta de 4 fases, las cuales son: Conocer. Formar. Construir. Medir.   En la fase Conocer identificamos las necesidades del sistema por parte de los usuarios, de igual forma identificamos el contexto físico, ambiental, preferencial, emocional y cognitivo de cada tipo de usuario, mediante una entrevista y observaciones, obteniendo así productos clave como: Herramientas de aprendiza: Necesaria para saber cómo aprenden lectoescritura ambos usuarios. Requisitos de usuario: Información sobre las necesidades individuales de cada usuario para la aplicación.   En la segunda fase, la fase Formar se buscó comprender los requisitos del sistema para identificar los que se implementaran en la aplicación, dándole un valor de prioridad e importancia. En esta etapa tuvimos productos clave como: Diagrama Entidad - Relación: Con el cual identificamos como se van a relacionando las pantallas del software con el usuario. Técnica de Importancia de Fiabilidad: Importante pues todos los requerimientos los ponemos en valuación en una gráfica de importancia y fiabilidad. Interfaces del Sistema: Bocetos de cómo serían las pantallas del sistema. Cabe mencionar que, en esta etapa, se empezó con el desarrollo de la aplicación en el entorno de desarrollo Android Studio y la base de datos Firebase, pues en la primera iteración se trabajaron con dichos softwares.   En la fase Construir, se desarrolló por medio de código el sistema con las características de contenido educativo, inclusión, colaboración y UX. Correspondiente a la etapa de implementación del ciclo de vida clásico llamado cascada., en esta etapa tuvimos productos clave como: Evidencia Versión Sistema: Que muestras las capturas de pantalla de la aplicación. Ambiente de Desarrollo: Donde se muestran los programas y/o herramientas que se utilizaron para la implementación del software.   En la última fase, la fase Medir se verifico y valido el sistema. Se buscó descubrir defectos durante la prueba de la aplicación. En esta fase obtuvimos los resultados finales y los últimos productos clave los cuales fueron: Resultados de Métodos Aplicados: Los cuales son encuestas realizadas hacia ambos usuarios (personas sordas de nacimiento y personas promedio), con las respectivas respuestas. Con estos últimos datos obtenidos se realizó una escala de valores y formularios base para representar los resultados finales.


CONCLUSIONES

Como conclusión, fue una gran experiencia participar el XXIV verano de la investigación científica y tecnológica del pacifico 2019 Programa Delfín. Ya que adquirimos grandes conocimientos y nuevas experiencias que servirán para poder desarrollarse de forma personas y profesional.
Nava Hernández Juan José, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango

DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.


DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.

Cabrera Armenta Amanalli Jetzemay, Instituto Tecnológico Superior de Huauchinango. Nava Hernández Juan José, Instituto Tecnológico Superior de Huauchinango. Quiroga Hernandez Celina, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía eléctrica ha provocado daños en el medio ambiente debido a que las centrales generadoras de electricidad tienen que incrementar su producción para poder cumplir con la demanda, pero este incremento en la producción puede desencadenar efectos nocivos en el ambiente; por tal motivo se han implementado diversas formas de energía para satisfacer las necesidades de las personas, pero sin generar efectos negativos. Aunque son una buena alternativa tienen un inconveniente ya que su nivel de eficiencia no es muy alto en algunos casos, esto lo podemos observar en los sistemas fotovoltaicos ya que los paneles solares fijos no aprovechan al cien por ciento la radiación que emite el sol debido a que solo están posicionados en un cierto ángulo. El Seguidor solar es un mecanismo diseñado para optimizar el funcionamiento de un panel solar fijo mediante la implementación de un sistema de control, específicamente un PID, que devuelva un movimiento vertical capaz de aprovechar las horas efectivas de luz solar en la zona que sea instalado.



METODOLOGÍA

Construcción del prototipo Inicialmente se realizará el soporte principal del prototipo constituido por una base horizontal y una base vertical colocada perpendicularmente. Para continuar con el montaje del prototipo se fijarán los dos sensores LDR, uno paralelo del otro en los extremos horizontales de la celda fotovoltaica, se fijó el servomotor en la base principal y se montó el panel solar en el servomotor. Ganancias del PID Para el control PID se realizaron pruebas con el método de ensayo y error para obtener las ganancias. El método se comenzó con un valor proporcional de Kp= 0.01 al sistema PID dejando Ki y Kd en 0, este valor se fue variando, teniendo en cuenta las acciones básicas de control, al elevar el valor hasta Kp= 0.1 se observó que el sistema oscilaba mucho por lo tanto se optó por ir reduciendo este valor hasta obtener el valor adecuado. Una vez obtenido un valor proporcional adecuado, se realizó lo mismo con los términos PI, PD y PID. Los valores finales de las ganancias obtenidas con este método son: Kp= 0.05, Kd=0.04 y Ki=0.01 Éste es el método de sintonía que puede resultar más lento y menos preciso, aunque el más intuitivo. Programación del controlador PID La plataforma de programación que se utilizará será Arduino versión 1.8.9. En el primer apartado se encontrarán las variables y constantes globales declaradas, se incluirán la librería para el servomotor y se definirá la posición inicial del mismo para que cuando las fotorresistencias dejen de mandar una señal a Arduino el servomotor vuelva a su posición inicial (0°), se declaran los pines de conexión para las fotoresistencias así como las variables que posteriormente almacenarán las lecturas que obtengamos de las fotorresistencias, y las variables para el ángulo de incidencia y la señal de salida. Enseguida se colocarán los valores de las ganancias kd, kp y ki, así como otros parámetros del PID. Inicializamos el servomotor en el pin 9 ya que este recibe una señal digital. Al iniciar el ciclo se obtiene lecturas de los valores de las fotoresistencias y estos se les asignan a las variables Left y Right. El cálculo del ángulo de incidencia es presentado por la siguiente fracción del código. Se calcula la diferencia entre el valor que la variable Left y el de Right. En la siguiente sección de código se realiza el control PID, para comenzar se les asignan valores a las variables de los intervalos de tiempo Posteriormente se le establecen valores a los errores de las ganancias realizando las operaciones necesarias. A continuación se multiplican los valores de las ganancias con su respectivo error, enseguida los resultados obtenidos se van sumando para obtener la acción PID.


CONCLUSIONES

Al terminar el dispositivo Seguidor Solar los resultados esperados fueron exitosos, pues se pudo obtener y realizar el objetivo planteado al inicio. La respuesta transitoria del sistema nos muestra las oscilaciones que se presentan antes de que se alcance el estado estable. La respuesta del sistema presenta ciertas características que nos ayudan a determinar la curva que nos muestra el comportamiento del sistema. El tiempo de retardo td nos especifica el tiempo que requiere el sistema para alcanzar la mitad de su valor final. El td es de 25ns; el tiempo de levantamiento tr nos especifica el tiempo que se requiere para que el sistema alcance el 90% de su valor final, este tiene un valor de 50ns de acuerdo a la gráfica; el tiempo pico tp nos indica el tiempo que necesita el sistema para alcanzar su valor pico del sobrepaso, el sistema requiere un tiempo de 90ns para alcanzar su valor pico máximo; el tiempo de asentamiento ts nos permite determinar el tiempo que demora el sistema en acercarse al estado de estabilidad al igual que al valor de referencia, el sistema tarda 210 ns en aproximarse a dicho estado; y el sobrepaso máximo Mp es el valor pico máximo que alcanza la respuesta expresado en porcentaje, en este caso el sistema presenta un 55% de sobrepaso máximo. El sistema sufre una perturbación, esta debida a que al momento de realizar las pruebas la fuente de luz se movió rápidamente en determinado momento, haciendo que el servomotor se moviera abruptamente; dicha perturbación hace la señal de control alcance su valor medio en 25ns y se acerque al valor de referencia de 4.5V en aproximadamente 50ns, pero sufre un sobrepaso de 2.5V que representa un 55% del valor de referencia, posteriormente experimento un sobrepaso nuevamente pero de un valor menor, acercándose a los 0.2V, para después entrar al estado de estabilidad después de 210ns transcurridos. Con las observaciones hechas al momento de analizar la respuesta del PID, se puede concluir que el sistema tiene una respuesta rápida aun cuando el movimiento de la fuente de luz sea realizado de forma abrupta y esto lo hace adecuado para implementar este control en sistemas con estas características.
Návarez Espinoza Karen Aidé, Instituto Tecnológico de Sonora
Asesor: Dr. José Valentín Osuna Enciso, Universidad de Guadalajara

ALGORITMOS COEVOLUTIVOS CON PARTICIÓN DE POBLACIÓN


ALGORITMOS COEVOLUTIVOS CON PARTICIÓN DE POBLACIÓN

Návarez Espinoza Karen Aidé, Instituto Tecnológico de Sonora. Asesor: Dr. José Valentín Osuna Enciso, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los algoritmos metaheurísticos son procedimientos iterativos que guían una heurística subordinada combinando de forma inteligente distintos conceptos para explorar y explotar adecuadamente el espacio de búsqueda. Con ellos aparecen los algoritmos evolutivos, que son métodos inspirados en la teoría de la evolución de Charles Darwin, capaces de buscar soluciones mediante la optimización. Surgen con la necesidad de optimizar funciones multimodales, que antes no se podía con los algoritmos existentes, pues era muy común que las partículas o individuos se quedaran atrapados en óptimos locales y no encontraran el óptimo global. Actualmente existen distintas propuestas de algoritmos evolutivos. Lo que se busca en este proyecto es generar un algoritmo que sea capaz de combinar dos o más algoritmos evolutivos para llegar a una mejor solución.



METODOLOGÍA

Inicialmente se realizó una investigación acerca de los algoritmos metaheurísticos y evolutivos para introducirnos a ellos. Se advirtió que uno de los algoritmos más populares es el Differential Evolution. Por ello, se seleccionó este algoritmo con tres de sus variantes más conocidas y utilizadas para generar el presente proyecto. Dichas variantes son: rand1, rand2 y best1. Se codificaron los tres algoritmos evolutivos independientemente. Después se unieron en uno solo donde se establece una población inicial que es segmentada en tres subpoblaciones, una por cada algoritmo, que es con la que trabajará cada algoritmo. Se establecen en un inicio el número de iteraciones o generaciones que habrá, la población general y los factores de escalamiento, cruce y mutación. Se deja que cada algoritmo realice sus operaciones correspondientes y así se puede determinar la mejor y la peor partícula de cada uno para más tarde encontrar al mejor y peor global por cada generación y establecer cuál fue el mejor y el peor algoritmo en esa iteración. De esto depende lo más crucial del presente algoritmo, que es otorgar la peor partícula encontrada en la generación al algoritmo que tuvo el mejor desempeño y encontró a la mejor partícula, de esta manera la peor población en la siguiente generación empezará con una partícula menos y la mejor población con una partícula más. Puesto que la variante rand2 del Differential Evolution requiere de al menos 5 partículas para poder realizar sus funciones, se estableció como un límite que las poblaciones deben tener más de 5 partículas para que se les pueda sustraer una partícula. Además, se presenta una curva que muestra a las mejores partículas generacionalmente, cuando se probaron con partículas de dos dimensiones más fitness se tuvo la oportunidad de graficarlas. Cabe señalar que se utilizaron funciones de la literatura de Benchmark. Al concluir el algoritmo, se realizaron pruebas paramétricas y no paramétricas para determinar la eficiencia del mismo y su lugar con otros de su misma especie. Las pruebas paramétricas fueron promedio, división estándar y mediana, no paramétricas fue la prueba de Wilcoxon.


CONCLUSIONES

Se pudo observar el comportamiento de las partículas de los diferentes algoritmos al convivir en un mismo espacio con recursos limitados. Se advirtió que el algoritmo muestra ser más eficiente cuando el número de generaciones es pequeño. En cuanto a la comparación de su desempeño frente a los algoritmos de la literatura se presenta en un nivel medio en la mayoría de las funciones que fueron evaluadas.
Navarrete Juárez Stephani, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtro. Francisco García Romero, Universidad Tecnológica de Xicotepec de Juárez

INDUCCIóN A LAS MATEMáTICAS EMPLEANDO OBJETOS DE APRENDIZAJE Y DISEñO INSTRUCCIONAL


INDUCCIóN A LAS MATEMáTICAS EMPLEANDO OBJETOS DE APRENDIZAJE Y DISEñO INSTRUCCIONAL

Navarrete Juárez Stephani, Consejo Quintanarroense de Ciencia y Tecnología. Nolasco Cen Carlos Eduardo de Jesús, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mtro. Francisco García Romero, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el Área de Tecnologías de las Información cuenta con la plataforma virtual de Moodle en su versión 3.2.1 y se necesita implementar una nueva plantilla “Lambda” para su plataforma virtual que lleva por nombre “Aula T.I.”. Asimismo, se deben añadir nuevas características para un curso con enfoque hacia el área de matemáticas. Esto debido a que a nivel medio superior se tiene problemas en cuanto a las competencias adquiridas en el área de matemáticas, por lo que se pretende que este curso sirva como una herramienta que permita al estudiante reforzar los conocimientos ya adquiridos previamente y desarrollar un poco más su lógica para no presentar dificultades posteriormente en las asignaturas que tiene la carrera de Ingeniería en Tecnologías de la Información en sus distintas áreas de desempeño. Las actividades por desarrollar son de acuerdo con el temario proporcionado de Habilidades Matemáticas del curso propedéutico para el área Académica de Tecnologías de la Información de la Universidad Tecnológica de Xicotepec de Juárez.



METODOLOGÍA

Gamificación Es el proceso de aprendizaje a través de juegos en el aspecto educativo. La creación de cursos basados en modelos más interactivos permite una experiencia positiva y con mayor sentido de motivación para el alumno. En términos generales, la técnica mecánica es la forma de recompensar al usuario en función de los objetivos alcanzados. La idea de la Gamificación no es crear un juego, sino valernos de los sistemas de puntuación-recompensa-objetivo que normalmente componen a los mismos. Esto es así a pequeña escala como para juegos independientes. De este modo entienden que los intentos múltiples hacia los objetivos engendrados son una parte integral del aprendizaje deseado satisfacer su propio conocimiento. Es importante la afirmación que hace McGraw-Hill sobre ella, es pertinente señalar que se está volviendo aún más impactante con la introducción y expansión de la tecnología educativa. En el libro Leveraging Game-Based Learning for STEM Education: The Benefits of Non-Linear Instruction, manifiesta que la mayor parte del contenido académico se enseña de manera lineal, llevando a los estudiantes del tema A al tema B con tan poco conocimiento posible. Con la definición que extiende este documento, gamificar es diseñar formas óptimas para transmitir conocimiento. Para el uso efectivo de la gamificación, se considera como parte importante un aprendizaje basado en juegos. Metodología ADDIE ADDIE es el acrónimo de las 5 fases del sistema instruccional.El concepto de diseño instruccional se remonta a la década de 1950. Pero no fue hasta 1975 que se diseñó ADDIE, establecida por la Universidad del Estatal de Florida. Consta del Análisis (Analyze), diseño (Design),desarrollo (Development), implementación (Implementation) y evaluación (Evaluation). Se pretende lograr con esta investigación que los alumnos interactúen con el prototipo para posteriormente evaluar la usabilidad de la plantilla y los objetos de aprendizaje. Se toma en cuenta que la mayoría de los estudiantes consideran el material del curso propedéutico de poco interés y motivación en el ámbito matemático, por ello se les proporcionará recursos útiles para potenciar su creatividad e innovación en la realización de sus actividades. En el aspecto docente, fomentar hacia el alumno el autodidactismo y ajustar herramientas para la participación grupal e individual de los alumnos de nuevo ingreso para las materias consecutivas al primer periodo cuatrimestral como Álgebra Lineal y Desarrollo de Habilidades del Pensamiento Lógico. En el caso de la obtención de información será necesaria la aplicación de una entrevista directa con los profesores a cargo del control de la plataforma y considerando los puntos que se requieren implementar para la plantilla Lambda y la elaboración del material didáctico para curso propedéutico. El tipo de estudio que se desarrollará consta de dos partes: descriptivo y cuantitativo. Proporcionar los detalles aplicados al curso y de la plataforma con el uso de la plantilla y posteriormente evaluar el nivel académico de los estudiantes de nuevo ingreso por medio de una evaluación diagnostica con fecha el 4 de septiembre del presente año, posterior a concluir el curso se realizará una evaluación global con la intención de obtener resultados significativos en cuanto al aprovechamiento del material generado.


CONCLUSIONES

Los resultados deseados como primera parte siguen el mismo orden que el plan de trabajo establecido. Tomando en cuenta que los conocimientos adquiridos son reforzamiento y propiciar la motivación los alumnos cuando se les presentan las actividades en términos lineales. Para el caso de toda la recopilación de información, es muy escaso en cuestiones teóricas. Para los fines prácticos, las ecuaciones y su traducción a la plataforma fue un reto que no se esperaba, por falta de reconocimiento del lenguaje y si encontrar herramientas que facilitaran la traducción en el menor tiempo posible. Considerando que las otras herramientas que se presentan en este artículo sean otra alternativa de lo que posee la plataforma y sus herramientas adicionales para el ámbito matemático. Para el diseño de cada material, a partir de imágenes, textos y frases cortas permitieron que se lograra con satisfacción los juegos complementarios que posee cada tema y sus ejercicios. Como factor importante, el tiempo y la organización de este proyecto, se espera que la aplicación de la primera evaluación y el término del curso se encuentren los resultados positivos y significativos en esta primera parte del proyecto. El resultado parcial se encuentra en la siguiente URL del curso: http://ti.utxicotepec.edu.mx, bajo la categoría de propedéutico y lleva por nombre Habilidad Matemática. En donde ya se diseñó la estructura del curso, se implementaron los objetos de aprendizaje y está próximo a agregar a los estudiantes de nuevo ingreso. Esto considerando que el cuatrimestre inicia el 3 de septiembre del presente año.
Navarrete Rosales Abraham, Instituto Politécnico Nacional
Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora

MICRO RED ELéCTRICA BASADO EN UN SISTEMA HíBRIDO DE ENERGíA RENOVABLE


MICRO RED ELéCTRICA BASADO EN UN SISTEMA HíBRIDO DE ENERGíA RENOVABLE

Navarrete Rosales Abraham, Instituto Politécnico Nacional. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Sistemas Híbridos​ Un sistema híbrido es un sistema conceptualizado como conjunto de componentes interrelacionados o enlazados entre sí o sea desde el punto de vista material o inmaterial e híbrido definido en sistema amplio como mezcla de por lo tanto en el concepto podemos determinarlo con una mezcla de diversos conjuntos de componentes que interactúan entre sí llegando finalmente a cumplir una función específica en el proyecto el sistema híbrido se enfoca en un sistema de energía renovable que pueda sustentar un edificio como una escuela para el beneficio del medio ambiente combinando la energía solar de un sistema fotovoltaico con otra fuente de energía



METODOLOGÍA

Sistema Híbridos de Energia​ Además de energía solar a los sistemas híbridos fotovoltaicos se utilizan generalmente un generador diesel un aerogenerador una red pública como fuente de alimentación los inversores con cargador es de batería integrados que se emplean con los sistemas híbridos alimentan los consumidores de corriente alterna conectados a partir del banco de baterías que usan energía solar o partir de la segunda fuente de alimentaciónmediante este aparato también se puede recargar la batería a partir de la fuente de alimentación adicional los sistemas híbridos fotovoltaicos presentan la ventaja de que no se necesita sobredimensionar notablemente el generador solar para que los periodos de baja irradiación esto supone un ahorro de gastos considerable


CONCLUSIONES

Sistema Híbrido con Redes Petri Una red petri es una representación matemática o gráfica de un sistema de eventos discretos en el cual se puede describir la topología de un sistema distribuido o paralelo concurrente la computación concurrente es la simultaneidad en la ejecución de múltiples tareas interactivas estas tareas pueden ser un conjunto de procesos e hilos de ejecución creados por un único programa las tareas se pueden ejecutar una sola unidad central de procesos en varios procesadores con una red de computadoras distribuidos la programación concurrente está relacionada con la programación paralela pero enfatiza más la interacción de tareas en el proyecto del sistema híbrido de energía renovable utilizamos una red petri parala ejecución de cada tarea que se tiene que hacer para convertir la energía
Navarro Arellano Luis David, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo

MODELACIóN DE MASAS DE AGUA EN EL ACUíFERO DEL RíO DUERO.


MODELACIóN DE MASAS DE AGUA EN EL ACUíFERO DEL RíO DUERO.

Navarro Arellano Luis David, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Sonia Tatiana Sánchez Quispe, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La sobreexplotación de los acuíferos ocurre porque se extrae más agua de la que a este se le infiltra, ocasionando que los niveles freáticos empiecen a descender, generando que haya más escasez de agua. Por esto es necesario tener modelos los cuales nos ayuden a observar el impacto positivo o negativo que tendrían las medidas posibles a aplicarse, además de conocer posibles situaciones futuras.



METODOLOGÍA

Para la investigación fue necesario analizar y validar información sobre series de características climatológicas, así como las condiciones geológicas e hidrogeológicas de la zona, con los cuales se generaron distintas mallas que fueron de ayuda para utilizar los softwares Evalhid y Aquival.


CONCLUSIONES

Se pretende obtener un modelo calibrado en el software Aquival el cual pueda representar de una mejor manera el comportamiento de las masas de agua que se encuentran en el subsuelo.
Navarro Miranda José Luis, Universidad de Sonora
Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato

CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.


CERRAMIENTOS DE LA VIVIENDA HISTóRICA DE LA CIUDAD DE GUANAJUATO.

Aguilar Sanchez Jose Manuel, Universidad Autónoma de Guerrero. Alcocer Morales Diana Laura, Universidad Autónoma de Guerrero. Álvarez Jiménez Julio César, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Navarro Miranda José Luis, Universidad de Sonora. Asesor: Dr. Claudia Hernandez Barriga, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Guanajuato tiene un legado arquitectónico único, el cual ha despertado interés sobre su Arquitectura en especial sobre los Sistemas Constructivos de las viviendas de los barrios tradicionales del Centro Histórico. Existen características singulares que permanecen en las construcciones, los cuales no han sido documentados y analizados en cuanto a su trazo, estereotomía y materiales.  Por lo anterior se revisarán los cerramientos de viviendas del siglo XIX y principios del XX encontradas en el centro de la ciudad. Estos destacan por su diversidad en soluciones dentro de la lógica estructural constructiva y formal. En el estado no hay este tipo de trabajos ya que la gran mayoría de las investigaciones están enfocadas a los aspectos estéticos de los edificios históricos.



METODOLOGÍA

Asistimos a fiestas Tradicionales y recorrimos por la ciudad como parte del Patrimonio Cultural de Guanajuato. Se investigó y analizó la Geohistoria de la Ciudad de Guanajuato para poder comprender los diferentes cambios que ha sufrido la ciudad. Se Seleccionaron y analizaron conceptos teóricos - conceptuales, con los cuales se investigaron los tipos de arcos que se encuentran y la estructura que los conforman. Se establecieron los antecedentes y planteamientos históricos para entender la importancia que tiene Guanajuato y cada uno de los inmuebles históricos que hasta la fecha se conservan. Se realizó trabajo de campo en la ciudad de Guanajuato, mediante levantamiento fotográfico y revisiones oculares. Se diseñaron fichas de catalogación para hacer más fácil sistematización de la información de cada cerramiento. Se dibujaron los trazos en 2D y 3D de los cerramientos elegidos. Determinamos las características generales de los cerramientos y su estado de conservación. Para finalizar el trabajo de investigación se redactó un informe técnico final.


CONCLUSIONES

Como resultado elaboramos una ficha de catalogación, en el cual anexábamos los datos de cada uno de los arcos seleccionados, que presenta la siguiente información: Datos de la institución donde se desarrolla la Investigación, Materiales, Localización, Observaciones, Descripción del arco (con una foto real del arco y sus elementos), Procedimientos del Trazo (acompañado de gráficos), Perspectivas del Arco realizado en 3D, y Datos del Autor. Para poder facilitar la realización de este trabajo se utilizaron a las siguientes herramientas; Software como AutoCAD, Revit, SketchUp, V-ray. Flexómetro y Cámara Fotográfica. Con lo mencionado anteriormente se logró cumplir el objetivo de entender y conocer diferentes tipos de cerramientos de viviendas históricas de la ciudad de Guanajuato, que se dividen desde su función, forma, estilo, entre otros. Conociendo el sistema constructivo de las casas históricas se tienen mejores posibilidades de tener una intervención más adecuada.                                                                                                              En algunos casos de los cerramientos que quedaron en hipótesis, y por lo tanto fueron modelados en 3D con medidas proporcionales ya que fue imposible acceder a las instalaciones y poder obtener las medidas reales. A través de los trazos con la ayuda de la geometría descriptiva y la estereotomía logramos entender el sistema constructivo y estructural. En la época en que fueron edificadas estas construcciones no se utilizaban herramientas y elementos constructivos actuales, como hoy en día el acero, concreto armado, y tampoco la utilización de softwares para poder visualizar y calcular la resistencia adecuada de los materiales.
Navarro Moreno Francisco Gabriel, Universidad de La Salle Bajío
Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa

DISEñO DE VIVIENDA INTELIGENTE EMPLEANDO COMUNICACIóN INALáMBRICA ENTRE LABVIEW Y MICROCONTROLADOR ESP32


DISEñO DE VIVIENDA INTELIGENTE EMPLEANDO COMUNICACIóN INALáMBRICA ENTRE LABVIEW Y MICROCONTROLADOR ESP32

Navarro Moreno Francisco Gabriel, Universidad de La Salle Bajío. Asesor: M.C. Jesús Gabriel Bernal Villanueva, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Diseño de una vivienda inteligente, que cuente con el control de iluminación de 8 habitaciones distintas utilizando comunicación inalámbrica entre LabVIEW y un microcontrolador.



METODOLOGÍA

Se trabajo en el diseño de un sistema de domótica, en este sistema se maneja el control de la iluminación de 8 cuartos diferentes, desarrollando una interfaz en el software LabVIEW de National Instruments la cual se comunica vía Wi-fi con la tarjeta de desarrollo ESP32 utilizando el protocolo de comunicación UDP para la transmisión y recepción de datagramas. Con la programación desarrollada se pudo leer los datos y tamaño de estos que se envían desde LabVIEW al microcontrolador y viceversa, con el manejo en LabVIEW se manda una cadena de 8 bits al microcontrolador para el manejo de los cuartos, teniendo 255 combinaciones posibles. Para la lectura e interpretación de los datos en el microcontrolador se realizó la conversión de numero entero a binario, una respectiva lectura de cada bit, y se asignó a cada salida del microcontrolador, el cual estará conectado a una etapa de potencia.


CONCLUSIONES

La comunicación funciono de manera óptima, se estableció una comunicación directa entre LabVIEW y el microcontrolador, en la interfaz de LabVIEW se muestran los botones y los leds indicadores, que se activan cuando el microcontrolador regresa el dato de confirmación a LabVIEW, en el hardware se utilizaron Leds en las salidas del microcontrolador, las cuales simulaban el encendido y apagado de luces de cada cuarto. Los resultados obtenidos fueron los esperados, el diseño de la vivienda inteligente funciono de manera ideal, con un retardo extremadamente bajo en la comunicación con un tiempo de respuesta máxima de 0.5 segundos.
Negrete Cobian Jafet, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)

DISEñO DE DRON SUBMARINO INTELIGENTE PARA NAVEGACIóN EN AGUA DULCE (RíO).


DISEñO DE DRON SUBMARINO INTELIGENTE PARA NAVEGACIóN EN AGUA DULCE (RíO).

Negrete Cobian Jafet, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El internet de las cosas ha estado en constante desarrollo durante los últimos años, volviendo posible la interconexión de dispositivos que anteriormente no imaginábamos que podrían ser monitoreados y controlados desde internet; sin embargo, existe un campo del internet de las cosas que no ha podido crecer tan rápidamente como aquél que está enfocado en la industria o para smart homes, este es el internet de las cosas sumergidas o Internet of Underwater Things en cual utiliza sensores para diferentes variables, módems acústicos y vehículos autónomos (AUV por sus siglas en inglés) para monitorear o explorar  ríos, lagos u océanos, abriendo así la posibilidad de muchas aplicaciones. Se pretende realizar un AUV con tecnología de Internet of Underwater Things para la exploración en el río Magdalena en Barranquilla, Colombia. Tomando en cuenta la principal limitante de la investigación: el tiempo, se limitó el objetivo a la creación de dos modelos de AUV para elegir el más adecuado en la etapa de implementación.



METODOLOGÍA

Para llevar a cabo el desarrollo de los dos modelos de AUV para río, primero se investigó brevemente la historia de los vehículos autónomos submarinos, su clasificación y algunos proyectos existentes. Gracias a la investigación realizada se encontró que los AUV pueden clasificarse por su forma: torpedo, torpedo con alas (planeador), ovalado, rectangular, biomimétrico, estructura abierta, lágrima y en ala delta. Esto ayudó en gran medida a elegir la forma de los diseños. También se encontró la instrumentación de un AUV el cual consta de brújulas, sensores de profundidad, temperatura, presión, sonares de barrido lateral, magnetómetros, sensores para detectar composiciones químicas como nivel de oxígeno, ph y otros más. Es importante mencionar que la mayoría de los proyectos existentes han sido desarrollados para aplicaciones marinas. Existen muchos software de diseño como SolidWorks, Autocad, NX, CATIA, y otros más. Sin embargo, el software utilizado para para el modelado de estos diseños fue SolidWorks por ser un software con el que ya se contaba experiencia, además de ser de fácil acceso, y pensando a futuro, se pueden realizar simulaciones de movimiento y de resistencia de los materiales, entre otros; que pueden ayudar a hacer correcciones a los modelos para una implementación óptima.


CONCLUSIONES

Se realizaron los dos diseños exitosamente, el primer diseño fue un planeador, el cual cuenta con una estructura en forma de torpedo de aproximadamente 1.3 metros,  y un par de alas que sirven para que el AUV pueda moverse con un bajo consumo de energía.  El segundo diseño se inspiró en el Hypostomus plecostomus, un pez que se puede encontrar en el río Magdalena, este diseño es más robusto, pero al mismo tiempo fue diseñado tomando en cuenta la resistencia al flujo de la corriente producida por su perfil. Ambos modelos son capaces de ser equipados con la instrumentación necesaria para realizar las tareas de inspección y exploración, ya que se cuenta con el espacio suficiente para luces, una cámara, un pequeño sonar, baterías, controladores, sensores, entre otros dispositivos necesarios.
Nepomuceno Gomez Rosa Iveth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Avila Lozano María Itzel, Instituto Politécnico Nacional. Nepomuceno Gomez Rosa Iveth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Peña Guardado Alejandra, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

  Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos. Una vez culminada la investigación, se espera dar respuesta a las siguientes preguntas: ¿Qué importancia tiene diseñar concretos de altas prestaciones con diferentes materiales, como el PET, EPS y ceniza de bagazo de caña? ¿Qué tan factibles son las características mecánicas utilizando adiciones en el concreto y en qué estructuras se recomienda aplicar? ¿Qué impacto ambiental se genera realizando concreto de material orgánico e inorgánico?



METODOLOGÍA

  Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados que se obtuvieron en las pruebas, son interesantes en cuanto a los cilindros que se realizaron con adición de PET, en forma de tiras demostraron ser resistentes a los 14 días obtuvo un 80.33% de su resistencia que equivale a 200.8kg/cm²,el diseño que se tomó como referencia fueron las proporciones para 250kg/cm², los resultados que se muestran refleja el total de su resistencia ya que la mezcla tubo acelerante, por cada kilo de cemento se agregó 23 mm de aditivo, de igual forma se diseñó una viga de PET con proporciones de 250kg/cm², al realizar la prueba a flexión llego a tolerar 32.72kg/cm², estos fueron los concretos mezclados con PET y en cada mezcla se le agrego 2 grs por cada kilo de cemento. En una de las pruebas el agregado grueso fue totalmente sustituido por unicel, con la finalidad de hacer concreto ligero y en este diseño se usaron proporciones para una mezcla de 200kg.cm² y a los 28 días obtuvo una resistencia de 13.69% que equivale a 23.22kg/cm² como se puede notar es diez veces menos resistente que el concreto convencional, con este diseño se realizó una viga que tolero 11.17kg/cm² en prueba a flexión, como el concreto ligero demuestra ser poco apto para uso en compresión se realizaron placas de concreto donde también se sustituyó la grava por unicel que se puede usar para muros, para ello se realizaron pruebas de carga y descarga para flexión, se diseñó con proporciones de 250kg/cm² y al hacer varios ciclos tolera 30kg/cm².  Para el concreto con adición de ceniza resultado de los gabazos de caña, el diseño fue con proporciones de 200kg/cm² y al total de cemento se le agregó el 15% de ceniza y a los 28 días que se ensayó el ultimo espécimen alcanzo un 62.51% de la resistencia que equivale a 125.01kg/cm². Al final se hizo un concreto convencional para hacer una comparación en las placas ligeras y la diferencia de carga que tolera cada una, el diseño fue de 250kg.cm², se apreció que esta es tres veces más resistente que la que contiene polvo de poliestireno expandido (EPS). En cuanto a la mezcla que se elaboró para la realización de block con ceniza de gabazo de caña, la resistencia obtenida no fue la necesaria de acuerdo a la norma NMX-C-441-ONNCCE-2013, ya que esta dice que con respecto a las medidas y peso del  block a elaborar se tiene que obtener una resistencia a la compresión de 35 kg/cm2 y los obtenidos en laboratorio fueron d un promedio 11.8 Kg/cm². Atribuimos estos datos a que no se llevó a cabo a debida granulometría de la ceniza de gabazo de caña.  
Nicolas Plata Antonio, Universidad Politécnica de Atlacomulco
Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)

SISTEMA DE MANEJO DE MICROSERVICIOS


SISTEMA DE MANEJO DE MICROSERVICIOS

Nicolas Plata Antonio, Universidad Politécnica de Atlacomulco. Asesor: Dr. José Luis González Compeán, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de aplicaciones y sistemas de información se ha basado en distintos tipos de arquitecturas, la arquitectura monolítica y la arquitectura de microservicios son ejemplos de ello. El despliegue de una aplicación con estructura monolítica genera mayor costo en tiempo de mantenimiento y actualización de la aplicación debido a que la aplicación es un conjunto complejo cuya totalidad está íntimamente relacionada. Una arquitectura de microservicios promueve el desarrollo y despliegue de aplicaciones compuestas por unidades independientes, autónomas, modulares y autocontenidas. El uso de contenedores virtuales promueve mejorar el rendimiento de los equipos empleados, así como el tiempo de respuesta del sistema implementado con la filosofía de microservicios. Hacer uso de contenedores virtuales y de imágenes de contenedor requiere emplear la línea de comandos del sistema operativo donde esté instalado el sistema Docker, esto resulta un proceso poco conocido y entendido para personal poco habituado a usar la línea de comandos, por lo que es necesario desarrollar un sistema capaz de ser amigable al usuario, es decir, con un entorno gráfico fácil de manejar y que ejecute las mismas tareas que en la línea de comandos.



METODOLOGÍA

Para la realización del presente proyecto se emplea una metodología basada en el modelo espiral para el desarrollo de software. Teniendo en cuenta el punto anterior se hace necesario describir los objetivos de cada ciclo del modelo espiral: Crear la imagen de contenedor de acuerdo a los parámetros dados por el usuario. Crear una base de datos para el registro de las configuraciones de cada imagen de contenedor, previamente construida. Crear interfaz gráfica y funciones para el registro de datos de cada contenedor y microservicio implementado. Crear las funciones para la ejecución de los contenedores en el servidor implementándose mediante un archivo yml y usando docker-compose. Desarrollo del primer ciclo Planificación: El sistema debe poseer la capacidad de aceptar ficheros ingresados por el usuario final. Análisis de riesgos: Tener acceso al servidor desde el momento de desarrollo resulta en un problema, por lo que inicialmente el proyecto se desarrolla en sistema local donde habitaran servidor web, PHP y Docker. Ingeniería: Se realiza la codificación de la interfaz del sistema teniendo especial interés que para la construcción de una imagen de contenedor son requeridos los archivos de personalización de la imagen, así como el archivo dockerfile y la asignación de nombre y etiqueta a asignar a la imagen. Evaluación por el cliente: La evaluación resulto satisfactoria. Desarrollo del segundo ciclo Planificación: El sistema debe poseer una base de datos en el que se registren los datos con los cuales se configuraron y crearon las imágenes de contenedor. Análisis de riesgos: No realizar los registros correctos de los datos empleados para la construcción de cada imagen conlleva a imposibilitar al sistema y al usuario final a llevar un seguimiento de cada imagen. Ingeniería: Se crea una base de datos la cual contendrá inicialmente una tabla para el registro de datos de cada imagen construida en el servidor, así mismo se crea un archivo para establecer la conexión con la base de datos. Evaluación por el cliente: Considerando la funcionalidad del sistema en verificar las imagenes creadas anteriormente, como método para evitar su repetición, el resultado se muestra satisfactorio. Desarrollo del tercer ciclo Planificación: Diseñar una interfaz amigable para el usuario, donde pueda ingresar los parámetros de caracterización de cada contenedor. Análisis de riesgos: El mayor riesgo es el registro de contenedores mal configurados y su posible eliminación en la base de datos, así también la creación de una interfaz dinámica que muestre los resultados ingresados por el usuario sin haber la necesidad de refrescar la página de la interfaz. Tales riesgos se proponen superarse con el uso de funciones en Javascript y Ajax. Ingeniería: Se empieza la estructuración de las etiquetas html en los archivos empleados, así como los componentes empleados para la visualización de los registros creados. Evaluación por el cliente: Una vez presentado el resultado de este ciclo al cliente, éste mostró interés ahora en implementar los contenedores creados anteriormente como microservicios. Desarrollo del cuarto ciclo Planificación: Implementar el arranque de los contenedores creados bajo una misma solución de manera automática. Análisis de riesgos: Ejecutar tareas en el servidor conlleva a responsabilidades por parte del usuario a ejecutarlas, así como por parte del programador; una mala instrucción en el servidor podría provocar errores en su funcionamiento pues se está trabajando bajo la consola del sistema operativo, es por ello importante definir las tareas y comandos específicos que el sistema debe ejecutar en el servidor. Ingeniería: Se hace petición al sistema gestor de base de datos para la recuperación de datos, posteriormente se hace la construcción del archivo yml, el sistema muestra después el archivo yml creado y da posibilidad al usuario de ejecutar las instrucciones Docker-compose up o Docker-compose down. Evaluación por el cliente: Una vez terminada la codificación del programa, se entrega al cliente el resultado, siendo satisfactorio en la mayoría de las etapas.


CONCLUSIONES

Como resultado del presente proyecto se ha construido un sistema de manejo de microservicios, capaz de ser intermediario en la construcción de imágenes de contenedor de acuerdo a los archivos proporcionados por el usuario final. Implementar dicho sistema y que sea capaz de desplegar los microservicios propuestos por el usuario, lo hace aún más efectivo en el manejo de microservicios, pues no hay necesidad de crear un archivo yml, archivo que requiere el comando docker-compose, ya que el sistema genera este archivo por sí mismo y ejecuta la instrucción necesaria para desplegar los microservicios. Se han alcanzado los objetivos propuestos en el inicio del proyecto, obteniendo nuevos conocimientos sobre tecnologías de información como contenedores virtuales y microservicios.
Nieto Rueda Maria Fernanda, Universidad Católica de Manizales (Colombia)
Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)

EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA


EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA

Cejuste Stivenson, Tecnológico de Estudios Superiores de San Felipe del Progreso. Nieto Rueda Maria Fernanda, Universidad Católica de Manizales (Colombia). Ocampo Mejía Arturo, Universidad Católica de Manizales (Colombia). Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La guadua como elemento constructivo, posee grandes beneficios al momento de emplearse para el desarrollo de estructuras,  tanto por lo económico como  por su bajo impacto medioambiental. Sin embargo, existen diversos factores   ambientales,  como por ejemplo  su incorrecto mantenimiento, los cuales pueden incidir negativamente  ya sea en el proceso constructivo o en el mantenimiento de las estructuras, lo que  provoca la erosión y la degradación. En función de consultar estas degradaciones, se realizaron visitas a campo que permitieron tener acercamientos pertinentes, con el propósito de percibir las diferentes afectaciones de la Guadua. Lo cual permite conocer por medio de evidencia fotográfica y bibliográfica los diferentes comportamientos y posibles afectaciones de este material, y de esta manera lograr informar a la sociedad sobre la conducta de la guadua.



METODOLOGÍA

Para estudiar la degradación en las estructuras de guadua, se hicieron varias consultas bibliografías y visitas a campo. Posteriormente se eligió como caso de estudio el restaurante Zafarrancho el cual se encuentra ubicado en la carrera 86 B con calle 42 AS, Bogotá D.C, Colombia. La metodología aplicada corresponde: Cualitativa,  ya que se estudiará sobre las principales afectaciones presentadas en la guadua, relacionado con agentes físicos y biológicos principalmente, las cuales se identificarán en el restaurante Zafarrancho. Algunas técnicas adecuadas para la elaboración de la investigación fueron las visitas a campo; al puente de guadua de la 80 Jenny Garzón, la estructura en guadua ubicada en el Jardín botánico y el restaurante Zafarrancho asados, los cuales permitieron dar a conocer las lesiones presentadas en la estructura del lugar, además de consultas a expertos en el tema que nos permitieron tener una visión y una proyección más amplia de la guadua, como elemento constructivo principal en diversas edificaciones. De esta manera, se utilizaron tanto fuentes bibliográficas como webgráficas, las cuales permiten tener una guía teórica más amplia acerca de este material, sus características y las patologías que se pueden presentar. El desarrollo del proyecto consistió inicialmente en la recopilación de información sobre la guadua y sobre sus características, las patologías existentes que la pueden afectar y sus posibles causas y consecuencias. Posteriormente, se realizó el estudio del caso del restaurante Zafarrancho una estructura completa de guadua, se analizaron las degradaciones presentes en el restaurante y se determinaron sus causas y las principales consecuencias, que pueden tener sobre su integridad física. Finalmente, a través de una monografía se propuso un procedimiento constructivo en guadua para impedir el desarrollo de las degradaciones en las edificaciones construidas con dicho material.


CONCLUSIONES

A través del estudio del restaurante y de las patologías consultadas, se establece que gran parte de estas son de tipo físico y biológico, por la falta de una inmunización adecuada del material. Por lo tanto, estos agentes provocan lesiones como la erosión y aparición de organismos que degradan la Guadua, causando la pérdida paulatina de sus propiedades mecánicas, físicas y biológicas. Debido a esto, es importante a posteriori, realizar reforzamientos en la estructura para evitar futuros inconvenientes en la Guadua, como podría ser el fisuramiento, aplastamiento, entre otros, que se proporciona a raíz de los agentes biológicos. A pesar de la resistencia que tiene la Guadua como material, es un elemento constructivo que no puede sostener ciertas cargas, ya que puede verse afectada su integridad. Finalmente, para la correcta conservación y mantenimiento de sus características estructurales es relevante desde la Arquitectura, prever que los agentes atmosféricos no degraden de una forma acelerada el material, desde el diseño. Teniendo en cuenta lo anteriormente mencionado uno de los referentes tomados en las bases teóricas es Simón Vélez, es relevante la protección del material, debido a la clasificación de Colombia como País tropical, donde las precipitaciones son constantes. Del mismo modo, desde la ingeniería es vital la correcta distribución de las cargas, los tipos de uniones y sobre todo el tipo de guadua, donde en el caso se evidencia el uso del tipoAngustifolia kunth, la cual posee excelentes características en cuanto a su resistencia, como se puede evidenciar en el caso.
Niño Peña Ana Laura, Instituto Tecnológico de Reynosa
Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)

SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO


SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO

Lara Olvera Sergio Armando, Instituto Tecnológico de Reynosa. Niño Peña Ana Laura, Instituto Tecnológico de Reynosa. Parra Lopez Gerardo, Instituto Tecnológico de Toluca. Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el sector agrícola surgen problemáticas que ocasionan un gasto innecesario y un aumento potencial del deterioro medioambiental por agotamiento de la fertilidad o del agua disponible para riego, y por contaminación de suelos y acuíferos, entre otros. Este sector del departamento del Atlántico se ha visto estancado en sus niveles de producción, calidad y cantidad debido a las formas tradicionales de manejar los cultivos, por lo que se ha comenzado a implementar modelos de agricultura desarrollados en el exterior. La variabilidad espacial de las propiedades del suelo y de los rendimientos de los cultivos han sido reconocidos dentro de estos modelos de agricultura, dando origen a nueva tecnología llamada Agricultura de Precisión (AP) que permite medir y manejar la variabilidad espacial para aumentar la eficiencia productiva y disminuir el impacto ambiental. Tomando en cuenta que la demanda de productos va en aumento debido al crecimiento de la población, es indispensable realizar cambios que permitan que los cultivos logren cumplir con la demanda del mercado, además de comenzar a comercializar un producto de mayor calidad, beneficiando tanto al productor como al consumidor.



METODOLOGÍA

El resultado de una prueba piloto de investigación del SENA Centro Nacional Colombo Alemán CNCA en el área de Diseño de Productos Industriales y Diseño e integración de Automatismos Mecatrónicos, con el fin de desarrollar un sistema de monitoreo que permite innovar en los procesos de formación internos e impactando en el Centro para el Desarrollo Agroecológico CEDAGRO. Visualización y análisis de la información (mapas digitales). 1. Se planeó y seleccionó el área a cartografiar, se planificó la misión y las diferentes tareas (Participan aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se capturaron imágenes aéreas multiespectrales de su cultivo con aviones no tripulados (Drones), registrando la información de calidad de suelo, detención de plagas y rendimiento y crecimiento de cultivos del departamento del Atlántico. Generación y entrega de reportes. 1. Se realizaron notificaciones automáticas en tiempo real a los agricultores del estado de tierras y el resultado de decisiones de expertos mediante órdenes de trabajo fotografías, notas de voz o texto, que fueron registrados y almacenados en el Sistema de Monitoreo. (intervienen aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Análisis y Desarrollo de Sistemas de información; Gestión de Redes de Datos; Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se analizó la información obtenida con las conclusiones y resultados del procesamiento de las imágenes apoyados de las indicaciones de los expertos agroindustriales, y se tomaron decisiones sobre la base del conocimiento construido por aprendices y expertos profesionales en el tema, que permiten a los agricultores ser productivos y competitivos en el mercado.


CONCLUSIONES

Diseñar y proporcionar un sistema de toma de decisiones a partir de vehículos no tripulados para la gestión integrada de las explotaciones agrícolas es fundamental. Esto permite fortalecer competencias en el desarrollo tecnológico de productos que impactan positivamente a la comunidad con la solución de problemáticas reales, es decir; permite a los agricultores del Atlántico optimizar el rendimiento de la inversión y conservar los recursos naturales. La propuesta del Sistema para el monitoreo y toma de decisiones a partir de vehículos no tripulados (drones) en el área rural del departamento del Atlántico, se centra en proporcionar a los agricultores una herramienta profesional que mejora la producción, reduzca los costos y el riesgo, permitiendo concentrarse en lo importante, su productividad y negocio.
Nolasco Cen Carlos Eduardo de Jesús, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Mtro. Francisco García Romero, Universidad Tecnológica de Xicotepec de Juárez

INDUCCIóN A LAS MATEMáTICAS EMPLEANDO OBJETOS DE APRENDIZAJE Y DISEñO INSTRUCCIONAL


INDUCCIóN A LAS MATEMáTICAS EMPLEANDO OBJETOS DE APRENDIZAJE Y DISEñO INSTRUCCIONAL

Navarrete Juárez Stephani, Consejo Quintanarroense de Ciencia y Tecnología. Nolasco Cen Carlos Eduardo de Jesús, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mtro. Francisco García Romero, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el Área de Tecnologías de las Información cuenta con la plataforma virtual de Moodle en su versión 3.2.1 y se necesita implementar una nueva plantilla “Lambda” para su plataforma virtual que lleva por nombre “Aula T.I.”. Asimismo, se deben añadir nuevas características para un curso con enfoque hacia el área de matemáticas. Esto debido a que a nivel medio superior se tiene problemas en cuanto a las competencias adquiridas en el área de matemáticas, por lo que se pretende que este curso sirva como una herramienta que permita al estudiante reforzar los conocimientos ya adquiridos previamente y desarrollar un poco más su lógica para no presentar dificultades posteriormente en las asignaturas que tiene la carrera de Ingeniería en Tecnologías de la Información en sus distintas áreas de desempeño. Las actividades por desarrollar son de acuerdo con el temario proporcionado de Habilidades Matemáticas del curso propedéutico para el área Académica de Tecnologías de la Información de la Universidad Tecnológica de Xicotepec de Juárez.



METODOLOGÍA

Gamificación Es el proceso de aprendizaje a través de juegos en el aspecto educativo. La creación de cursos basados en modelos más interactivos permite una experiencia positiva y con mayor sentido de motivación para el alumno. En términos generales, la técnica mecánica es la forma de recompensar al usuario en función de los objetivos alcanzados. La idea de la Gamificación no es crear un juego, sino valernos de los sistemas de puntuación-recompensa-objetivo que normalmente componen a los mismos. Esto es así a pequeña escala como para juegos independientes. De este modo entienden que los intentos múltiples hacia los objetivos engendrados son una parte integral del aprendizaje deseado satisfacer su propio conocimiento. Es importante la afirmación que hace McGraw-Hill sobre ella, es pertinente señalar que se está volviendo aún más impactante con la introducción y expansión de la tecnología educativa. En el libro Leveraging Game-Based Learning for STEM Education: The Benefits of Non-Linear Instruction, manifiesta que la mayor parte del contenido académico se enseña de manera lineal, llevando a los estudiantes del tema A al tema B con tan poco conocimiento posible. Con la definición que extiende este documento, gamificar es diseñar formas óptimas para transmitir conocimiento. Para el uso efectivo de la gamificación, se considera como parte importante un aprendizaje basado en juegos. Metodología ADDIE ADDIE es el acrónimo de las 5 fases del sistema instruccional.El concepto de diseño instruccional se remonta a la década de 1950. Pero no fue hasta 1975 que se diseñó ADDIE, establecida por la Universidad del Estatal de Florida. Consta del Análisis (Analyze), diseño (Design),desarrollo (Development), implementación (Implementation) y evaluación (Evaluation). Se pretende lograr con esta investigación que los alumnos interactúen con el prototipo para posteriormente evaluar la usabilidad de la plantilla y los objetos de aprendizaje. Se toma en cuenta que la mayoría de los estudiantes consideran el material del curso propedéutico de poco interés y motivación en el ámbito matemático, por ello se les proporcionará recursos útiles para potenciar su creatividad e innovación en la realización de sus actividades. En el aspecto docente, fomentar hacia el alumno el autodidactismo y ajustar herramientas para la participación grupal e individual de los alumnos de nuevo ingreso para las materias consecutivas al primer periodo cuatrimestral como Álgebra Lineal y Desarrollo de Habilidades del Pensamiento Lógico. En el caso de la obtención de información será necesaria la aplicación de una entrevista directa con los profesores a cargo del control de la plataforma y considerando los puntos que se requieren implementar para la plantilla Lambda y la elaboración del material didáctico para curso propedéutico. El tipo de estudio que se desarrollará consta de dos partes: descriptivo y cuantitativo. Proporcionar los detalles aplicados al curso y de la plataforma con el uso de la plantilla y posteriormente evaluar el nivel académico de los estudiantes de nuevo ingreso por medio de una evaluación diagnostica con fecha el 4 de septiembre del presente año, posterior a concluir el curso se realizará una evaluación global con la intención de obtener resultados significativos en cuanto al aprovechamiento del material generado.


CONCLUSIONES

Los resultados deseados como primera parte siguen el mismo orden que el plan de trabajo establecido. Tomando en cuenta que los conocimientos adquiridos son reforzamiento y propiciar la motivación los alumnos cuando se les presentan las actividades en términos lineales. Para el caso de toda la recopilación de información, es muy escaso en cuestiones teóricas. Para los fines prácticos, las ecuaciones y su traducción a la plataforma fue un reto que no se esperaba, por falta de reconocimiento del lenguaje y si encontrar herramientas que facilitaran la traducción en el menor tiempo posible. Considerando que las otras herramientas que se presentan en este artículo sean otra alternativa de lo que posee la plataforma y sus herramientas adicionales para el ámbito matemático. Para el diseño de cada material, a partir de imágenes, textos y frases cortas permitieron que se lograra con satisfacción los juegos complementarios que posee cada tema y sus ejercicios. Como factor importante, el tiempo y la organización de este proyecto, se espera que la aplicación de la primera evaluación y el término del curso se encuentren los resultados positivos y significativos en esta primera parte del proyecto. El resultado parcial se encuentra en la siguiente URL del curso: http://ti.utxicotepec.edu.mx, bajo la categoría de propedéutico y lleva por nombre Habilidad Matemática. En donde ya se diseñó la estructura del curso, se implementaron los objetos de aprendizaje y está próximo a agregar a los estudiantes de nuevo ingreso. Esto considerando que el cuatrimestre inicia el 3 de septiembre del presente año.
Nolasco Ocampo Alan Fernando, Instituto Tecnológico de Tepic
Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro

RECONSTRUCCIÓN DEL CAMPO DE VIENTO PRODUCIDO POR HURACANES, SOBRE LA ZONA URBANA DE BAHÍA DE BANDERAS Y PUERTO VALLARTA, MÉXICO


RECONSTRUCCIÓN DEL CAMPO DE VIENTO PRODUCIDO POR HURACANES, SOBRE LA ZONA URBANA DE BAHÍA DE BANDERAS Y PUERTO VALLARTA, MÉXICO

Nolasco Ocampo Alan Fernando, Instituto Tecnológico de Tepic. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Los vientos producidos por huracanes en la zona costera de la Riviera Nayarit y Puerto Vallarta, en el pacifico mexicano es un fenómeno que afecta estas zonas urbanas de mayo a octubre. Durante seis meses los vientos y la intensidad de precipitación producidos por estos fenómenos climatológicos, pone en riesgo y aumenta la vulnerabilidad de las zonas urbanas. Debido a que se trata de una zona turística la vulnerabilidad aumenta considerablemente, ya que se presentan erosiones en las playas a causa del aumento de oleaje provocado por el viento. También las principales vías de comunicación de las zonas urbanas, principalmente las avenidas costeras se ven afectadas por la entrada de oleaje provocado por vientos huracanados.



METODOLOGÍA

La metodología que se utilizó para lograr replicar los campos de viento huracanado fueron simulaciones empleando redes neuronales (ANN). Se utilizaron datos climatológicos de Estaciones Meteorológicas Automáticas (EMA) que registraron datos durante el paso de tres huracanes que afectaron la zona: Jova (octubre,2011), Odile (septiembre,2014) y Patricia (octubre,2015). Con las variables climatológicas de estos eventos se procedió a normalizar y estandarizar las muestras, con estas series de datos se realizaron entrenamientos a las redes neuronales propuestas. Se realizó un programa en Matlab, en donde se tomó el 80% del total de la muestra para entrenar la red y el otro 20% para realizar las simulaciones. Los resultados más relevantes se obtuvieron después de realizar más de 30 pruebas (para todos los casos se utilizó layer Losing hasta la penúltima capa siendo Pureling la capa final de la red neuronal.


CONCLUSIONES

 Los mejores resultados se obtuvieron cuando se realizó un entrenamiento con dos layers y siete neuronas que es igual al número de datos de entrada. El resultado de la simulación con redes neuronales permitió reconstruir los campos de lluvia generados por los huracanes en estudio. Un análisis geoestadístico permitió conocer el grado de vulnerabilidad de las zonas urbanas de Bahía de Banderas y Puerto Vallarta.
Nolasco Saucedo Arely Margarita, Instituto Tecnológico de Toluca
Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)

ANáLISIS ESTRATéGICO DE LA IMPLANTACIóN DE UN SISTEMA DE GESTIóN ENERGéTICA BAJO LA NORMA ISO 50001


ANáLISIS ESTRATéGICO DE LA IMPLANTACIóN DE UN SISTEMA DE GESTIóN ENERGéTICA BAJO LA NORMA ISO 50001

Garcia Hernandez Alondra, Instituto Tecnológico de Toluca. Nolasco Saucedo Arely Margarita, Instituto Tecnológico de Toluca. Asesor: Dr. Salvador Pérez Canto, Universidad de Málaga (España)



PLANTEAMIENTO DEL PROBLEMA

El consumo de energía mundial no ha dejado de crecer en las últimas décadas, como refleja el último informe de la Agencia Internacional de la Energía (IAE, 2017). La energía se ha convertido en una métrica fundamental para las empresas, en particular las industriales ya que el ahorro de energía significa menos costes operativos y mayor eficiencia energética, o sea una mayor competitividad. Además,la reducción del consumo de energía también implica la reducción de emisiones de gases de efecto invernadero y un mayor cuidado de los recursos naturales y el medio ambiente.  Un SGEn puede definirse como una metodología para lograr la mejora sostenida y continua del desempeño energético en las organizaciones en forma de optimización de los costes y el impacto ambiental y social. La implementación de un SGEn no debe entenderse como un objetivo en sí, sino que lo verdaderamente importante son los resultados del sistema. La norma UNE-EN ISO 50001:2018, facilita el establecimiento de los sistemas y procesos necesarios para mejorar la eficiencia energética en las empresas, ampliar la utilización de fuentes de energía alternativas, así como ayudar a las organizaciones que la implementen a reducir las emisiones de gases de efecto invernadero (GEI) y otros impactos ambientales relacionados, entre otras medidas. Esta norma internacional está basada en los elementos comunes de las normas ISO de sistemas de gestión, asegurando un alto grado de compatibilidad principalmente con las normas UNE-EN ISO 9001:2015 (Sistema de Gestión de la Calidad) y UNE-EN ISO 14001:2015 (Sistema de Gestión Ambiental). Asimismo, se estudian las pautas necesarias para un adecuado establecimiento de la línea de base energética, necesaria para la implementación de la norma UNE-EN ISO 50001:2018.  Esta norma, como otras normas de la ISO, está basada en el ciclo: Planificar-Hacer-Verificar-Actuar (PHVA), también conocido como Ciclo de Deming o Ciclo PDCA (por sus siglas en inglés: Plan, Do, Check, Act), que se debe llevar a cabo de forma sistemática para lograr una mejora continua en la empresa. El objetivo de esta investigación es hacer un seguimiento en las empresas industriales de la implementación de un Sistema de Gestión de la Energía (SGEn), de acuerdo con el estándar internacional ISO 50001. La relevancia del estudio radica en conocer el impacto de su implementación en este tipo de empresas, empleando una serie de herramientas de obtención de datos, enfocadas a directivos y gestores, en las decisiones y resultados empresariales en términos de eficiencia de los procesos de gestión, costos, productividad, beneficios, imagen, impacto ambiental, responsabilidad social, etc.  Se estudiarán las empresas de España en lo general y de Andalucía en lo particular, en sus distintos sectores industriales para así conocer su nivel de satisfacción con respecto a los beneficios que les ha traido la implementación de un Sistema de Gestión de Energía. 



METODOLOGÍA

Para conocer y cuantificar dicho impacto se emplean una serie de herramientas de obtención y análisis de datos, enfocadas a directivos y gestores, en la decisiones y resultados empresariales. En primer lugar, se ha definido el marco contextual, en el cual se concretan los fundamentos teóricos en que se la investigación. Se realizó un análisis de la eficiencia energética, los SGEn y la Huella de carbono. Posteriormente, se explicó lo que supone obtener la certificación de la norma UNE-EN ISO 50001:2018 en una organización, los requisitos que se exigen y las implicaciones estratégicas y operativas. Finalmente, se realizó un análisis del sector industrial español, con sus correspondientes características. En cuanto al marco práctico de este trabajo, se llevará a cabo el análisis sobre la implementación y certificación de los SGEn en las empresas, en particular las del sector industrial, incidiendo en sus consecuencias a nivel estratégico. Para ello, se distinguen las siguientes etapas: Realizar un proceso de búsqueda de empresas industriales, localizadas en España, que tenga certificada la norma UNE-EN ISO 50001:2018. Analizar la información obtenida y estudiar el impacto, de lo que conlleva tener implementado un SGEn en las organizaciones, diferenciando las ventajas e inconvenientes que las empresas puedan encontrar tras su implementación.  Realizar un informe sobre los resultados y conclusiones obtenidos, proponiendo posibles mejoras aplicables a los SGEn. Se propondrán líneas futuras de trabajo donde se comparará la situación de Andalucía con la de otras regiones españolas, y en un contexto internacional.


CONCLUSIONES

En conclusión, la implementación de la norma ISO 50001 ha tenido mayor impulso en los últimos años en la industria española, sin embargo es necesaria una mayor difusión para lograr que más empresas sean acredoras a esta certificación para el beneficio tanto de las empresas como de las comunidades en las que se encuentran.  Con está investigación se espera que más empresas se vean motiviadas a adoptar un Sistema de Gestión de Energía gracias al análisis de los beneficios que las organizaciones han presentado después de la implementación de esta certificación. El siguiente paso es recibir las respuestas de la encuesta y analizar los resultados, para un posterior  informe final en el que se detalle la información recibida, dando a conocer el impacto y beneficios que los SGEn han tenido en las empresas que han decidido implemtnetarlo, tomando en cuenta los factores que favorecen o dificultan la implantación de estos.
Noriega Gonzalez Jazabel, Instituto Tecnológico de Culiacán
Asesor: Dr. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa

INSTALACIóN Y MONITOREO DE INVERSORES PARA INTERCONEXIóN A RED ELéCTRICA DE UN SISTEMA FOTOVOLTAICO DE 9.0 KW DE POTENCIA NOMINAL


INSTALACIóN Y MONITOREO DE INVERSORES PARA INTERCONEXIóN A RED ELéCTRICA DE UN SISTEMA FOTOVOLTAICO DE 9.0 KW DE POTENCIA NOMINAL

Noriega Gonzalez Jazabel, Instituto Tecnológico de Culiacán. Asesor: Dr. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El parque fotovoltaico de la Universidad Politécnica de Sinaloa está constituido por 36 paneles solares base Si policristalino con potencia nominal 250 W conectados en tres string compuesta cada una por 12 paneles y conectada a un inversor de 3 KW de potencia nominal: Fronius datamanager 2.0, BLD-TL2, Solis 2G-ST.  Esta infraestructura sirve como laboratorio de prácticas de docencia para estudiantes de la carrera de Ingeniería en Energía y de investigación a profesionales del área ya que permite mostrar la generación y monitoreo de la energía solar fotovoltaica generada.    El proyecto desarrollado consiste en la realización de conexiones eléctricas entre panles- panel-inversor. Inversor-red eléctrica, así como el monitoreo diario de la generación de energía fotovoltaica para determinar la calidad de la energía entregada



METODOLOGÍA

1. Conocimiento teórico y físico del equipo y/o aparatos a utilizar. 2. Conexiones eléctricas entre todos los componentes del sistema fotovoltaico interconectado a red (SFIR) (conexión en serie de 12 módulos), de los circuitos de salida de las fuentes fotovoltaicas a su correspondiente inversor, y de los inversores al tablero de distribución. 3. Monitoreo de la energía entregada al inversor correspondiente del string conectado bajo las condiciones ambientales actuales del parque, polvo, grasa, heces animales.    4. Limpieza de los 36 paneles solares.  5. Monitoreo de la energía entregada al inversor correspondiente del string conectado una vez limpios.  6. Realización de las curvas características IV, PV de un panel solar perteneciente al SFIR utilizando un analizador Prova 210. 7. Medición de la irradiación solar y análisis de la potencia disponible y la aprovechada utilizando un piranómetro portátil Kimo SL200 para la eficiencia actual del SFIR tomando en cuenta el tiempo transcurrido desde la instalación.


CONCLUSIONES

El mantenimiento y limpieza de los paneles solares es uno de los principales aspectos que afectan a la eficiencia total del SFIR, durante la experimentación se comprobó que la generación se duplicó después de realizada.  Los tres inversores conectados al sistema solar permitieron toma de datos de la energía eléctrica DC recibida  que se inyecta a red bajo condiciones ambientales no favorables (sucios) notando que esta era afectada ya que estuvo en un promedio diario de 1 KW. Mientras que, una vez limpios se observó el incremento de energía recibida a un promedio diario de 2.5 a 3.0 KW en dos de los inversores, puesto que el inversor BLD presento fallas eléctricas que requiero desconectarlo.   La determinación de las curvas características de un panel fotovoltaico ayuda a establecer el comportamiento eléctrico del mismo bajo condiciones ambientales propias de la localidad referente a irradiancia solar recibida en función de la temperatura ambiental. 
Norzagaray Anaya Wilfrido, Instituto Tecnológico de Culiacán
Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato

MAQUINA RETROEXCAVADORA CONTROLADA POR BLUETOOTH


MAQUINA RETROEXCAVADORA CONTROLADA POR BLUETOOTH

Norzagaray Anaya Wilfrido, Instituto Tecnológico de Culiacán. Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la institución se cueta con visitas de personas de distintas edades, la manera en que explicas un determinado tema se debe adaptar a determinado público, no explicarás de la misma manera a un niño de 10 años que a una persona que es mayor de edad, cada quien tiene un grado de entendimiento y razonamiento, debido a esto es que se toma la idea de crear un prototipo que sea atractivo para niños menores de edad, para que puedan aprender sobre robótica de una manera entretenida y atractiva.



METODOLOGÍA

Primeramente se empieza por los mecanismos para controlar el movimiento de la retroexcavadora con los servomotores, se imprimieron en 3D, para, previamente se diseñaron en el software SolidWorks y los diseños se transformaron a extensión .stl para poder generar el código G. Teniendo todas las piezas, se prosiguió a montar el mecanismo y los servos en la estructura de la máquina retroexcavadora. Teniendo el mecanismo ya terminado, se siguió a armar el circuito en un protoboard, hacer el código para el microcontrolador PIC y crear una aplicación previa solo para hacer pruebas antes de crear la placa de circuito impreso. Ya que se determinó que el circuito funciona con la aplicación, se prosiguió a crear la placa de circuito impreso y una aplicación más detallada a nivel estético. El proyecto funciona de la siguiente manera, la aplicación en tu teléfono Android se comunica vía bluetooth con el microcontrolador y esta misma envía datos numéricos que en este caso sería los ángulos, estos son interpretados por el microcontrolador y enviados a los servomotores para que estos se coloquen en el ángulo deseado.  


CONCLUSIONES

Durante la estancia de investigación de verano se adquirieron conocimientos sobre robótica y sobre microcontroladores, además de poner en práctica los conocimientos previamente obtenidos en la universidad, con este conjunto se logró crear un prototipo que servirá para futuras visitas que tenga la escuela, principalmente niños, ya que se hizo de manera que fuera más atractivo para ellos.
Núñez Aguayo Miguel Serafín, Universidad de Guanajuato
Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato

ANáLISIS DE LA PROPAGACIóN DE ARCO ELéCTRICO EN CáMARAS DE BAJO VOLTAJE


ANáLISIS DE LA PROPAGACIóN DE ARCO ELéCTRICO EN CáMARAS DE BAJO VOLTAJE

Núñez Aguayo Miguel Serafín, Universidad de Guanajuato. Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desde el siglo XIX con los desarrollos de Edison, se han utilizado redes eléctricas con el objetivo de la distribución de electricidad en corriente continua (DC), sin embargo, debido a la falta de estándares y tecnologías, los sistemas de distribución eléctrica en corriente alternan (AC) son los que dominan el mercado. Con el surgimiento de tecnologías alternativas de obtención de energía eléctrica como la energía solar y el desarrollo de circuitos electrónicos de potencia, ha sido posible conectar componentes y crear redes eléctricas que funcionan en DC. Sin embargo, la protección de estas redes a corto circuito es uno de los retos a más importantes para la aplicación de sistemas en DC el cual es más complejo que en redes de AC debido a que el movimiento de la corriente es en una sola dirección y nunca pasa por un valor nulo.   El arco eléctrico, el cual se puede producir al desconectar cualquier circuito, consiste de una columna de plasma que se encuentra a altas temperaturas y densidades de corriente, los riesgos que esto conlleva son excesivos; de aquí la importancia de analizar su comportamiento para encontrar formas de extinguirlo de forma inmediata y evitar daños a la red eléctrica y a los operarios   Ya que la experimentación en aplicaciones de extinción de arco eléctrico es muy compleja e involucra equipo muy costoso, la simulación numérica de este fenómeno es del interés para investigadores interesados en el desarrollo de estas tecnologías. Es por esto que durante el verano de investigación se estudia el método para la simulación del arco eléctrico en un modelo de una cámara de bajo voltaje con corriente continua.



METODOLOGÍA

Se propuso un modelo de una cámara de voltaje que consiste de dos electrodos de cobre y de una placa divisora en un dominio de fluido, en este caso aire a condiciones atmosféricas. Las dimensiones de los electrodos son de 4 mm × 1.5 mm × 16 mm, separadas entre ellas 8 mm. La placa divisora es de dimensiones 4 mm × 2 mm × 7 mm, cuya parte superior coincide con la extensión de fluido de 8 mm de longitud. Se consideran dominios laterales de fluido para una mejor disipación de calor con la intención de evitar problemas de convergencia y para monitorear de una mejor manera las temperaturas en los dominios presentes, evaluar el efecto de calentamiento en los alrededores y en los sólidos del modelo.   Las condiciones del modelo son temperaturas a 300 K y presión atmosférica. Las paredes externas en el modelo se consideran como adiabáticas y sin deslizamiento. Los respiraderos servirán de salida del aire caliente y recirculación de aire a temperatura ambiente. La condición de presión a la salida de los respiraderos es atmosférica. Las condiciones electromagnéticas son: conductividad en todo el dominio de fluido como una función de temperatura acorde a lo propuesto por A.B. Murphy. De igual forma, el campo magnético es variable en todo el dominio de fluido. Las corrientes iniciales manejadas son 100 A. El arco eléctrico se modela como un cilindro de aire a 10,000 K. Cada paso de tiempo simulado es de 1 µs.   El proceso de la simulación se basa en la teoría magnetohidrodinámica (MHD), esta disciplina estudia la dinámica de fluidos en presencia de campos eléctricos y magnéticos, y específicamente los efectos que aparecen por estas interacciones al contar con un fluido en movimiento. Se hizo uso de los softwares ANSYS Fluent (CFD) y ANSYS Maxwell (FEA) mediante una función definida por el usuario (UDF) que se encarga de importar los resultados electromagnéticos al inicio de cada paso de tiempo obtenidos en ANSYS MAXWELL y calcular los efector debidos al calentamiento por el efecto Joule y las fuerzas de Lorentz en las ecuaciones de energía y momento que se resuelven en ANSYS FLUENT, se exportan estos resultados a ANSYS MAWELL y el proceso se repite.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos teóricos y las habilidades para la simulación numérica para el fenómeno complejo que es el movimiento y propagación del arco eléctrico. Dentro de los modelos propuestos se replicó un caso existente y además se analizó el efecto de imanes y materiales ferromagnéticos en presencia del arco eléctrico para analizar cómo se afectaba su comportamiento. Sin embargo, estos fenómenos provocan la inestabilidad del modelo y tienden a la divergencia. Se logró obtener resultados para un caso en el que la placa divisora es de material ferromagnético (hierro) y la densidad de corriente del arco eléctrico se interrumpe en un periodo de 80 µs con temperaturas residuales mayores a 5000 K. Para trabajos futuros se propone la refinación de la malla y la reducción de la duración de cada paso de tiempo para evitar los problemas de convergencia e incluir al modelo el efecto de imanes para así tener un modelo más robusto que permita simular las tecnologías usadas actualmente y poder proponer nuevos modelos. 
Núñez Cárdenas José Félix, Instituto Tecnológico de Jiquilpan
Asesor: Mtro. Diana Cristina López López, Universidad Católica de Pereira (Colombia)

RELACIONES CAUSALES ENTRE EL POSTULADO “REACCIóN EN CADENA” DE W. EDWARDS DEMING Y LA TEORíA DE LA ORGANIZACIóN INDUSTRIAL.


RELACIONES CAUSALES ENTRE EL POSTULADO “REACCIóN EN CADENA” DE W. EDWARDS DEMING Y LA TEORíA DE LA ORGANIZACIóN INDUSTRIAL.

Núñez Cárdenas José Félix, Instituto Tecnológico de Jiquilpan. Peralta Ortíz Jesús Armando, Universidad de Sonora. Asesor: Mtro. Diana Cristina López López, Universidad Católica de Pereira (Colombia)



PLANTEAMIENTO DEL PROBLEMA

W. Edwards Deming afirma que cuando una organización productora de bienes y servicios es gestionada con base en la calidad, se genera una Reacción en Cadena, en la cual, la calidad conduce a una mayor productividad dado que elimina algunos costos de producción asociados a reprocesos y pérdidas de materiales. Esto a la vez le permite a la empresa ingresar al mercado productos de mayor calidad y menor precio que sus competidores, aumentando así su propia competitividad. Ahora bien, en lo que respecta a la visibilidad y competitividad en el mercado tanto de las grandes empresas como de las MIPYMES, se evidencia que las segundas poseen menor capacidad de inversión que las primeras. Dicha diferencia se matiza en el hecho que las MIPYMES tienen mayores dificultades al momento de adquirir maquinaria que permita automatizar sus procesos, centrando entonces la atención en lo que refiere a la inversión en capital humano y dejando a un lado variables como calidad. El problema radica, en que las MIPYMES no disponen de capitales monetarios y que no tienen gran cantidad de personal capacitado académicamente para comprender las distintas teorías que surgen para ayudar a todas las empresas por igual.



METODOLOGÍA

Se partió de una lúdica previamente construida a partir del uso de fichas tipo lego que hace parte del trabajo previo de la investigación que se está apoyando, para luego desarrollar la simulación presentada haciendo uso del software FlexSim en su versión Demo, con el cual se presenta un micromundo productivo que produce tanques de guerra y dentro del cual se aplican herramientas de producción, calidad, logística y costos.


CONCLUSIONES

Durante la pasantía se generó un crecimiento en la parte teoría y práctica, con lo cual se han desarrollado nuevas habilidades en este campo. Se adquirió conocimiento sobre la Reacción en Cadena, y la relación que existe entre calidad, productividad y competitividad. Sin embargo, la simulación de la lúdica representó un reto para el manejo eficiente del software de simulación (FlexSim), en donde se aplicaron muchos conocimientos de la investigación principal y así mismo conocimientos aplicados de Ingeniería Industrial, logrando con ello que la simulación elaborada pueda dirigirse a cualquier persona, independientemente de su nivel académico, que desee comprender de una manera didáctica la relación que existe entre calidad, productividad y competitividad.
Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Ocampo Mejía Arturo, Universidad Católica de Manizales (Colombia)
Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)

EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA


EVALUACIÓN CONSTRUCTIVA PARA PREVENIR LA DEGRADACIÓN EN ESTRUCTURAS EN GUADUA

Cejuste Stivenson, Tecnológico de Estudios Superiores de San Felipe del Progreso. Nieto Rueda Maria Fernanda, Universidad Católica de Manizales (Colombia). Ocampo Mejía Arturo, Universidad Católica de Manizales (Colombia). Asesor: M.C. Olga Lucia Vanegas Alfonso, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La guadua como elemento constructivo, posee grandes beneficios al momento de emplearse para el desarrollo de estructuras,  tanto por lo económico como  por su bajo impacto medioambiental. Sin embargo, existen diversos factores   ambientales,  como por ejemplo  su incorrecto mantenimiento, los cuales pueden incidir negativamente  ya sea en el proceso constructivo o en el mantenimiento de las estructuras, lo que  provoca la erosión y la degradación. En función de consultar estas degradaciones, se realizaron visitas a campo que permitieron tener acercamientos pertinentes, con el propósito de percibir las diferentes afectaciones de la Guadua. Lo cual permite conocer por medio de evidencia fotográfica y bibliográfica los diferentes comportamientos y posibles afectaciones de este material, y de esta manera lograr informar a la sociedad sobre la conducta de la guadua.



METODOLOGÍA

Para estudiar la degradación en las estructuras de guadua, se hicieron varias consultas bibliografías y visitas a campo. Posteriormente se eligió como caso de estudio el restaurante Zafarrancho el cual se encuentra ubicado en la carrera 86 B con calle 42 AS, Bogotá D.C, Colombia. La metodología aplicada corresponde: Cualitativa,  ya que se estudiará sobre las principales afectaciones presentadas en la guadua, relacionado con agentes físicos y biológicos principalmente, las cuales se identificarán en el restaurante Zafarrancho. Algunas técnicas adecuadas para la elaboración de la investigación fueron las visitas a campo; al puente de guadua de la 80 Jenny Garzón, la estructura en guadua ubicada en el Jardín botánico y el restaurante Zafarrancho asados, los cuales permitieron dar a conocer las lesiones presentadas en la estructura del lugar, además de consultas a expertos en el tema que nos permitieron tener una visión y una proyección más amplia de la guadua, como elemento constructivo principal en diversas edificaciones. De esta manera, se utilizaron tanto fuentes bibliográficas como webgráficas, las cuales permiten tener una guía teórica más amplia acerca de este material, sus características y las patologías que se pueden presentar. El desarrollo del proyecto consistió inicialmente en la recopilación de información sobre la guadua y sobre sus características, las patologías existentes que la pueden afectar y sus posibles causas y consecuencias. Posteriormente, se realizó el estudio del caso del restaurante Zafarrancho una estructura completa de guadua, se analizaron las degradaciones presentes en el restaurante y se determinaron sus causas y las principales consecuencias, que pueden tener sobre su integridad física. Finalmente, a través de una monografía se propuso un procedimiento constructivo en guadua para impedir el desarrollo de las degradaciones en las edificaciones construidas con dicho material.


CONCLUSIONES

A través del estudio del restaurante y de las patologías consultadas, se establece que gran parte de estas son de tipo físico y biológico, por la falta de una inmunización adecuada del material. Por lo tanto, estos agentes provocan lesiones como la erosión y aparición de organismos que degradan la Guadua, causando la pérdida paulatina de sus propiedades mecánicas, físicas y biológicas. Debido a esto, es importante a posteriori, realizar reforzamientos en la estructura para evitar futuros inconvenientes en la Guadua, como podría ser el fisuramiento, aplastamiento, entre otros, que se proporciona a raíz de los agentes biológicos. A pesar de la resistencia que tiene la Guadua como material, es un elemento constructivo que no puede sostener ciertas cargas, ya que puede verse afectada su integridad. Finalmente, para la correcta conservación y mantenimiento de sus características estructurales es relevante desde la Arquitectura, prever que los agentes atmosféricos no degraden de una forma acelerada el material, desde el diseño. Teniendo en cuenta lo anteriormente mencionado uno de los referentes tomados en las bases teóricas es Simón Vélez, es relevante la protección del material, debido a la clasificación de Colombia como País tropical, donde las precipitaciones son constantes. Del mismo modo, desde la ingeniería es vital la correcta distribución de las cargas, los tipos de uniones y sobre todo el tipo de guadua, donde en el caso se evidencia el uso del tipoAngustifolia kunth, la cual posee excelentes características en cuanto a su resistencia, como se puede evidenciar en el caso.
Ocampo Pineda Carlos, Instituto Tecnológico de Iguala
Asesor: Ing. Jorge Eduardo Ortega Lopez, Instituto Tecnológico de Iguala

DISEñO DE SEMáFOROS VIALES PARA EL MUNICIPIO DE IGUALA DE LA INDEPENDENCIA CON SERVICIOS WEB E IOT.


DISEñO DE SEMáFOROS VIALES PARA EL MUNICIPIO DE IGUALA DE LA INDEPENDENCIA CON SERVICIOS WEB E IOT.

Ocampo Pineda Carlos, Instituto Tecnológico de Iguala. Zacarias Garcia Rodolfo, Instituto Tecnológico de Iguala. Asesor: Ing. Jorge Eduardo Ortega Lopez, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

 Iguala de la independencia es una de las ciudades mas importantes del estado, y por ende una de mas mas visitadas y con mayor numero de poblacion y vehiculos. Diseñar e implementar semáforos viales para este municipio  implementando tecnologías de la Industria 4.0  representará un logro significativo en la afluencia de trafico de la ciudad pues permitirá tener un control y monitoreo en tiempo real de los mismo, y por supuesto, nos permitan tener una mejor salud vial en la ciudad. Para ello se trabajara con dispositivos que implementen tecnologias adecuadas para el buen funcionamiento y desarrollo del proyecto.



METODOLOGÍA

Metodología: Toyota-Kata Proyecto: Diseño de semáforos viales para el municipio de Iguala de la Independencia con servicios WEB e IoT que permitirá una mejor organización, control y monitoreo de los principales semáforos de la ciudad, ubicados en el anillo periférico de la ciudad. Iguala de la independencia cuenta con 10 semáforos en el anillo periférico el cual es la principal arteria de flujo de automóviles en la ciudad. Los semáforos son sin duda los principales moderadores del tráfico en esta arteria vehicular, sin embargo, frecuentemente varios de ellos presentan fallas o se encuentran totalmente inservibles trayendo consigo diferentes tipos de accidentes. Basados en las estadisticas oficiales del INEGI  al año 2017 en la ciudad de iguala de la independencia se tienen registrados un total de 58,645 vehiculos de motor. De los cuales : 41,616 son automoviles. 2,322 son camiones para pasajeros . 9,239 camiones y camionetas para carga. 5,468 son motocicletas. Estas cifras hablan apenas de los vehiculos que son registrados en la ciudad, se estima que un 12% podria ser una cantidad exacta estimando los registros de turismo y vehiculos foraneos. Pese a esto, la ciudad no cuenta aun con un servicio que pueda garantizar un control y cuidado optimo de los semaforos, debido a que estos no son directamente monitoreados por la direccion de transito municipal, o en muchas ocasiones, las fallas a estos dispositivos no son un problema prioritario para ellos.   Monitorear y controlar en tiempo real los semáforos de nuestra ciudad es posible y factible, con el apoyo y recursos necesarios este seria un proyecto que en pocos meses traería consigo resultados positivos en la ciudad, no solo con la disminución de los accidentes sino también con el flujo de transito óptimo de los vehículos que transitan por ahí. Los principales obstáculos se presentarían a partir de implementar el proyecto, puesto que intervienen varios factores que podrían entorpecer el desarrollo de este de forma normal. Algunos de estos obstáculos son: 1-. No contar con el apoyo de las autoridades municipales para desarrollar el proyecto y renovar el sistema de semáforos de la ciudad. 2-. No Contar con los recursos necesarios para el proyecto: Algunos de los mas importantes para el proyecto sería el sistema de puntos de acceso a internet en los diferentes semáforos, puesto que con ellos se realizará la conexión y comunicación de manera remota. Y sin duda, el aspecto de recurso económico será indispensable para todo lo anterior puesto que habrá que llevar a cabo trabajos de reparación y compra de material indispensable. 3-. La aceptación de los usuarios de esta arteria vehicular a los cambios que se realizaran, pues la gente muchas veces no acepta los cambios y se oponen a ellos cuando desconocen la situación.


CONCLUSIONES

Conclusiones: Implementar semáforos con tecnologías de la industria 4.0 y servicios WEB e IoT es posible, tras lograr realizar la conexión con entre módulos WI-FI de manera remota pudimos enviar y recibir datos en tiempo real a un servidor en la WEB, teniendo así una comunicación entre ellos. Esto nos permitirá adaptar esta tecnología a los semáforos y controlarlos desde un servidor o pagina web de manera remota, teniendo así un monitoreo mas completo y real de estos semáforos. Una vez logrado lo anterior lograremos también: Interrumpir periódicamente el tránsito en una corriente vehicular y/o peatonal para permitir el paso de otra corriente vehicular. Regular la velocidad de los vehículos para mantener la circulación continua a una velocidad constante. Controlar la circulación por carriles. Eliminar o reducir el número y gravedad de algunos tipos de accidentes, principalmente los que implican colisiones perpendiculares. Aspectos que sin duda son importantes para una buena salud vial en nuestra ciudad.
Ocaranza García Paulina, Universidad del Valle de Atemajac
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Ochoa Almazán David Ernesto, Instituto Tecnológico de Tláhuac
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

PRUEBAS DE FOTOSÍNTESIS ARTIFICIAL EN VIDRIOS ACTIVADOS.


PRUEBAS DE FOTOSÍNTESIS ARTIFICIAL EN VIDRIOS ACTIVADOS.

Ochoa Almazán David Ernesto, Instituto Tecnológico de Tláhuac. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La conversión de una energía en otra ha sido uno de los mayores retos del ser humano, debido que es un proceso químico que solo las plantas tienen. La capacidad de transformar un sustrato inorgánico en materia orgánica por la absorción de luz. La obtención de energías convencionales a dado lugar al crecimiento de la contaminación del medio ambiente por la alta producción de CO2, afectando al medio ambiente y agotando los recursos naturales del planeta. En México en el 2015 emitió 683 millones de toneladas de bióxido de carbono. (INEGYCEI) La energía renovable es sustentable debido a que son fuentes de energía inagotables que no emiten gases tóxicos al planeta tierra. El sol es una energía renovable que produce energía la cual puede ser aprovechada de diferentes formas para reducir la contaminación de los recursos naturales y enfermedades a causa de energìas convencionales. Los métodos y técnicas para la obtención de energía limpia puede ser la diferencia de lo que pueda suceder en un futuro. En esta investigación se buscará la forma de aprovechar la energía solar transformándola en otro tipo de energía.



METODOLOGÍA

Se construirán tres vidrios dopados con diferentes sustancias y se probara si existe el paso de electrones en los vidrios activados. Primer vidrio. Para la construcción del primer vidrio se utilizo vidrio molido que fue tamizado con un tamiz del numero 16 para volverlo de una forma mas fina. La sustancia que se utilizo fue el sulfato de plata y se mezclo con el vidrio. Las cantidades del vidrio son de 3.20 gramos y para el sulfato de plata fue de .25 gramos. Los cuales ya mezclados se depositarían en un molde y llevados a una mufla hasta alcanzar los 900 grados centígrados, se dejarían 10 minutos a 900 grados centígrados y se retiraría el molde de la mufla. Posteriormente se dejaría enfriar a temperatura ambiente para retirar el vidrio del molde. Segundo vidrio Para la construcción del segundo vidrio se realizo el mismo proceso que en el primer vidrio con las mismas cantidades de sustancia y vidrio molido solo cambiaria la sustancia que en este caso fue oxido de cobre. Tercer vidrio Para la construcción del tercer vidrio se utilizo vidrio molido con una cantidad de 3.20 gramos y se ocuparon dos sustancias oxido de cobre y sulfato de plata con un peso de .125 gramos para cada uno y se paso por el mismo proceso que en el primer vidrio. Una vez obtenido el dopaje en vidrios activados se harían pruebas de conductividad eléctrica pasándoles 127 volts de CA y 127 de CD. Observando que existe conductividad eléctrica se llevaría acabo el recubrimiento de vidrios con la clorofila mediante el método spinning coating. Para realizar el método spinning coating se construyó la máquina de fuerza centrifuga con un motor de 12 volts un transistor y un potenciómetro de 100k. Posteriormente se extrajo clorofila de espinaca con un mortero y un palo de pistilo aplastándolo mediante se depositaba pequeñas cantidades de metanol. Obtenidos la maquina spinning coating la clorofila y los vidrios activado se llevó a cabo el siguiente paso el cual consiste en agregar 15 mililitros de clorofila y utilizar el método spinning coating por un periodo de 5 minutos. Se hará el proceso con cada vidrio y se pondrá bajo luz UV y luz solar para medir con un multímetro si la pastilla está generando energía eléctrica.


CONCLUSIONES

La hipótesis planteada por los fundamentos teóricos y las técnicas de proceso de fabricación resulto como se esperaba.   Se realizo pruebas de conductividad con la película de clorofila y se obtuvo paso de electrones por vidrio activado. La película de clorofila sobre el vidrio activado expuesta a los rayos UV y rayos solares reacciono de tal manera que los rayos UV y rayos solares obtuvieran energía eléctrica en vidrios activado realizando con éxito el cambio de energía.
Ochoa Duarte Jesús Rafael, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa

BUENAS PRáCTICAS PARA IMPACTAR POSITIVAMENTE EN LA EFICIENCIA DE LAS CADENAS DE VALOR. CASO EMPRESAS DEL SUR DE SINALOA.


BUENAS PRáCTICAS PARA IMPACTAR POSITIVAMENTE EN LA EFICIENCIA DE LAS CADENAS DE VALOR. CASO EMPRESAS DEL SUR DE SINALOA.

Ochoa Duarte Jesús Rafael, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Maria Guadalupe Velarde Rodriguez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El problema que pretende abarcar el presente estudio es el análisis detallado de la eficiencia logística y su impacto en el desempeño logístico de la cadena de valor. Analizar las buenas prácticas relativas a sus puntos clave, actores, indicadores y áreas de oportunidad bajo el  contexto regional, nacional e internacional. Con la intención de proporcionar un cuadro comparativo de las buenas prácticas que pueda servir como guía para que empresas del mismo giro puedan implementar e impactar positivamente en la administración de la cadena de valor.



METODOLOGÍA

Se realizó una investigación cualitativa de tipo documental. Se realizó revisión literaria de 60 marcos teóricos para recolección de información relativa al tema investigado. Primero se reunió el material literario de diversas fuentes, la mayoría artículos científicos, posteriormente se realizaron visitas programadas a empresas del giro agroindustrial y se les aplicó un instrumento de carácter cualitativo para detectar áreas de oportunidad ponderando su grado de eficiencia y relevancia en la logística de la empresa, seguido de un análisis y comparativo entre las empresas se les proporcionó retroalimentación a las empresas participantes de la evaluación, dándoles a conocer buenas prácticas para sus áreas de oportunidad así como indicadores para la evaluación de las mismas.


CONCLUSIONES

La eficiencia logística depende de muchos factores y de cómo estos participan en los procesos, las empresas requieren conocer sus procesos internos y externos para detectar actividades principales, elementos involucrados, áreas de oportunidad y actividades de soporte para concatenar adecuadamente sus procesos, evitando cuellos de botella, mermas, costos ocultos y otros derivados de malas prácticas. La logística ha sido factor para ventajas comparativas y competitivas y en los últimos años ha incrementado su importancia debido a la globalización que presenta nuevas oportunidades y retos para las empresas, por ello ha sido y será motivo de estudio en busca de optimización, las buenas prácticas que se han ido implementado en las empresas mejoran gradualmente su nivel de servicio, reducido tiempos y costos, pese a esto no todas las empresas en el mundo han adquirido estas buenas prácticas, se analizó a las empresas del Sur de Sinaloa para comparar sus prácticas en el sector agroindustrial, por la relevancia del sector, debido a ello se investigó y evaluó a una muestra de este sector, tras la aplicación del instrumento se encontraron los siguientes restos comunes: Costos elevados en combustibles Procesos ineficientes Falta de mano de obra especializada Falta de apoyos gubernamentales para el acceso a tecnologías Falta de infraestructura carretera Falta de eficiencia en la conexión (carretera-ferroviaria) del Puerto Con la Ciudad y con el Corredor Económico del Norte México. Falta de energías alternas Falta de investigación y desarrollo  Para ello se le realizaron recomendaciones según su mayor área oportunidad, tamaño y el lugar que ocupa en su cadena de suministro, donde la mayoría requería capacitación, sistemas de información, mejora de procesos (estudio de tiempo y movimientos, indicadores, mejor planeación y una mejor vinculación con proveedores y distribuidores). Otro gran factor es el externo, la infraestructura y la energía, para ello se sugirió buscar el apoyo del gobierno en tema de infraestructura, posibles subsidios para combustible y tecnologías.
Ochoa López José Miguel, Instituto Tecnológico de Culiacán
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

DESARROLLO DE UN PROTOTIPO DE NAVEGACIóN DE CATáLOGOS 3D A TRAVéS DE COMANDOS DE VOZ USANDO ALEXA.


DESARROLLO DE UN PROTOTIPO DE NAVEGACIóN DE CATáLOGOS 3D A TRAVéS DE COMANDOS DE VOZ USANDO ALEXA.

Ochoa López José Miguel, Instituto Tecnológico de Culiacán. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Desde su creación el Grupo de Realidad Virtual del INEEL ha venido desarrollando diferentes proyectos. Por ejemplo, en el año 2012 se concluyó el proyecto donde se desarrolló el sistema 3DMaPPS, que es un sistema para adiestramiento en mantenimiento y pruebas de puesta a punto de equipos primarios de subestaciones de distribución. A finales de 2015 se concluyó un sistema basado en RV para capacitación en pruebas a protecciones (SAMPyM 3D ). Estos sistemas incluyen principalmente animaciones 3D predefinidas y que se activan a través de clics del usuario. Su navegación se reduce al uso de flechas de navegación, así como del uso de mouse. Sin embargo, un sistema que además permita la navegación a través de comandos de voz también podría ser de gran utilidad. El prototipo propuesto permitirá al GRV incursionar en esta área y explorar los alcances y beneficios de esta tecnología. El enfoque del proyecto en esta ocasión estaría en la creación de un catálogo de modelos que pueda realizar acciones por comandos de voz dentro del entorno virtual de una micro red, la cual es un sistema de generación eléctrica bidireccional que permite la distribución de electricidad desde los proveedores hasta los consumidores, utilizando tecnología digital y favoreciendo la integración de las fuentes de generación de origen renovable, con el objetivo de ahorrar energía, reducir costes e incrementar la fiabilidad.



METODOLOGÍA

Para comenzar tuve que familiarizarme con la tecnología de Amazon Alexa, así que inicie un curso en línea para aprender como programar "skills", las cuales son aplicaciones que pueden abrirse desde el dispositivo Alexa. Después de un tiempo de iniciar el curso en línea comencé a presentar distintas skills que había desarrollado, para después continuar con el que sería el verdadero reto del proyecto el cual era poder crear un enlace entre Alexa y Unity3D que era donde desarrollaría el prototipo del catálogo. Investigue sobre una tecnología llamada Alexa Plus Unity3D la cual parecía prometedora para los objetivos de mi proyecto pero que para mí desgracias después de diversos intentos de hacer que funcionara me tope con que había un problema con esta tecnología el cual impedía que la skill de Alexa funcionara. Debido al problema mencionado me vi obligado a continuar trabajando en el proyecto, pero con una tecnología diferente a la de Alexa, la elegida fue la tecnología de Google Speech la cual me permitía hacer una grabación dentro de Unity3D y esta se enviaba al servidor de Google el cual en breves momentos me daba como respuesta lo que hubiera dicho en la grabación convertido a texto, a este proceso se le llama STT (Speech to Text). Gracias a esta herramienta pude continuar con la realización del catálogo de modelos controlado por voz lo que resulto en un catálogo virtual de modelos 3D (Los cuales eran objetos de la micro red) con diversas funcionalidades y acciones que se podría activar por medio de la voz, entre estas funcionalidades se encuentras la de poder seleccionar un modelo y cambiar entre ellos, rotar los modelos tanto a la izquierda como a la derecha, hacer acercamientos al objeto y a su vez también alejamientos y por ultimo puedes pedir que te despliegue un menú de ayuda el cual te indica la funcionalidad de las partes del catálogo y la lista de comandos de voz que este podía ejercer. Por ultimo y para no desaprovechar la tecnología de Alexa, propuse y desarrolle una skill que servía como apoyo a la simulación de la micro red, en lo que sería un pequeño tutorial para que el usuario pudiera explorar el entorno de la simulación de la micro red y sus funcionalidades entre ellas la del catálogo de modelos. Esta skill trabaja en paralelo con la simulación y brinda información al usuario sobre las tareas o pasos que debe realizar en este tutorial, también tiene la capacidad de brindar información sobre objetos y conceptos que forman parte de una micro red. Como tarea final tuve que hacer una conexión con una base de datos para que la mayor información posible que Alexa pudiera rescatar sobre el usuario fuera almacena para después ser descargada y analizada.


CONCLUSIONES

Este proyecto me apasiono mucho la verdad porque nunca había trabajado con nada como lo que son estas tecnologías y la experiencia de aprender cosas nuevas interesantes como estas me encanto. Pude observar a detalle y experimentar lo complicado que pueden llegar a ser las tecnologías de reconocimiento de voz, esto porque pude experimentar 2 de las más grandes herramientas que existen actualmente en esta área y la verdad que ambas tienen sus cosas buenas y malas, tuve percances con ambas, pero siento que pude llegar a dominarlas a un nivel aceptable el cual me permitió finalizar con éxito mi proyecto, no de la forma que esperaba, pero al final de cuentas bien hecho. Siento que esta área tiene mucho potencial más por el lado de Alexa, una vez que se establezca esta tecnología su potencial aumentara considerablemente, mucho más si se logra incorporar en herramientas como Unity3D que sirven para desarrollar aplicaciones de realidad virtual además de juegos y muchas más cosas. Las cosas que podríamos crear con estas dos tecnologías juntas serian estupendas para muchos de los sectores más importantes como lo son el sector energético, el de videojuegos, el de aplicaciones de realidad virtual, etc. Para concluir quisiera decir que obtuve buenos resultados en mi proyecto pudiendo crear satisfactoriamente el catálogo virtual que funciona con comandos de voz y además creando la skill que apoya la simulación de la micro red durante la parte del tutorial.
Ochoa Martinez Marisol, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Leticia Myriam Torres Guerra, Universidad Autónoma de Nuevo León

DESARROLLO DE HETEROESTRUCTURAS MULTICAPA EN PELíCULA DELGADA PARA LA PRODUCCIóN FOTOCATALíTICA Y FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR


DESARROLLO DE HETEROESTRUCTURAS MULTICAPA EN PELíCULA DELGADA PARA LA PRODUCCIóN FOTOCATALíTICA Y FOTOELECTROQUíMICA DE COMBUSTIBLES DE BASE SOLAR

Ochoa Martinez Marisol, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Leticia Myriam Torres Guerra, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Debido a los numerosos problemas ambientales y a la crisis energética actual, es necesario el desarrollo de tecnologías para la producción de combustibles limpios y sustentables. La producción de hidrógeno mediante métodos fotocatalíticos y fotoelectroquímicos es una de las alternativas más viables. Es por ello que en este trabajo se desarrollaron películas delgadas con diferentes configuraciones usando como base los materiales ZnO, Co2O3 y WO3, crecidos a través de métodos de química suave sobre sustratos de vidrio conductor (ITO).



METODOLOGÍA

Se prepararon 7 diferentes películas mediante la metodología sol-gel y utilizando el sistema de depósito spin-coater: ZnO, Co2O3, WO3, WO3-ZnO, Co2O3-ZnO, Co2O3- WO3, y Co2O3- WO3-ZnO. Las propiedades estructurales, morfológicas, ópticas y eléctricas de los materiales se estudiaron mediante las técnicas de Difracción de Rayos X (DRX), Microscopia electrónica de barrido (SEM), Espectroscopía de Ultravioleta Visible (UV-Vis) y Espectroscopia de Impedancia Electroquímica (EIS). La actividad de los materiales desarrollados se evaluó en reactores fotocatalíticos y fotoelectroquímicos para la producción de hidrógeno bajo luz visible.


CONCLUSIONES

Se logró la obtención de las fases puras de ZnO, Co2O3, WO3 en las películas monocapa y en las heteroestructuras, lo cual se corroboró mediante DRX. Los análisis morfológicos confirmaron la homogeneidad de las partículas depositadas sobre los sustratos de ITO, así también, mediante el análisis EDS se corroboró la composición de las películas. A través de UV-Vis, se determinó el band gap (energía de banda prohibida) de los materiales, y los análisis electroquímicos permitieron determinar el tipo de conductividad de los materiales (n o p), así como el flat band potential y la densidad de donadores de los materiales. Finalmente, se determinó la actividad de los materiales para la producción fotocatalítica y fotoelectroquímica de hidrógeno, obteniendo hasta 2530.2 mmol g-1h-1, donde los materiales heteroestructurados exhibieron una actividad 2.2 veces mayor comparada a los materiales preparados en monocapa. Esta actividad es competitiva comparada a diferentes películas reportadas en literatura.
Ochoa Zavala Jorge Alberto, Instituto Tecnológico de Ciudad Juárez
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

CONSTRUCCIÓN DE UN BANCO DE PRUEBAS DE TERMOGRAFÍA PULSADA PARA PRODUCTOS DESHIDRATADOS.


CONSTRUCCIÓN DE UN BANCO DE PRUEBAS DE TERMOGRAFÍA PULSADA PARA PRODUCTOS DESHIDRATADOS.

Arcos Méndez Pedro, Instituto Tecnológico Superior de Los Ríos. Ochoa Zavala Jorge Alberto, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Durante años, el control de calidad en la industria de productos deshidratados se determinó con el uso de métodos invasivos. Por ejemplo, a través de mediciones manuales con calibrador vernier, micrómetro, entre otros; la inspección se basa en la apariencia física y no en propiedades internas, además estas mediciones han demostrado ser inadecuadas debido a que el producto se encuentra en contacto directo con el instrumento de medición provocándole daño físico. La deshidratación de los alimentos es uno de los procesos más comunes para propiciar la estabilidad de los productos. La estimación adecuada del nivel de humedad en productos deshidratados previene cambios físicos no deseados provocados por la falta de control en el proceso de deshidratación. Por lo tanto, el objetivo de la estancia es la construcción de un banco de pruebas para termografía pulsada, y exportar los datos que arroje el banco de pruebas a una plataforma en línea (utilizando IoT) para ser almacenadas.



METODOLOGÍA

En el proceso de cumplir los objetivos propuestos en el protocolo, el trabajo se realizará en cuatro etapas. Etapa 1 Se contempla un estudio profundo del estado del arte sobre variables que intervienen en la deshidratación de productos alimenticios, cinética de secado, termografía pulsada y termografía pulsada aplicada en alimentos. Etapa 2 Diseñar y construir un banco de pruebas de termografía pulsada. Etapa 3 En esta etapa se implementarán un algoritmo que extraiga los datos de las imágenes y las guarde en un formato .cvs, estos archivos serán almacenados en servidores en la nube en tiempo real. Etapa 4 En esta etapa se pondrá a prueba el prototipo, se analizarán los resultados para corregirlos y al final documentar el resultado del prototipo final con los errores corregidos.


CONCLUSIONES

Durante la estancia del verano, se logró adquirir conocimientos teóricos y prácticos de la creación de un banco de pruebas de secado de hojas utilizando imágenes térmicas para analizar el comportamiento estructural interno de una hoja y así comprobar la calidad de deshidratación y medir el nivel de humedad que esta tiene, utilizando técnicas de deshidratación pulsada. Para el diseño geométrico del prototipo se debe tomar en cuenta los ángulos de apertura de la cámara, la distancia focal, y la distancia máxima de detección de cambios de temperatura, de igual manera la configuración de nuevas herramientas inteligentes basados en IoT para automatizar el funcionamiento del banco de pruebas, por ellos se estará utilizando una Raspberry Pi, esta tendrá el condigo que controlará las funciones que el sistema implementa para la recolección y procesos de datos.
Octaviano González José Manuel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Margarita Rosa Gamarra Acosta, Corporación Politécnico de la Costa Atlántica (Colombia)

CONTROL DE CONTEO PARA EL ASCENSO Y DESCENSO DE PASAJEROS EN EL TRANSPORTE PúBLICO MEDIANTE PROCESAMIENTO DE IMáGENES EN TIEMPO REAL


CONTROL DE CONTEO PARA EL ASCENSO Y DESCENSO DE PASAJEROS EN EL TRANSPORTE PúBLICO MEDIANTE PROCESAMIENTO DE IMáGENES EN TIEMPO REAL

Cardenas Caballero Cesar Jafet, Instituto Tecnológico Superior de Uruapan. Octaviano González José Manuel, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Margarita Rosa Gamarra Acosta, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El transporte público de la ciudad de Barranquilla Atlántico Colombia está conformado por diferentes propietarios y llevar un control óptimo de ingreso de pasajeros les permite a dichas empresas tener una rentabilidad estable. Con base a lo ya mencionado existe cierta incertidumbre hacia los operadores por parte de los propietarios debido a que no se comprueba con exactitud las ganancias diarias, ya que el sistema con el que actualmente cuentan estas unidades puede ser burlado con facilidad o tener errores lógicos en su operación. Por esta razón se pretende que estas actividades se ejecuten de la manera más transparente posible, tanto para los operadores como para los dueños de las unidades.



METODOLOGÍA

Se consiguió desarrollar el código de detección de personas en tiempo real a través de una webcam prestada por el departamento de sistemas computacionales de Corporación Politécnico de la Costa Atlántica. Las primeras pruebas, para la estructuración y configuración de parámetros de los algoritmos que se llevaron a cabo fueron videos tomados de YouTube, aunque los resultados eran distorsionados por el pregrabado se pudo avanzar con la investigación durante 2 semanas. Durante la 5 semana se grabó un video dentro de las instalaciones del PCA captando un pasillo donde existe mayor flujo de personas. El código consiste en detectar siluetas de personas e identificar la dirección que llevan, para ello es necesario desaparecer el fondo y todo elemento fijo, enfocándose únicamente en lo que se mueve. Otro filtro propuesto es la silueta de una persona para evitar que tome mascotas. Conociendo esto, el algoritmo se acondiciono a ese pasillo, obteniendo una confiabilidad de trabajo alta, permitiendo que su funcionamiento fuera versátil en otras aplicaciones. La binarizacion, dilatación y erosión de los frames tomados uno a uno es el proceso principal para lograr el reconocimiento de las personas de manera confiable, serializan dos procesos de binarizado, uno de dilatación y dos de erosión, la dilatación es para expandir el objeto y erosión es para lograr identificar el proceso teniendo como resultado la identificación del objeto en movimiento con los parámetros deseados. Uno de los problemas que se enfrentaron fue la detección y separación de dos personas que caminan o pasan juntas una de otra. Para resolver problema se agregó una restricción en el código, la cual consiste en tener en cuenta las dimensiones del BoundingBox: si su acho es mayor a un umbral determinado, entonces cuenta a dos personas ya que sabemos que van dos personas juntas una de otra. Sin embargo, el tiempo y la gestión no fue suficiente para poder probar este algoritmo en una unidad de transporte público de la ciudad, lo cual habría beneficiado la documentación de este proyecto. De haber sido posible las pruebas en las unidades en tiempo real, su desarrollo serio meramente de forma analítica ya que la parte de hardware aún no está contemplada en este documento, esta cuestión debido a tiempos de trabajo designados. Se pretende que este proyecto sea completado en un futuro, donde proponemos un microprocesador llamado Raspberry el cual se adapta a los requerimientos de una unidad movible, también una metodología para la toma y almacenamiento de datos. Necesariamente se propone una cámara de donde se tome la imagen directamente al microprocesador Se desarrolla una investigación sobre hardware y software, propuesto para su implementación, buscando disminuir costos desde su implementación. El procesamiento se hace a través del microprocesador en tiempo real donde el conductor pueda ir verificando el conteo correcto y en dado caso de un error se tome la hora, para posteriormente se revise con el encargado correspondiente.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos tanto teóricos como prácticos sobre el procesamiento de imágenes y ponerlos en práctica con las técnicas de análisis de video en tiempo real. Sin embargo, al ser un extenso trabajo aún se encuentra en la fase de codificación para el conteo de ascenso y descenso de pasajeros. Sólo se tiene resultados preliminares con videos ya precargados en los sistemas los cuales nos permiten verificar qué tanta acertación tiene el algoritmo diseñado durante la estancia. Así mismo se pretende desarrollar un hardware el cual permita ser instalado de forma sencilla dentro de las unidades de transporte público.
Olan Hernandez Hasshel de Jesus, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Luis Ariosto Serna Cardona, CIAF Educación Superior (Colombia)

DESARROLLO DE UNA METODOLOGíA BASADA EN TéCNICAS DE APRENDIZAJE DE MáQUINA PARA LA IDENTIFICACIóN DE LOS PERFILES DE LOS ESTUDIANTES BASADOS EN VARIABLES SOCIO ECONóMICAS Y DEMOGRáFICAS.


DESARROLLO DE UNA METODOLOGíA BASADA EN TéCNICAS DE APRENDIZAJE DE MáQUINA PARA LA IDENTIFICACIóN DE LOS PERFILES DE LOS ESTUDIANTES BASADOS EN VARIABLES SOCIO ECONóMICAS Y DEMOGRáFICAS.

Jimenez Perez Limberth, Instituto Tecnológico Superior de Los Ríos. Olan Hernandez Hasshel de Jesus, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Luis Ariosto Serna Cardona, CIAF Educación Superior (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La educación es un derecho fundamental que promueve el desarrollo social y económico de una nación, además de fortalecer a los ciudadanos en sus dimensiones personales, sociales y culturales. Es el medio por el cual un país puede alcanzar sus objetivos de desarrollo sustentable, mediante las personas que son capaces de obtener una educación de mejor calidad y así poder romper con el ciclo de la pobreza. La educación, por lo tanto, ayuda a reducir las desigualdades y alcanzar la equidad de género, también permite que las personas tengan una vida más sana y sostenible, e igualmente es crucial para fomentar la tolerancia entre las personas y contribuye a una sociedad más pacífica (Un.org. (2016)). En las últimas décadas Colombia ha sufrido múltiples procesos de transformación que han impulsado entre otros aspectos, el sistema de educación, el acceso a la educación que ha sido una prioridad, con políticas ambiciosas que buscan incrementar el número de estudiantes matriculados en todos los niveles y llevar los servicios educativos a todos los rincones del país (OECD (2016)). Sin embargo, aún queda un camino muy largo por recorrer pues la cultura educativa que se quiere implementar en el país colombiano tomara varios años en adecuarse pues el pueblo colombiano viene de una cultura de campo y narcotráfico bastante compleja, donde los ciudadanos creen que para hacer dinero no necesitan estudiar solo dedicarse al campo o irse por el mal camino de la delincuencia o narcotráfico, la llamada vida fácil (ABAD FACIOLINCE, Héctor. (1995)). Importante es que el gobierno ha estado implementando varias estrategias para generar conciencia en los jóvenes y día a día se ve como los numero de ingresos a las universidades públicas ha incrementado de una manera bastante alta comparada con años anteriores, además se puede ver como el nivel educativo va en incremento. Sin embargo, las enormes brechas de inequidad que existen en el país perjudican a los estudiantes de grupos o regiones con carencias socioeconómicas, impidiendo que el estudiante desarrolle sus actividades académicas con normalidad, aumentando así la deserción (OECD (2016)). Actualmente el ingreso a la educación superior en Colombia está determinado en gran medida por el desempeño en las pruebas saber 11, prueba que evalúa las áreas fundamentales del conocimiento como matemáticas, lectura crítica, ciencias naturales, lengua inglesa y ciencias sociales y ciudadanas, además de recoger información de tipo sociodemográfico y económica de los estudiantes de educación media (Instituto Colombiano ICFES (2018)). Estas pruebas no solo sirven como criterio de ingreso para la educación superior, adicional a esto también aportan al desarrollo de investigaciones de carácter cultural, social y educativo implementadas por el gobierno mediante las convocatorias del ICFES (Charrys Llanos, A., et al (2016)). Por tal motivo, estas variables sociales permiten un mejor acercamiento al estudiante en el ámbito educativo, permitiendo así implementar alguna medida que puedan brindar una solución a los jóvenes que representaran futuros problemas con las pruebas de estado, permitiéndole al estado una mejora en el nivel educativo de la nación. Es por esto que se han realizado diferentes investigaciones en relación a la problemática antes mencionada. Como por ejemplo el ministerio de educación, que haciendo uso del banco de datos de las pruebas saber 11°, realizan análisis estadísticos para determinar relaciones entre variables sociodemográficas y los resultados de las pruebas (Resultados de investigaciones-Icfes (2018)). De acuerdo a lo planteado anteriormente es evidente que existe un problema metodológico en relación a la determinación de las variables no académicas que influyen en los resultados de las pruebas saber 11, y siendo consecuente con el auge actual de las técnicas de aprendizaje automático en el campo educativo, se hace pertinente plantear la siguiente pregunta de investigación ¿Es posible predecir los resultados de las pruebas saber 11, mediante los patrones de desempeño obtenidos de las variables de carácter social y económico y usando técnicas de aprendizaje de máquina?.



METODOLOGÍA

Las bases de datos que se utilizaran para este proyecto son exclusivamente del ICFES, se utilizaran las bases de calendario 1 y 2 de las pruebas saber 11° del año 2018. Como se puede observar se utilizarán las bases completas para todos los departamentos. Esto, para tener un mejor entrenamiento del modelo de predicción y poder saber cuáles son los factores de desempeño que más afectan el nivel académico de los departamentos del país colombiano, y poder tener un modelo de predicción general para todo el país. Se desarrollará un módulo para el reconocimiento de perfiles de los estudiantes basado en aprendizaje no supervisado. De acuerdo al objetivo establecido, se proponen los siguientes pasos metodológicos: Organización y preprocesamiento de la base de datos Aprendizaje no supervisado Validación Redacción de informe final


CONCLUSIONES

Hoy en día la educación es muy importante pues es uno de los factores que más influye en el avance como país, así como el progreso de personas y sociedades. La educación es fundamental para alcanzar los niveles de bienestar social y así poder tener un mayor crecimiento socioeconómico, es por ello que las técnicas de machine learning junto con el aprendizaje no supervisado nos ayudara a poder predecir las pruebas del saber 11° aplicado por el ministro de educación en Colombia. Es importante resaltar que con esta herramienta se puedan obtener mejores resultados en cuento a la educación a nivel nacional y así como darles a los jóvenes una oportunidad de ingresar a una educación profesional.
Olarra Reyes Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

DESARROLLO DE GUÍAS TÉCNICO DIDÁCTICAS PARA CÓMPUTO FÍSICO (TARJETA MICRO: BIT)


DESARROLLO DE GUÍAS TÉCNICO DIDÁCTICAS PARA CÓMPUTO FÍSICO (TARJETA MICRO: BIT)

Olarra Reyes Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El impacto de las Tecnologías de la Información y la Comunicación TIC´s en el área de la educación, ha creado nuevas formas de recibir, procesar y crear conocimiento, por lo que nos vemos envueltos en una sociedad en la que la información está a la orden del día saturando de nuevos conocimientos que se están creando diariamente. Las nuevas generaciones están desarrollando nuevas competencias y valores que permitan su plena participación para enfrentar los desafíos que traen los cambios sociales, económicos, científicos, culturales y tecnológicos. Por lo tanto alumnos y docentes necesitan estar actualizados para enfrentar estos nuevos desafíos principalmente aquellos quienes buscan alcanzar un grado académico más alto, donde se amplíen y desarrollen los conocimientos para la solución de problemas profesionales, disciplinarios e interdisciplinarios, y además de adquirir los instrumentos básicos que los habiliten como investigadores en un área específica. En base lo anterior se plantea la idea de crear una guía interactiva de la placa BBC Micro: bit desarrollado en el Reino Unido con la finalidad de fomentar las TIC en jóvenes a partir de los 12 años. Esta guía tiene la finalidad de que los jóvenes interactúen con de una forma fácil llevando los a el objetivo de crear sus propios proyectos en base a lo visto.



METODOLOGÍA

 Para el desarrollo de la  guía se llevo una investigación de proyectos con los cuales los niños de educación primaria se vieran interesados en desarrollarlos en la Micro: bit como hasta crear un juego y un mini robot, empezando con prácticas  sencillas en MakeCode con las cuales tengan el conocimiento para alcanzar el objetivo de saber cómo desarrollar dichos proyectos.


CONCLUSIONES

En esta investigación indagamos la percepción sobre el uso de las TIC por parte de los estudiantes de educación  primaria, quienes utilizan las computadoras y tabletas electrónicas en el aula pueden comprender el uso de la programación en una la placa Micro: bit interesándolos más en crear sus propios proyectos e indagar más en la programación con MakeCode como Scratch. En conclusión, la programación en la Micro: bit  permite trasladar los fines educativos a la propia práctica, promoviendo aprendizajes significativos a estudiantes de educación primaria, que tienen un papel activo en la adquisición de sus propios conocimientos.  
Oliva Gonzalez Isaac, Universidad de Guanajuato
Asesor: Dr. Francisco López Villarreal, Instituto Tecnológico de Villahermosa

DESARROLLO DE INTERFACES PARA SIMULACIóN DE PROCESOS DE SEPARACIóN


DESARROLLO DE INTERFACES PARA SIMULACIóN DE PROCESOS DE SEPARACIóN

Oliva Gonzalez Isaac, Universidad de Guanajuato. Asesor: Dr. Francisco López Villarreal, Instituto Tecnológico de Villahermosa



PLANTEAMIENTO DEL PROBLEMA

El uso de las tecnologías de la información en la enseñanza de la ingeniería química, permite a los estudiantes comprender de mejor manera diversos fenómenos. Específicamente para los procesos de separación por etapas de equilibrio, se requieren grandes bases de datos de propiedades termodinámicas y los algoritmos se pueden implementar para mezclas binarias y multicomponentes. El desarrollo de interfaces para simular estos procesos de separación, hace posible que se puedan resolver de manera sencilla múltiples problemas a diversas condiciones de operación en cuestión de segundos, algo que de otra manera tomaría mucho tiempo.



METODOLOGÍA

Para la implementación de la interfaz desarrollada en este trabajo se utilizó  MATLAB ®, el aprendizaje de este lenguaje de programación se logró a través de la consulta y desarrollo de tutoriales, lecturas recomendadas y una extensa revisión bibliográfica para la programación básica en MATLAB. Por otra parte, otras habilidades desarrolladas incluyen el uso y programación de funciones repetitivas, el uso de ciclos y condicionales. Esto permitió una mayor familiaridad con el lenguaje de programación.   También se recabó información relacionada a la separación instantánea (destilación flash) que es un tipo de destilación que se lleva a cabo en una sola etapa de equilibrio; por otra parte, se hizo una búsqueda respecto a las condiciones de operación de este tipo de separadores y las implicaciones pertinentes. A diferencia de las mezclas binarias, para las mezclas multicomponente no se pueden utilizar representaciones gráficas de las propiedades termodinámicas; es por ello que se aplican diversos procedimientos numéricos para modelar dichas propiedades termodinámicas. Esto se relaciona específicamente con el equilibrio de fases ya sea de manera ideal y utilizando ecuaciones de estado, tales como la de Redlich-Kwong (RK), Soave-Redlich-Kwong (SRK) y Peng-Robinson. Las diversas ecuaciones de estado se utilizan dependiendo de las características de la mezcla a modelar y las condiciones de operación del proceso, dentro de estos cálculos se pueden incluir el cálculo de los coeficientes de fugacidad de mezcla y de especies puras. Recabada dicha información se inició con la implementación de algoritmos para la resolución de problemas de destilación instantánea isotérmica, modelando las propiedades termodinámicas de manera ideal. Para resolver dichos problemas se utiliza el algoritmo de Rachford-Rice. Principalmente para la implementación del algoritmo se creó una base de datos en Excel con diversos componentes que son utilizados principalmente en procesos petroquímicos. Los datos de estos componentes fueron tomados de la bibliografía e incluyen el nombre del componente, fórmula y diversos valores para el cálculo de propiedades termodinámicas, tales como presión de vapor, calor específico, entalpía, entre otras propiedades. Posteriormente, se crearon funciones para realizar cálculos repetitivos de manera simplificada. A este concepto se le conoce como simulación modular. Teniendo dichas funciones, el primer desarrollo consistió en un código al cual se ingresa el número de componentes y se seleccionan los mismos de acuerdo a una lista desplegada con los componentes disponibles. De esta manera se crea una matriz de propiedades termodinámicas, las cuales se ordenan dependiendo de las temperaturas de ebullición de los componentes puros a la presión del sistema. Después, se ingresan valores de fracción molar de alimentación y se normalizan. Teniendo la Presión, Temperatura y Fracción vaporizada se calculan los flujos de vapor y líquido y de igual manera sus fracciones molares correspondientes. Con estos datos se realiza el balance de energía calculando entalpias de entrada, de vapor y del líquido. Para el último cálculo se estiman las entalpias molares de vaporización y calor molar de vaporización. Teniendo como base el programa anterior, se implementó el cálculo de los coeficientes de fugacidad de mezcla en la K de equilibrio vapor-líquido, a partir de las ecuaciones de estado de Redlich-Kwong (RK) y Soave-Redlich-Kwong (SRK). Estas ecuaciones de estado se dejan en términos del factor de compresibilidad, lo cual resulta en expresiones cubicas, las cuales se pueden resolver de manera analítica utilizando el método de Cardano. A temperaturas y presiones supercríticas solamente se obtiene una raíz real positiva. Posteriormente se desarrolló el modelo de Chao-Seader, el cual ayuda a describir los coeficientes de actividad de los componentes de una mezcla en la fase líquida en términos de los parámetros de solubilidad. Finalmente se incluyeron dentro de un programa general todas las expresiones obtenidas, para que el usuario de la interface introduzca las condiciones necesarias y el programa calcule y muestre los resultados para ese sistema.


CONCLUSIONES

Se adquirieron conocimientos acerca de las formas de solución de la destilación flash isotérmico de manera ideal y no ideal, y a programar dichas soluciones para posteriormente incluirlas en el diseño de una interfaz. El objetivo del desarrollo de la interfaz es mostrar de una forma más simple, el desarrollo del proceso, generando resultados con solamente solicitar algunos valores para las condiciones con las que operará el sistema. Por otra parte, los algoritmos implementados en este proyecto pueden ser usados para solucionar problemas de termodinámica, con diversas ecuaciones de estado y poder comparar los resultados obtenidos idealmente. De igual manera se puede calcular la presión de operación óptima de una columna y el tipo de condensador. Además, los algoritmos desarrollados en este trabajo se pueden utilizar en los cálculos de métodos rigurosos para modelado de columnas de destilación multicomponente. Este programa puede mejorarse incluyendo más modelos termodinámicos para poder predecir el comportamiento de sistemas no ideales. Los desarrollos logrados en este trabajo pueden ser de gran utilidad en algunas otras disciplinas de la ingeniería química, como lo son: síntesis y optimización de procesos, control y simulación de procesos.
Olmos Alba Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

CLARIFICACIÓN DE AGUA MEDIANTE FILTROS GRANULARES


CLARIFICACIÓN DE AGUA MEDIANTE FILTROS GRANULARES

Olmos Alba Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen grandes problemas de salud, derivados de los contaminantes presentes en aguas residuales desechadas tanto por el sector industrial, como agrícola y la sociedad en general, lo que deriva a que a los ríos sufran amenazas por acciones del hombre en cuanto a la calidad y características fisicoquímicas de éste. Derivado de lo anterior,  el presente trabajo representa un estudio basado en una alternativa  de clarificación del agua, específicamente la proveniente  del Río Querétaro.



METODOLOGÍA

Como parte del proceso de experimentación, se integró un equipo de biofiltración conformado por  filtros con material granular elaborados de PVC con dimensiones de 8’’ de diámetro x 50 cm de largo, compuestos de material de tezontle y piedra pómez con diferentes granulometrías (fina con diámetros de partícula que van de 1-5 mm, mediana de 5-9 mm y gruesa de 9-15 mm), además de contener un medio vegetal de la especie Cyperus papyrus, llamada comúnmente como papiro, teniendo como fin cuantificar el porcentaje de remoción de partículas suspendidas presentes en la muestra del agua extraída en tres diferente puntos del Río Querétaro, el primero ubicado en la localidad de La Cañada en el municipio de El Marqués, el segundo en Av. Universidad cerca del campus universitario y el tercer punto en la zona denominada Las Adjuntas cerca de los límites entre los estados de Querétaro y Guanajuato. Una vez que el agua fue recolectada en diferente fecha y de los tres puntos de muestreo mencionados anteriormente, se realizó una recirculación de la misma en el equipo de biofiltración con el fin de que tanto la planta como el material pétreo se adaptaran a las condiciones del agua del Río Querétaro de tal manera que el sistema en su conjunto presentara una mejor eficiencia de retención de partículas.


CONCLUSIONES

A su vez se realizaron pruebas de pH, color, turbidez y sólidos totales con el objetivo de determinar la eficiencia que resulta en la remoción de partículas sólidas presentes en las muestras de agua utilizando combinaciones de tezontle, piedra pómez y la especie vegetal papiro dando como resultado una clarificación del agua circulada en el equipo de biofiltración de un 90%, resaltando que el filtro conformado con material de tezontle con una granulometría mediana obtuvo un mayor porcentaje de clarificación. El tezontle es un material inorgánico filtrante con una porosidad que va del 65% al 70% por lo que retiene un gran número de partículas orgánicas en el agua, debido a estas propiedades ha sido utilizado en estudios anteriores (Cardoso-Vigueros, 2003) como Vermifiltro Piloto para aguas residuales. Es por ello que se pretende estudiar mayormente las generalidades del tezontle como alternativa en el tratamiento del agua residual, en vista de que la eficiencia de este tipo de material en el equipo de biofiltracion realizado para la clarificación del agua recirculada del Río Querétaro fue acertada, sin embargo no se descarta la inclusión de estudios de laboratorio para determinar microorganismos.
Olvera Alejo Roberto Nahúm, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo

TÉCNICAS INTERFEROMÉTRICAS NO DESTRUCTIVAS APLICADAS A LA INGENIERÍA CIVIL


TÉCNICAS INTERFEROMÉTRICAS NO DESTRUCTIVAS APLICADAS A LA INGENIERÍA CIVIL

Olvera Alejo Roberto Nahúm, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En los últimos veinticinco años la disponibilidad que ha tenido de fuentes de luz coherente (láseres) y de luz blanca, ha facilitado la instrumentación de técnicas con un amplio espectro de aplicaciones, que van desde la Física misma, pasando por la Ingeniería Mecánica, y teniendo alcance en la Medicina incluso. Sin embargo, sólo en fechas recientes se ha empezado a explotar el potencial que estas técnicas pueden tener en la Ingeniería Civil, debido a la relativa facilidad que se tiene para instrumentarlas en un laboratorio. En este trabajo, se describe de manera breve y general el fenómeno óptico y los montajes implementados para la observación dos pruebas realizadas en distintos materiales.



METODOLOGÍA

PRUEBA DE INTERFEROMETRÍA ELECTRÓNICA DE MOTEADO Para la primera técnica el sistema óptico se basó en la técnica de interferometría electrónica de moteado (siglas en inglés ESPI: Electronic Speckle Pattern Interferometry) con sensibilidad fuera de plano y usando iluminación divergente. El sistema consistió en un láser de He-Ne, cuya longitud de onda es λ = 633 nm, así como una potencia máxima de 20 mW. El objeto de prueba, el cual era una lámina de aluminio fue deflexionada con un poste sostenido por una montura el cual era empujado al accionar un mecanismo en la montura al darle vueltas a un tornillo colocado en la base. Para la captura de imágenes se utilizó una cámara Basler A601f de resolución VGA de 640 x 480 pixeles la cual fue diseñada específicamente para aplicaciones de visión artificial. El programa utilizado para la captura de las imágenes fue el CamUniversal, Una vez tomadas las imágenes se hizo su procesamiento digital en el software Matlab versión R2017a en un equipo de cómputo HP Intel Core 2 vPro Inside de 3 GB de RAM haciéndose el procedimiento que a continuación se describe: Se tomaron tres imágenes en donde la probeta estaba siendo sometida a un esfuerzo mecánico distinto.  Para su procesamiento se manipularon las imágenes en escala de grises que va de [0, 255] usualmente. Posteriormente se hicieron sustracciones aritméticas entre las imágenes tomadas. Con los resultados de las sustracciones hechas con las imágenes tomadas con aplicación de distintos esfuerzos se hicieron transformadas de Fourier.  PRUEBA DE FOTOELASTICIDAD DESCRIPCIÓN DEL ARREGLO EXPERIMENTAL Para este caso, la instrumentación del arreglo experimental fue más sencilla, se basó en realizar una prueba mecánica de compresión sobre una placa de acrílico y capturar una imagen de fotoelasticidad con ayuda de un polariscopio circular.  Con el montaje anteriormente mencionado se capturaron las imágenes en formato JPG que se procesaron en Matlab en un computador portátil HP con procesador Intel Core i3 Inside y 8 GB de memoria RAM y así ver la distribución de la intensidad de la luz en los pixeles. El procedimiento hecho es el que se describe a continuación: Se tomaron tres imágenes en donde se ejerció un esfuerzo mecánico distinto.  Las imágenes capturadas fueron convertidas en escala de grises. A continuación, se hicieron sustracciones aritméticas entre las imágenes. Teniendo las imágenes hechas a partir de los resultados de las sustracciones con aplicación de distintos esfuerzos se determinan las transformadas de Fourier.


CONCLUSIONES

El arreglo óptico basado en la técnica de interferometría electrónica de moteado de una muestra de aluminio utilizando un láser como fuente de luz coherente y su procesamiento de patrón de franjas digitales es completamente funcional y además versátil, pues todo el arreglo permite el ajuste y diseño de la dirección, trayectoria, resolución e intensidad del patrón de franjas que será proyectado permitiendo el alcance que tiene esta prueba experimental de tal magnitud que con el patrón de franjas se puede llegar a detectar fracturas en materiales que a simple vista pueden pasarse por desapercibidas. En el caso del arreglo óptico y mecánico de la prueba de fotoelasticidad se tuvo un procedimiento muy visual, cuya instrumentación es muy sencilla de montar teniendo una herramienta confiable cuando se trata del análisis de distribución de esfuerzos, lo que podría convertirlo en uno de los mejores métodos cuando se tenga necesidad de analizar materiales con cuerpos geométricos complejos y permite también, entre otras cosas, observar que las tensiones en los componentes se pueden determinar con ayuda de la medición de la longitud, ya que la longitud del material está directamente relacionada con la tensión del mismo, se pudo observar también que así como la prueba de fotoelasticidad es aplicable con estudios de compresión y flexión también lo es con estudios de tracción.
Olvera Ambriz Eduardo, Instituto Tecnológico de Tepic
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

MóDULO EN MATLAB PARA EL DIMENSIONAMIENTO DE PLANTAS DE TRATAMIENTO DE AGUAS RESIDUALES.


MóDULO EN MATLAB PARA EL DIMENSIONAMIENTO DE PLANTAS DE TRATAMIENTO DE AGUAS RESIDUALES.

Olvera Ambriz Eduardo, Instituto Tecnológico de Tepic. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las plantas de tratamiento de aguas residuales (PTAR) en la actualidad son estructuras fundamentales para la optimización del agua y aprovechamiento de la misma, es por ello la importancia de que el diseño de éstas esté elaborado de manera correcta. Hoy en día las PTAR en el ámbito municipal juegan un papel importante. Muchas de las veces el diseño de este tipo de sistemas se ve afectado por la ignorancia de quienes gestionan este tipo de construcciones, acompañado de las personas que ocupan cargos públicos, y tienen como objetivo implementar este tipo de sistemas de gran impacto para el aprovechamiento de este recurso tan importante para la humanidad. Para el dimensionamiento de las PTAR se ocupa personal que esté capacitado y tenga conocimiento técnico sobre el tema, muchas de las PTAR que se diseñan hoy en día no tienen las características necesarias para que estas sean eficientes, es por ello que se requiere una herramienta que ayude a dimensionar una planta de tratamiento de aguas residuales en el ámbito municipal. Ante las necesidades antes mencionadas se utilizará MatLab para elaborar un pequeño software que esté programado para el cálculo del dimensionamiento de una PTAR, con el objetivo de que este sistema automatizado proporcione de manera sencilla los dimensionamientos de una PTAR.



METODOLOGÍA

Primeramente, se elaboró un acopio de información acerca de plantas de tratamiento de aguas residuales, se definieron las bibliografías y se definió como iba a estar constituida la PTAR, se concluyó que estaría compuesta de las siguientes estructuras: pretratamiento, reactor biológico, clarificador, tanque de cloración y digestor. Conforme se avanzaba con el análisis de cada estructura se iban estudiando conceptos y definiciones de las variables que intervienen para el diseño de una PTAR, todo este trabajo se elaboro en excel, esto para procesar y analizar los datos. Para comprender mejor el sistema, se realizaron esquemas (dibujos) que representaban cada componente de la PTAR, ya obtenida y procesada la información del diseño y dimensionamiento de la planta se procedió a el diseño de los módulos elaborados en interfaces de MatLab.


CONCLUSIONES

En la actualidad el uso de la tecnología es fundamental para cualquier actividad, en plantas de tratamiento de aguas residuales no es la excepción. En conclusión, el programa compuesto por cinco módulos da la facilidad y seguridad de poder desarrollar de manera eficiente un sistema de tratamiento de aguas residuales. El programa también da la posibilidad de poder verificar y constatar la eficiencia de las estructuras que componen la PTAR y así, poder corregir problemas de operación que se presenten en la planta.
Olvera Escamilla Josué Adrián, Instituto Tecnológico de Pachuca
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

TRATAMIENTOS TÉRMICOS PARA LA MODIFICACIÓN DE LAS PROPIEDADES MECÁNICAS DE UN AISI 8620


TRATAMIENTOS TÉRMICOS PARA LA MODIFICACIÓN DE LAS PROPIEDADES MECÁNICAS DE UN AISI 8620

Olvera Escamilla Josué Adrián, Instituto Tecnológico de Pachuca. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

  Se busca modificar las propiedades mecánicas de un acero grado maquinaria AISI8620 aplicando diferentes tratamientos térmicos, como lo son un Recocido Globulizado, Temple, Bonificado, Normalizado y Relevado de esfuerzos, así mismo la aplicación de una soldadura, seguida de un tratamiento térmicos de normalizado.Se pretende llegar a un cambio sustancial en dureza y microestructura, analizando las nuevas propiedades y sus distintas aplicaciones para el material en esa condición.



METODOLOGÍA

  SLECCIÓN Y CORTE DE PROBETAS  Primeramente se proporciona material para el corte de este mismo, en donde el material de suministro constaba de un diámetro de 5/8in por 1cm de espesor, se realizaron 6 cortes. DESBASTE GRUESO Y PULIDO FINO Para realizar el desbaste grueso y pulido fino, es importante aclarar que se hizo en dos direcciones en la misma muestra:Transversalmente y Longitudinalmente Para el caso del desbaste, lo realizamos con lijas del número 80 hasta 1500, posteriormente se llevó al paño para realizar el pulido, para realizar esto último se tuvo que preparar alúmina, la cual fue hecha con 100ml de agua con 10 gramos de alúmina calcinada disueltos en el agua. ATAQUE QUÍMICO Para estar en ésta etapa se tuvo que haber observado en el microscopio que la pieza ya no presentara ningún tipo de mancha o raya, de ser así el ataque se tiene que realizar de la siguiente manera: ATAQUE REALIZADO CON ÁCIDO NÍTRICO DISUELTO AL 3% EN 100ml DE ALCOHOL LA DURACIÓN DE LA INMERSIÓN DE LA PIEZA EN EL PREPARADO FUE DE 5 SEGUNDOS METALOGRFÍA EN CONDICIÓN DE SUMINISTRO (TRANSVERSAL) Se hicieron las siguientes observaciones: Obtención de granos amorfos a primera vista Fase de ferrita en su gran mayoría Aparente presencia de Perlita o Martensita (color paja). Microetructura con una dureza relativamente baja pues predomina la ferrita como matriz. (LONGITUDINAL) Se observó el alargamiento de los granos para las dos mircorestructuras presentes. Esto puede indicar que el material es procedente de un  proceso de laminación ANÁLISIS DE DUREZAS AISI 8620 Se escogió hacer el análisis en HRA pues daba una fuerza relativamente media,  La medicón fue realizada en un durómetro. PROMEDIO 61HRA DISEÑO DE RECOCIDO-GLOBULIZADO  Se subió a una temperatura de 850°C Tiempo de permanencia:22min. Se enfrió dentro del horno  DISEÑO DEL TEMPLE Se subió a una temératura de 870°C Tiempo de permanencia: 24min Se enfrió por inmersión en aceite DISEÑO DE NORMALIZADO Se subió a una temperatura de 870°C Tiempo de permanencia de:22min Se enfrió fuera del horno al aire calmado DISEÑO DE BONIFICADO El temple fue realizado de la misma manera indicada anteriormente  En el caso del revwnido se subió a una temperatura de 525°C Tiempo de permanencia:38min Se enfrió dentro del honro DISEÑO RELEVADO DE ESFUERZOS Se subió a 300°C Tiempo de permanencia; 38min Enfriamiento fuera o dentra del horno REALIZACIÓN DE LOS PRIMEROS 3 T.T  Se realizó el recocido globulizado, temple y bonificado de acuerdo a lo establecido en el diseño de los tratamiento térmicos, tomando en cuenta la instrumentación hecha de los hornos para validar que la temperatura dentro del horno es la que estamos buscando. SOLDADURA DE ACERO AISI8620 Se realizará un cordón de cada una de las dos muestras faltantes, para posteriormente llecarlas a los tratamientos térmicos correspondientes (normalizado, relevado de esfuerzo). CARACTERIZACIÓN METALOGRÁFICA EN CONDICIÓN DE TRATAMIENTO. Cada una de las 5 probetas tratadas térmicamente fueron llevadas a un desbaste y pulido fino, atacadas quimicamente, dejándolas así listas para un análisis metalográfico y observar los cambios microestructurales en cada una de ellas. PERFILES DE DUREZA Hecha ya la metalografía de cada una de las muestras, se llevaron a la realización de pruebas de duereza, observando con que tratamiento térmico subió y con cual bajó, y si va de acuerdo a la microestructura observada metalograficamente.


CONCLUSIONES

RESULTADOS  Con el análisis en la muestra en condición de suministro se observó la presencia de una microetructura ferritica con inclusiones de perlita laminar. Hecho en análisis metalográfico longitudinalobservamos que la pieza era procedente de un proceso de laminación, pues los granos se observaban alargados. El materal fue muy fácil de atacar químicamente. Se logró la modificación de la microestructura ferritica al realizar el recocido, obtuvimos mayor ductilidad pues nuestra dureza bajó de un 61HRA a 50HRA, los granos aquí disminuyeron su tamaño, la ferrita ya no era tan predominante. Se logró la modificación de la microestructura ferritica al realizar el temple, obtuvimos mayor dureza pues nuestra medición subió de un 61HRA a 69HRA, lo que hizo empate con la microestructura observada metalográficamente, pues el cambio fue a una microestructura martensitica. Se logró la modificación de la microestructura ferritica a una más dura con el bonificado, posiblemente austenita retenida en posible transformación a martensita, nuestra dureza aumentó de 61HRA a 63HRA. Con el normalizado y el relevado de esfuerzos logramos homogenizar la microestructura en toda la pieza, pues al ser hechos los cordones de soladura, se afectó microestructrualmente por el aumento de la temperatura tan descontrolado asó mismo como con su enfriamiento, por eso la razón de realizar un relevado y normalizado. CONCLUSIONES Los tratamientos térmicos al ser un proceso témico controlado, permite buscar y obtener propiedades, aplicaciones, usos y microestructuras específicas o exactas, es decir, el potencial de utilidad de un material no está generalizado para un solo trabajo.Un tratamiento térmico permite hacer reajustes microestructurales en un material ue sufrió daños térmicos en procesos anteriores como lo puede ser la soldadura, es decir, con un control estricto de nuestras variales temperatura y tiempo, encontramos un sin fin de propiedades y aplicaciones para un solo material, lo que nos abre un mundo de posibilidades en diferentes trabajos.
Olvera Flores Bryan Alberto, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.


PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.

Hernández Beltrán Javier Enrique, Instituto Politécnico Nacional. Olvera Flores Bryan Alberto, Instituto Politécnico Nacional. Rosas Gómez Catherine, Instituto Politécnico Nacional. Vargas Orozco Christian Salvador, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro de la ciudad de México se suele contar con un problema referente a la vialidad, esto es de gran notoriedad al visitarla ya que, a pesar de no contar con un espacio geográfico tan grande, la cantidad de vehículos que circulan por las calles es muy alta. Por esto mismo, suele ser algo común que se lleguen a presentar diversos accidentes viales. Gran parte de estos accidentes pueden a llegar a generar cambios o concentraciones de ciertos agentes contaminantes en el medio ambiente de la zona en la que se encuentren, por lo que, resulta interesante la revisión de los datos que se muestren de la recolección de dicha información ambiental. Con esta información, podríamos llegar a ser capaces de encontrar un patrón en cuanto a las zonas y fechas que nos podrían ayudar a predecir en qué fechas, días y zonas aproximadas se pueden llegar a presentar más accidentes viales. Asimismo, con la ayuda del patrón encontrado, se podría encontrar una relación entre la cantidad de accidentes viales que se registran los días en los que hay un mayor índice de precipitación pluvial y, de este modo, predecir con mayor exactitud los accidentes viales que podrían generarse y tomar medidas para prevenirlo como tomar rutas alternas y así evitar el tráfico. 



METODOLOGÍA

Tras dar por terminada la introducción teórica a los conceptos básicos de ciencia de datos y machine learning, hemos realizado diferentes ejercicios prácticos en los que hemos analizado el funcionamiento de diferentes algoritmos de clasificación o predicción. Al finalizar estos ejercicios prácticos se nos dio a elegir el tema de enfoque de nuestro proyecto final dentro del programa delfín.  En colaboración con tres compañeros más del programa, hemos seleccionado como nuestro proyecto final el siguiente tema; Predictor de precipitación pluvial e incidentes viales el cual tiene como objetivo, demostrar que es posible realizar predicciones con un alto rango de exactitud acerca de los días y zonas donde lloverá dentro de la Ciudad de México, así como determinar si existe una correlación entre el fenómeno natural de la lluvia y la incidencia de accidentes viales dentro de la Ciudad de México y de ser así, modelar dicha correlación.  El proyecto da inicio en nuestras manos desde un punto en el que ya contamos con dos conjuntos de datos no procesados, una de registros oficiales de accidentes viales y la otra acerca de registros, también oficiales, de las precipitaciones pluviales, ambas bases delimitadas a registros en la Ciudad de México.  El primer paso del proyecto, consistirá en la manipulación de los conjuntos de datos a modo de poder modificar estos hasta tenerlos en un formato en el que sea posible leerlos con cualquier software para su manipulación. Este paso resulta necesario ya que, al no estar procesados, estos no se encuentran generadas correctamente y esta construcción, que cuenta con algunos errores, afectan su accesibilidad.  Posterior al proceso de limpieza de los conjuntos de datos, se procederá a seleccionar para cada uno de estos, las columnas de datos que se utilizarán para la predicción de eventos.  Después de esto, estos datos serán separados en dos grupos, siendo uno el utilizado para entrenar los algoritmos de predicción y el segundo, para hacer pruebas sobre la efectividad de dichos algoritmos.  Tras analizar los resultados de ambas predicciones, buscaremos las columnas de datos (enfocándonos especialmente en la zona y fecha) que nos permitan unir ambos conjuntos de datos en uno solo a fin de localizar de esta manera la posible existencia de una correlación entre ambos fenómenos de estudio, los accidentes viales y las lluvias.  Una vez concluido este proceso, se procede a, finalmente, trabajar con el producto que se recibe del análisis y procesos de Machine learning, se puede empezar a utilizar herramientas que nos permitan ilustrar dichos datos logrando de esta forma, que sea mucho más fácil la interpretación de los resultados que hemos encontrado. 


CONCLUSIONES

A lo largo de la estancia de verano, se adquirieron conocimientos de las 3 etapas con las que cuenta un proyecto de Data Science, que son la minería y limpieza de datos (etapa relevante y sumamente laboriosa), aplicación de los diferentes algoritmos de Machine Learning (siendo esta con mayor peso, con el fin de saber su funcionamiento para identificar en qué circunstancias aplicarlos), y finalmente se obtiene la interfaz, con la que el usuario podrá interactuar. En las 3, se obtuvieron conocimientos teóricos que se aplicaron en el proyecto final.  Por parte del proyecto, fue algo interesante de trabajar debido a las diversas formas en que podíamos dar pie al procedimiento, sin embargo, teníamos que ir poco a poco para saber hasta qué punto podríamos llegar en este corto tiempo. Finalmente, tuvimos que detenernos en un punto medio, debido a que, por los datos que se proporcionaban en una de nuestras muestras, no podríamos realizar las correspondientes predicciones ya que no contábamos con la información suficiente, además de que hacer transformaciones de otros tipos de datos a numérico (el cual necesitábamos) llegaría a ser mucho más tardado y complicado de realizar. 
Olvera Hernández Juan de Dios, Instituto Tecnológico de Pachuca
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

MONITOREO DE CALOR ÚTIL ENTREGADO POR UN DISPOSITIVO CALENTADOR DE AIRE A BASE DE ENERGÍA SOLAR


MONITOREO DE CALOR ÚTIL ENTREGADO POR UN DISPOSITIVO CALENTADOR DE AIRE A BASE DE ENERGÍA SOLAR

Mendoza Loza Luis Clemente, Universidad Autónoma de Guerrero. Olvera Hernández Juan de Dios, Instituto Tecnológico de Pachuca. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La energía que se utiliza para la realización de tareas normalmente proviene de fuentes energéticas no renovables como gas, combustibles fósiles y carbón. Las emisiones que generan estos equipos contribuyen al deterioro del medio ambiente. La disminución del uso de estos combustibles es de alta prioridad para la humanidad. La energía solar es una energía limpia y prácticamente ilimitada ya que cada segundo el sol envía cantidades inmensas de radiación al espacio, permitiendo que sean captadas por el planeta y al no tener contaminantes consecuentes puede ser aprovechada en su totalidad. Es por eso que el propósito de este proyecto fue aprovechar la radiación solar que el municipio de Hermosillo, Sonora recibe para generar calor y utilizarlo para satisfacer las necesidades térmicas de un baño sauna.



METODOLOGÍA

El estudio realizado fue de tipo cuantitativo experimental y se dividió en cuatro etapas: En la primera etapa, fue necesario hacer un análisis teórico para determinar la cantidad de calor necesario para satisfacer los requerimientos térmicos del cuarto sauna. En la segunda etapa se realizó la fase de experimentación con la finalidad de medir el calor entregado a una habitación a escala que simula un baño sauna.  En la tercera etapa se analizaron los datos obtenidos por la fase experimental y se compararon con los datos obtenidos en la fase teórica de este estudio.  Por último, se obtuvo información cualitativa y cuantitativa acerca de las características termodinámicas del calentador solar y su adecuación con las demandas de calor de la industria nacional.


CONCLUSIONES

Una vez recopilada toda la información que arrojaron los sensores del dispositivo autosustentable a lo largo de las semanas de trabajo e igualmente de revisarla y compararla con la información que se obtuvo de un sistema de calefacción convencional de un baño sauna se ha llegado a la conclusión de que se puede obtener beneficios de este sistema si se utiliza en conjunto con un dispositivo convencional de generación de calor. Las principales razones son: Las pruebas demostraron que se mejora el rendimiento cuando funciona el sistema hibrido. Depender de un sistema autosustentable eleva bastante el costo de fabricación.
Ontiveros Hernández Miriam Vianey, Instituto Tecnológico de Tepic
Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro

CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO


CLARIFICACIÓN DE AGUA A TRAVÉS DE FILTROS GRANULARES EN COMBINACIÓN CON PAPIRO, ESTUDIO DE CASO DEL RÍO QUERÉTARO

Garcia Bailon Edward Clemente, Instituto Tecnológico de Tepic. Ontiveros Hernández Miriam Vianey, Instituto Tecnológico de Tepic. Asesor: Dr. Israel Ruiz Gonzalez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

La contaminación del agua es un problema de gran envergadura que con el paso del tiempo ha ido incrementando. Actualmente los estudios realizados a ríos en diferentes zonas del mundo dejan entrever que las principales razones que provocan la contaminación de éstos son agentes químicos, urbanos e industriales así como material sólido (disuelto o en suspensión) generado por acción del hombre, que afectan negativamente los procesos naturales de respiración y fotosíntesis de todo organismo que los habitan, ocasionando su muerte prematura. En el caso del río Querétaro se ha detectado un aumento significativo de desechos, esto como consecuencia de acuerdos establecidos entre empresas y organismos gubernamentales que les permiten depositarlos en el río, para posteriormente en plantas de tratamiento reducir sus índices de contaminación. El mal estado del río es tan grande, que para poder recuperarlo se necesita un alto costo de inversión. Los estudios que se realizan al río no determinan un método para disminuir los efectos provocados por la contaminación, por tal motivo es necesario proponer un sistema capaz de clarificar el agua del rio con material disponible en la región a un costo accesible.



METODOLOGÍA

El objetivo primordial es establecer y comparar diferentes sistemas de biofiltración que permitan clarificar muestras de agua obtenidas del Río Querétaro con ayuda de materiales pétreos y la presencia de Papiro (Cyperus papyrus), que en conjunto reducirán los índices de contaminación de las muestras. Para llevar a cabo el proyecto, se decidió muestrear 3 puntos específicos del río Querétaro: aguas arriba (La cañada localidad de El Marqués), aguas abajo (Las Adjuntas, cerca de los límites entre Querétaro y Guanajuato) y un punto intermedio dentro de la ciudad de Santiago de Querétaro (Avenida universidad, cerca de la UAQ C.U.); a fin de establecer condiciones iniciales (muestras de control). Las muestras obtenidas en cada uno de los puntos, se depositan en un prototipo de biofiltración que previamente se armó para el tratamiento de aguas; el cual consta de columnas horizontales con presencia de materiales como tezontle y piedra pómez de diferentes granulometrías; así como Papiro (Cyperus papyrus) con el fin de cuantificar y aumentar la remoción de partículas suspendidas presentes en el agua muestreada por medio de la filtración. La filtración (proceso desarrollado en los prototipos de columnas horizontales) no es el único método utilizado para el proceso de clarificación de las muestras obtenidas de diferentes puntos del río, se pueden utilizar otros como lo son la floculación (proceso cuyo principal componen es el yeso en cantidades especificas), la oxidación (mismo proceso que la floculación solo que aquí el componente principal es el agua oxigenada) y la combinación de ambas, buscando obtener resultados óptimos utilizando la cantidad mínima de material. Para establecer conclusiones es necesario tener parámetros a evaluar, los cuales se obtendrán de los resultados arrojados de las pruebas de pH, turbidez y solidos totales aplicadas a las muestras, ya sea de entrada (control) y a las que ya se les ha aplicado el método de clarificación.


CONCLUSIONES

Una vez comparados los resultados obtenidos de las pruebas realizadas, se determinó que con las muestras clarificadas se obtuvieron mejores índices de pH, turbidez y sólidos totales que con las muestras de control; aun así, estos índices no cumplen con lo establecido en la norma NOM-127-SSAI-1994, por lo que se seguirán realizando pruebas para encontrar una solución eficaz y eficiente al proceso de clarificación.
Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Ordaz López Judith Montserrat, Universidad de Guadalajara
Asesor: Dr. Ignacio Enrique Zaldivar Huerta, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ESTUDIO DE SISTEMAS ELETRO-óPTICOS PARA LA GENERACIóN DE SEñALES DE MICROONDAS.


ESTUDIO DE SISTEMAS ELETRO-óPTICOS PARA LA GENERACIóN DE SEñALES DE MICROONDAS.

Ordaz López Judith Montserrat, Universidad de Guadalajara. Asesor: Dr. Ignacio Enrique Zaldivar Huerta, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Realizar un sistema que genere señales de microondas, utilizando componentes electro-ópticos, para asi obtener y utilizar los beneficios que provee la fotónica de microondas a los sistemas de comunicación. 



METODOLOGÍA

Por medio del sistema de heterodinaje óptico y por lo tanto utilizando dos fuentes de luz de diferentes frecuencias, buscamos obtener una salida que llegue al rango de los gigahertz, la que observaremos en un analizador de espectros eléctricos conectado a una de las salidas de nuestro acoplador. El resultado de esta primera etapa se utilizará como la señal de entrada en un Mach Zehnder, correspondiente a otro sistema, el cual funcionará como un multiplicador de frecuencias, logrando asi obtener una salida duplicada.


CONCLUSIONES

En simulación, obtuvimos el resultado de la primera etapa como se había previsto; para la segunda, fue necesario añadir amplificadores y filtros con la finalidad de que los armonicos generados no interfirieran con la señal que esperabamos obtener a la salida y que esta tuviera la potencia suficiente para ser considerada.  En físico, esperamos lograr resultados, si no iguales, similares a lo que tenemos en la simulación para así comprobar el funcionamiento del sistema.
Orduño Rodríguez Alejandra, Instituto Tecnológico de Los Mochis
Asesor: Dr. Mario Miki Yoshida, Centro de Investigación en Materiales Avanzados (CONACYT)

SíNTESIS Y CARACTERIZACIóN MICROESTRUCTURAL DE RECUBRIMIENTOS EN BASE A DIóXIDO DE TI NANOESTRUCTURADO COMO POSIBLES ELECTRODOS PARA LA GENERACIóN DE HIDRóGENO


SíNTESIS Y CARACTERIZACIóN MICROESTRUCTURAL DE RECUBRIMIENTOS EN BASE A DIóXIDO DE TI NANOESTRUCTURADO COMO POSIBLES ELECTRODOS PARA LA GENERACIóN DE HIDRóGENO

Orduño Rodríguez Alejandra, Instituto Tecnológico de Los Mochis. Asesor: Dr. Mario Miki Yoshida, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La necesidad de mayores fuentes de energía, así como problemas ambientales derivados del uso indiscriminado de combustibles fósiles nos ha llevado a explorar otras fuentes renovables y sustentables. En ese contexto se espera que el hidrógeno se convierta en un futuro cercano en la fuente ideal de uso generalizado. Para ese fin, la generación fotocatalítica o fotoelectroquímica de hidrógeno utilizando un electrodo semiconductor es una alternativa viable. El dióxido de Titanio es el material más utilizado y estudiado para aplicaciones fotocatalíticas desde el descubrimiento de Fujishima y Honda de la producción fotoelectroquímica de hidrógeno utilizando un electrodo de dióxido de Ti. Sin embargo, en la actualidad la mayor parte de los trabajos científicos y tecnológicos se centran en su uso para la remediación ambiental y pocos en la producción de hidrógeno. Considerando variantes nanoestructuradas es una alternativa tecnológicamente viable y un área de oportunidad desde el punto de vista científico para desarrollar nuevas opciones en la generación de hidrógeno y a su vez entender los mecanismos físico-químicos que involucra. Los óxidos nanoestructurados pueden obtenerse por una gran variedad de técnicas, sin embargo, por su sencillez destaca la de depósito químico de vapor asistido por aerosol. Es una técnica económica, sencilla que no requiere de infraestructura costosa para su implementación, que permite obtener óxidos y metales nobles nanoestructurados con varias ventajas: Composición controlable. Buena adherencia del material depositado, Espesor uniforme y controlable en un amplio intervalo.  Facilidad para la obtención de materiales dopados, compuestos o multicapas. Puede aplicarse para depositar recubrimientos en substratos planos o al interior o exterior de tubos. Materiales de calidad puesto que sus propiedades son comparables a las de los materiales depositados por otras técnicas más sofisticadas. Es una técnica fácilmente escalable para depositar recubrimientos de gran superficie. Posteriormente a el proceso de síntesis, la caracterización microestructural y determinación de las propiedades de los materiales juega un papel decisivo en la interrelación entre las condiciones de síntesis, las propiedades y desempeño del sistema. Nos permite precisar si la síntesis y el procesamiento de nuestros materiales dan como resultado uno que presenta las características requeridas para obtener las propiedades o el comportamiento deseado del sistema. Para la caracterización microestructural las técnicas de microscopía electrónica y difracción de rayos x son fundamentales para definir las particularidades de los recubrimientos en cuanto a su composición elemental, fases presentes, estructura a nivel atómico (cristalina o amorfa), morfología superficial, etc. Por otro lado, la determinación de las propiedades ópticas de los materiales a utilizarse como posibles electrodos servirá para cuantificar la magnitud y el intervalo espectral de la absorción luminosa del recubrimiento, siendo deseable que se pueda aprovechar el espectro de la radiación solar. Por ello la determinación del ancho de la banda de energías prohibidas es primordial.



METODOLOGÍA

Preparación de la solución precursora. Para la síntesis de TiO2 y llevar a cabo el dopaje se prepararon soluciones con oxiacetilacetonato de Ti y sales metálicas a diferentes concentraciones, utilizando metanol como disolvente. Sustrato a utilizar La elección del substrato se basa en el hecho de que es importante minimizar la resistencia eléctrica y asegurar un buen contacto óhmico entre éste y las películas depositadas. En este caso las películas se depositarán en sustratos de vidrio con dimensiones de 2.5 x 2.5cm. Depósito por AACVD La solución precursora fue incorporada al sistema, donde procedió a su nebulización en finas gotas de aerosol de escala micrométrica, las cuales se distribuyen a través de un medio gaseoso, dicha atomización se llevó a cabo utilizando un generador de aerosol ultrasónico y aire comprimido como gas portador. Después de la atomización, el aerosol precursor es transportado a la zona de reacción la cual ha sido calentada previamente, en esta zona tienen lugar la evaporación del solvente y la vaporización del precursor, antes de las reacciones principales. Análisis Microestructural Propiedades Ópticas La determinación de las propiedades ópticas de los materiales se llevó a cabo mediante espectroscopía UV-Vis-NIR. Se utilizó Tfcalc como software de diseño de películas delgadas para la determinación de las constantes ópticas (n y k) y la energía de la banda prohibida óptica, usando relaciones de dispersión de Sellmeier y el método de Tauc, respectivamente. Para el análisis cualitativo y cuantitativo de la composición elemental de la superficie analizada.se utilizaron técnicas de Microscopía electrónica de barrido (MEB) y espectroscopía de discriminación de energía de rayos X (EDS).


CONCLUSIONES

Se determinaron exitosamente las condiciones óptimas para el depósito de recubrimientos delgados de dióxido de Titanio dopado con Cobalto, Cromo y Hierro sobre sustratos de vidrio borosilicato por el método de depósito químico de vapor asistido por aerosol. Con ello, se obtuvieron películas de la escala de 80-350 nm en las cuales se redujo exitosamente la banda prohibida en referencia a las de TiO2 en fase anatasa. Actualmente el mayor reto en el desarrollo de celdas eficientes para producción de hidrógeno, se basa en encontrar materiales económicos que cumplan con los requerimientos de un fotoelectrodo ideal. Por ello, se procederá a la optimización de estas características y a experimentación con otros metales de transición, así como con materiales compuestos y co-catalizadores de nanopartículas metálicas para cumplirlos.
Organis Rebolledo Emmanuel, Universidad Autónoma de Guerrero
Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla

TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.


TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.

Aguirre Franco Luisa Fernanda, Universidad de Sonora. Organis Rebolledo Emmanuel, Universidad Autónoma de Guerrero. Vega Ortiz Rocio Esmeralda, Instituto Tecnológico de Reynosa. Venzor Nava Enya, Universidad de Sonora. Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los hornos que se utilizan en la comunidad de San Diego Cuachayotla para la producción de ladrillo artesanal son abiertos. La elaboración de estos materiales cerámicos involucra procesos artesanales de fabricación tales como la extracción manual de arcillas y la cocción ineficiente, tampoco hay una selección de materiales y el control de calidad es prácticamente nulo. El principal producto que se fabrica es el ladrillo macizo de arcilla cocida. Desde el punto de vista socioeconómico muchas de estas unidades de producción están conformadas por familias que ven esta actividad como el único medio de sustento y laboran en condiciones de trabajo mínimas, donde los servicios básicos son insuficientes y de baja calidad. El sistema de trabajo es familiar y la contratación de operarios es a ‘destajo’, es decir, sin una vinculación laboral permanente ya que se hace de acuerdo con los requerimientos que marca la demanda del producto y al trabajador se le paga por actividad y/o cantidad de producción realizada. Las principales afectaciones al medio ambiente que se generan en este tipo de unidades productivas tienen relación con la extracción no apropiada de las arcillas, ocasionando taludes inestables y desorden en las explotaciones, lo que se refleja en la presencia de áreas extensas sujetas a erosión laminar, en surcos y cárcavas. Como efecto del bajo rendimiento térmico de los hornos se produce contaminación atmosférica por emisión de CO, CO2, azufre, nitrosos y partículas en suspensión, como lo es el carbono negro. El carbono negro (hollín) es considerado un problema para la salud humana ya que ocasiona a corto o largo plazos, enfermedades respiratorias, cardiovasculares, daños en la piel, entre otras.



METODOLOGÍA

Se llevó a cabo investigación documental, esto con el fin de recopilar la información necesaria para diseñar y realizar los talleres donde se presentaron a la comunidad de ladrilleros alternativas para mejorar su calidad de vida y producción de ladrillo. Una vez procesada la información documental, se llevaron a cabo entrevistas con las autoridades municipales de San Pedro Cholula, entre ellas la Regidora de Hacienda, la Secretaria del Medio Ambiente y un maestro expresidente de la Junta Auxiliar de San Diego Cuachayotla, quienes aprobaron la propuesta. Se mencionó que primeramente había que realizar un taller introductorio donde se hablara acerca de las condiciones en las que se vive y de las acciones inmediatas que pueden mejorar su calidad de vida, específicamente la calidad del aire. Es así como se preparó el primer taller: “El aire que respiras”. Tomando como prioridad la calidad de vida de la junta auxiliar, se les presentaron las afectaciones y repercusiones que se derivan del hecho de respirar el humo negro de sus hornos, en su salud en la de su familia y en su entorno. Enfermedades respiratorias, enfermedades cardiovasculares, impacto ambiental negativo y calentamiento global, crisis ambiental, gases contaminantes, hollín, entre otros, fueron algunas de las problemáticas expuestas a los integrantes de la comunidad. Se presentaron propuestas tanto para mejorar la calidad del aire que respiran directamente, como para el ordenamiento del espacio separando las áreas de trabajo de la vivienda con la intención de un mejor aprovechamiento del terreno y mayor funcionalidad de este. Producto del primer taller, una vez terminada la presentación, se hizo una invitación para unirse al proyecto de manera voluntaria. Solo un productor se interesó por lo que se realizó el levantamiento de su predio para situar el horno y destinar áreas de trabajo, se situaron las barreras vegetales que ayudarán a mejorar la calidad de aire e impedirán que el hollín llegue a la zona de vivienda y a las edificaciones vecinas. El estudio se realizó con base en los datos proporcionados por el productor voluntario y de acuerdo con las características de las superficies disponibles para la producción de ladrillo artesanal, considerando la implementación del Horno Ecológico MK2. Para el diseño de las barreras vegetales, se generó una lista de 20 árboles que crecen en la región, posteriormente se elaboraron fichas técnicas de cada uno de estos árboles para después realizar la evaluación que determinó la capacidad de las distintas especies para filtrar el carbono negro y absorber el CO2, funciones principales que deben tener las barreras vegetales en esta comunidad ladrillera.


CONCLUSIONES

A lo largo de la estancia dentro del verano de investigación se trabajaron diferentes aspectos e investigaron diversas áreas enfocadas todas a desarrollar un taller de inducción para lograr implementar los hornos MK2 en la comunidad de San Diego Cuachayotla. Se recabaron datos tanto de impactos ambientales como afectaciones a la salud de los integrantes de esta junta auxiliar. Mediante estrategias y métodos investigados se estructuró el taller, los productos de esta investigación se llevaron a cabo con una mirada centrada en el beneficio social, económico y ambiental a la comunidad productora de ladrillo artesanal. Se logró captar únicamente un voluntario debido a la desconfianza de la comunidad hacia los cambios tecnológicos en sus procesos de producción. Mismo que se trabaja con los talleres de concientización esperando aminorar la situación y plantear un panorama positivo para el proyecto.
Ornelas Ramón Luis Guillermo, Universidad Veracruzana
Asesor: Dr. José Núñez González, Universidad Nacional Autónoma de México

ESTUDIO DE LA TRANSFERENCIA DE CALOR EN UN SECADOR SOLAR DE BIOMASA


ESTUDIO DE LA TRANSFERENCIA DE CALOR EN UN SECADOR SOLAR DE BIOMASA

Ornelas Ramón Luis Guillermo, Universidad Veracruzana. Asesor: Dr. José Núñez González, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El territorio mexicano se encuentra en el hemisferio norte. En esta región, la trayectoria aparente del sol durante la mayor parte del año, desde el amanecer hasta el atardecer, se observa hacia el sur. Geográficamente, México se encuentra entre los 14° y 33° de latitud septentrional, ubicación ideal para el aprovechamiento de la energía solar. La biomasa puede obtenerse a partir de residuos agrícolas, forestales, industriales, urbanos, etc. La mayoría de esta se puede aprovechar como biocombustible después de retirarle la mayor humedad posible para asegurar la combustión y aprovechar su poder calorífico. Es por eso que en este verano se realizó un proyecto con el objetivo de estudiar los mecanismos de transferencia de calor dentro de un secador solar. El dispositivo cuenta  con una placa metálica que se calentará a través de la radicación solar y por medio de aire en tiro forzado se distribuirá el calor al interior del secador.



METODOLOGÍA

Para el desarrollo del proyecto se aprendió durante el verano los pasos de la ingeniería asistida por computadora, los procesos que se aplican para el análisis de problema generalmente son: Geometría, Mallado, Resolver, Resultados y validación. La geometría del secador se hizo en la herramienta solidworks, en esta se dividió en bloques para la malla. En el Software Desingmodeler se agruparon los bloques en una sola parte para mejorar la malla. En Mesh se hizo una malla fina, y se definieron las condiciones de frontera: entrada del aire, salida del aire, las paredes, la cara del panel que estará expuesta a la radiación del sol y la pared del secador que está arriba del panel (donde entraran los rayos del sol), posteriormente se definió como solido el bloque correspondiente a la placa metálica y como fluido todos los demás bloques. Se utilizó las herramientas de ANSYS académico para realizar el estudio de transferencia de calor. La entrada del calor es por medio de la radiación solar que captará el panel, la posición del secador es en la ciudad de San Francisco Pichátaro, Michoacán (Longitud -101.8276014, Latitud 19.5715732)  con el panel hacia el sur, para el día 21 del mes de Junio a las 13 horas. Con la entrada de calor desde arriba a través de un panel metálico interior con dos inclinaciones, para una mejor captación solar. Se resolvió utilizando la herramienta Fluent de ANSYS, se asignó una aceleración para la gravedad en el eje Y igual a -9.81 en el SI, se activó un modelo de energía, de viscosidad k-epsilon y de radiación solar, en este se seleccionó Solar Calculator donde se configuró la latitud, longitud, día, mes, hora y se selecciona que el Norte está en X y el Este en Z, después los parámetros de iluminación se ajustaron a los de Solar Calculator. En las condiciones se colocó en la entrada del aire una velocidad igual 0.05 m/s, en la superficie donde entraran los rayos del sol, en la sección de radiation se seleccionó semi-transparent y los valores de Absorptivity se cambian de 0.1 a 1e-5 para aumentar la transparencia de la cara, en las superficies de la pared en radiation se deseleccionó la opción donde se dice que participan en Solar Ray tracing, para obtener solo el aprovechamiento en la placa metálica. Al inicializar la solución se cambió a una solución estándar, en compute from se seleccionó all-zones y se inicializó, inmediatamente después se revisó en los contornos de las paredes el flujo de los rayos solares para comprobar que la orientación es correcta y que la transparencia está presente, es decir, se veía el calor del sol sobre la superficie metálica aun teniendo la pared sobre ella, esto porque esta pared es semi-transparente. Posteriormente se corrió el cálculo con un límite de 1000 iteraciones, teniendo que la solución convergió antes, nuevamente se vieron los contornos, ahora de velocidad, para ver el flujo del aire en el interior, y de temperatura, para confirmar que la placa metálica es lo más caliente y ver la temperatura del aire dentro del secador solar.


CONCLUSIONES

Durante la estancia en el verano se logró adquirir conocimientos de CAD, conceptos básicos, piezas y ensambles, técnicas avanzadas de modelado de piezas y ensambles, sesiones prácticas de SolidWorks Simulation, pre-procesamiento, reparación de geometría, técnicas de mallado, solución numérica de flujo de fluidos y transferencia de calor en ANSYS. Aplicando mejora continua durante el proyecto.
Oro Cruz Ivan, Universidad Autónoma de Tamaulipas
Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

DESARROLLO DE BATERíAS DE NUEVA GENERACIóN PARA EL FORTALECIMIENTO DE LAS ENERGíAS RENOVABLES


DESARROLLO DE BATERíAS DE NUEVA GENERACIóN PARA EL FORTALECIMIENTO DE LAS ENERGíAS RENOVABLES

Oro Cruz Ivan, Universidad Autónoma de Tamaulipas. Asesor: Dr. Lorena Martínez de la Cruz, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

El mundo se asfixia en smog y en un calentamiento global sofocante, las energías renovables son indispensables para que todos los que habitamos este planeta tengamos un futuro limpio y saludable. El viento, el sol o el agua son recursos inagotables pero pasajeros, de ahí la importancia del desafío de almacenar la energía. Por este motivo es necesario crear soluciones que permitan almacenar la energía procedente de estas fuentes y asegurar su disponibilidad cuando los paneles solares o turbinas eólicas no estén en funcionamiento Y buscar en conjunto soluciones para este gran desafío que enfrentan las fuentes de Energía Renovable y poder fortalecerlas aún más. En la actualidad existen baterías antiguas utilizadas para el almacenamiento de energía por lo que conllevan algunos inconvenientes como los peligros de quemaduras químicas, capacidad utilizable limitada esto debido a que se considera normalmente razonable usar sólo entre el 30 y el 50% de la capacidad nominal de las típicas baterías de plomo ácido, por otra parte, generan gases inflamables durante la carga, tienen un ciclo de vida limitado, carga lenta e ineficiente ya que no puede ser cargado con rapidez, entre otros aspectos.



METODOLOGÍA

Se evaluaron materiales del tipo cianometalatos como posibles electrodos para almacenar energía electroquímica y aplicarlas a las Energías Renovables. Posteriormente se prepararon pastas para la elaboración de electrodos de hexacianoferratos de zinc y sodio. Posteriormente se evaluaron los electrodos mediante técnicas electroquímicas, voltamperometria cíclica, espectroscopia de impedancia electroquímica. Se realizaron las repeticiones necesarias para poder hacer un buen análisis de los datos, así como las propiedades de carga y descarga de energía eléctrica de los electrodos fabricados, y la efectividad del material. Las técnicas electroquímicas: permitieron realizar una serie de pruebas a una celda electroquímica con el fin de determinar sus características eléctricas y químicas, selección de materiales, capacitancia específica y otras más. Esta técnica consiste simplemente en la aplicación de un voltaje durante un cierto intervalo de tiempo y el registro de la corriente resultante en dicho lapso. Voltamperometria: fue de gran utilidad especialmente para estudios de procesos redox con esta técnica nos dimos cuenta que a medida que el potencial del electrodo se aproxime al correspondiente a la reducción, la corriente comenzará a aumentar proporcionalmente a la cantidad de especie que esté reaccionando. Si luego de este aumento de corriente se continúa el barrido de potencial en sentido catódico, se observará que la intensidad de corriente alcanza un valor estable, un valor límite. Espectroscopia de impedancia electroquímica: se utilizó para la caracterización avanzada de compuestos orgánicos, es una técnica poderosa que permite el análisis independiente de las etapas de transferencia de la carga que tienen diferente respuesta de frecuencia de AC


CONCLUSIONES

Como resultados de la presente investigación se obtuvo información necesaria y muy relevante, que servirá como antecedentes para el desarrollo de nuevas tecnologías. Los materiales estudiados, del tipo cianometalatos, mostraron buena respuesta capacitiva durante las pruebas de voltamperometría cíclica. Sin embargo, la estabilidad no fue la esperada, debido a que el comportamiento electroquímico va decayendo conforme aumenta el número de ciclos. Además, en algunas pruebas se observó la formación de un precipitado en la celda electroquímica durante la caracterización de los electrodos, lo cual puede indicar que el proceso óxido-reducción que se está llevando a cabo es irreversible. Cabe recalcar que los resultados obtenidos en las pruebas realizadas son comparables con los reportados en la literatura.
Orozco Avila Cesar Alejandro, Universidad Tecnológica de Nayarit
Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara

K-MEANS E íNDICE DE VALIDACIóN SILHOUETTE APLICADO EN PYTHON


K-MEANS E íNDICE DE VALIDACIóN SILHOUETTE APLICADO EN PYTHON

Orozco Avila Cesar Alejandro, Universidad Tecnológica de Nayarit. Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La aplicación de minería de datos en redes eléctricas es un tema aun poco explorado y aprovechado por los centros de generación eléctrica, ya que, entre otras cosas, mediante el análisis de datos es posible detectar comportamientos anómalos que de no ser tratados en tiempo y forma paralizarían el suministro de la red eléctrica local generando pérdidas energéticas y monetarias sustanciales.



METODOLOGÍA

Primeramente, se realizó una investigación sobre el tema Agrupamiento de datos mediante el algoritmo K-means haciendo un fuerte énfasis en la parte matemática, una vez entendido el funcionamiento matemático del algoritmo K-means se prosiguió con la siguiente parte del proyecto. Se realizó una investigación introductoria referente al tema de minería de datos con énfasis al algoritmo K-means haciendo uso del libro Python for data science for dummies de los autores John Paul Mueller y Luca Massaron, mediante explicaciones sobre el uso y funcionalidad de las librerías de Python: Scikit-learn, Pandas, NumPy y Matplotlib se logró una  comprensión competente del uso de cada una, así mismo se realizó el primer acercamiento exitoso a la aplicación de un algoritmo K-means en lenguaje Python. Una vez conseguido un algoritmo funcional K-means se presentó un problema inherente a la técnica de agrupamiento en sí, pues una de las desventajas del agrupamiento por K-means es que la selección de numero de centroides debe ser provista por el operador del algoritmo, obligando así que la técnica K-means a priori sea del tipo machine learning supervisado, sin embargo, como el objetivo es crear un código de machine learning no supervisado, por recomendación del investigador se realizó una investigación enfocada al tema índices de validación con énfasis en el método Silhouette el cual sirve en este caso, para encontrar el número ideal de centroides para K-means de forma no supervisada, una vez concluida la investigación se procedió a la elaboración de un código en Python que realizara tal tarea, para fortuna de la investigación la página oficial de Scikit-learn cuenta con algunos ejemplos funcionales (open source) de Silhouette apropiados para el proyecto en cuestión por lo cual se hizo uso de ellos, solucionando así la problemática de la selección de K centroides. El siguiente paso a realizar fue la unión de códigos, pues K-means con Silhouette solo contaba como un tercio de la programación final, las otras 2 partes las cuales son método de reducción PCA y clasificación mediante SVM, corrieron a cargo de 2 compañeros que también estaban bajo la tutela de mi investigador, al comprobar la funcionalidad de los algoritmos en un ambiente controlado se procedió a la unión de los códigos con un par de mejoras extra como el guardado automático de las gráficas generadas por cada algoritmo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre K-means y el índice de validación Silhouette, así como también conocimientos en Python aplicado a ciencia de datos, se logró poner tales conocimientos en práctica con la realización de un código capaz de agrupar bases datos en formato CSV mediante centroides de K-means que además también es capaz de definir el numero óptimo de centroides de manera no supervisada mediante el uso del algoritmo Silhouette, y a posteriori se logró la creación de un código funcional no supervisado que reduce/estandariza los datos de la base de datos con PCA, realiza la agrupación mediante centroides de K-means (con número ideal de K centroides proporcionado con Silhouette) y finalmente clasifica mediante SVM.
Orozco González Ileana Monserrat, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

PELíCULAS SEMICONDUCTORAS


PELíCULAS SEMICONDUCTORAS

Hernandez Amezcua Andrea Viridiana, Universidad de Guadalajara. López Lozano Martin Alejandro, Universidad de Guadalajara. Orozco González Ileana Monserrat, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas de oro se caracterizan por tener un tamaño de partícula muy pequeño, actualmente considerado, en el orden de 1 a 300 nm. Existen diversos tipos de materiales nanoestructurados como nanopartículas, nanocristales, nanotubos, nanoalambres, etc. de composiciones diversas, obteniendo nanomateriales orgánicos e inorgánicos en distintas dimensiones con aplicabilidad multifuncional, que van desde la medicina hasta la electrónica moderna. Se puede utilizar este proceso para la realizacion, por ejemplo, de baterias, para optimizar tanto en la duracion como la contaminacion de cuando se desechan, puesto que el oro mejoraria las propiedades de ese tipo de baterias.



METODOLOGÍA

Para la realización de películas de nanopartículas de oro y alcohol polivinilico se prepararon soluciones de HAuCl4 a distintas concentraciones (0.4 mM, 0.7 mM , 1.0 mM , 1.3 mM). Para la síntesis se preparó en viales una disolución de 0.02 g de quitosan en 5 ml de CH3COOH al 1%. Enseguida con el fin de homogeneizar la disolución se somete a una sonicación durante 30 min entre rango de temperatura de 30-35°C dejándolo reposar durante un día. Posteriormente se agregan 4g de la solución de HAuCl4, después se sonicó por un lapso de 2 horas a la temperatura antes mencionada. Éstas soluciones se dejan reposar unos días. Enseguida se preparó una solución de ZnO a 0.245 mM y se le agrega una determinada cantidad calculada (ésta depende de la concentración de HAuCl4) a cada uno de los viales y se vuelve a sonicar por 30 minutos a temperatura ambiente. Se preparó una solución de alcohol polivinilico (PVA) al 5%, se adiciona el 4% en peso de las muestras y se sonica 10 minutos. Y para concluir se le agrega el 2% de la masa total de la solución de líquido iónico, lo cual se vuelve a meter al sonicador por 10 minutos, el resultado de esto se vierte en una caja Petri de vidrio de 1.2cm de grosor y se introducen en el horno de secado a 45 °C hasta que se logre la consistencia deseada.


CONCLUSIONES

El líquido iónico es de suma importancia en la elaboración de películas, ya que ayuda a la interacción del flujo de electrones en el material, lo que permite que exista una resistencia en cada una de las películas, lo cual sirvió para calcular la conductividad presentada en las mismas; gracias a esto es posible emplearse en aplicaciones electroconductoras, como serían en sensores, celdas fotovoltaicas, diodos, entre otras. Las soluciones con 0.7 mM de concentracion mostraron una mayor conductividad que las demas, y las de 1 mM presentaron una mayor uniformidad en el tamaño de sus partículas.
Orozco Ramirez Oscar Francisco, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN


OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN

Cano Valdivieso Samara Michell, Universidad Veracruzana. Orozco Ramirez Oscar Francisco, Instituto Tecnológico de Lázaro Cárdenas. Zuñiga Rivera Yafte Ricardo, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el uso de drones ha tenido un gran impacto en la agricultura de precisión, donde se requieren métodos más eficientes para sembrar y no desperdiciar las semillas garantizando un ahorro al productor y una sustentabilidad en el suelo.  Sin embargo el uso de combustibles fósiles en sus baterías genera una gran cantidad de emisiones de gases de efecto invernadero  hacia la atmosfera, además de producir óxidos como resultado de la combustión por lo que con este trabajo se busca hacer uso de bio-etanol como combustible aplicado a una celda que trabaja a partir de hidróxido de potasio como electrodo para así obtener un voltaje que sea capaz de mover o alimentar dicho drone.



METODOLOGÍA

Para esta investigación se estuvo trabajando primeramente en las destilaciones de diferentes alcoholes obtenidos de procesos de fermentación con deshechos frutales altos en azúcar, como son: plátano, manzana, uva, tamarindo, mango y naranja. Así mismo, de estos alcoholes se determinaban mediante pruebas físicas la conductividad que producian, para así trabajar con el mejor bio-etanol posible. También se realizaban mediciones del pH que estos arrojaban. Posteriormente se realizaron pruebas en la celda de combustible que se tenía presente en el laboratorio. Durante las primeras pruebas se tuvo un electrodo compuesto de áloe vera - bicarbonato y otro compuesto solamente de bicarbonato. Dando indicaciones de que se requería seguir trabajando en el proyecto. En las siguientes pruebas se realizo un cambio de electrodos, usando la misma celda, ahora dichos  electrodos estaban compuestos unicamente de carbón activado y áloe vera. Dando unos resultados mejores a los anteriores. En las últimas pruebas se realizó un cambio nuevamente en los electrodos, siendo estos compuestos por hidroxidos fuertes, ya que estos tardaban más en realizar la reacción que produce el voltaje, teniendo así un voltaje constante por más tiempo.


CONCLUSIONES

Como resultados durante la estancia de verano se pueden destacar el diseño de un boceto o principio de un sistema de pequeñas dimensiones que reemplace a la batería convencional que actualmente los VAN usan como lo son las baterías tipo Li-Po, obteniendo de manera teórica un voltaje y corriente que este tipo de baterías proveen. Y claro también los resultados de voltaje que pueden llegar a dar cierta cantidad de bio-alcohol a cierta pureza.
Orozco Rosales Lizette, Universidad de Guadalajara
Asesor: Dr. Alma Berenice Jasso Salcedo, Centro de Investigación en Química Aplicada (CONACYT)

DEGRADACIóN FOTOCATALíTICA DE FENOL CON COMPOSITOS BASADOS EN OXICLORURO DE BISMUTO (BIOCL).


DEGRADACIóN FOTOCATALíTICA DE FENOL CON COMPOSITOS BASADOS EN OXICLORURO DE BISMUTO (BIOCL).

Orozco Rosales Lizette, Universidad de Guadalajara. Asesor: Dr. Alma Berenice Jasso Salcedo, Centro de Investigación en Química Aplicada (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La creciente problemática ambiental ha fomentado el desarrollo y la investigación de procesos y tecnologías sustentables, así como una normatividad más puntual que demande la disminución de los niveles de contaminantes en los efluentes. Debido al aumento de la demanda, diversas industrias presentan grandes volúmenes de residuos de naturaleza refractaria. Los procesos comunes de tratamiento de aguas, generalmente, no remueven compuestos refractarios e inclusive su presencia puede inhibir la efectividad del mismo. El Fenol es un compuesto orgánico, catalogado como refractario e identificado como COP, que encabeza la lista de contaminantes prioritarios de la Agencia de Protección Ambiental (EPA) en Estados Unidos. Esto debido a que los vertidos de dicho compuesto son tóxicos para los seres humanos y tienen efectos nocivos para el medio ambiente, por lo cual deben tratarse adecuadamente. Los compuestos fenólicos (Maroga y col, 2013) están presentes dentro de la mayor parte de las industrias (alimentaria, metalúrgica, farmacéutica y química). En la actualidad adquiere importancia la eliminación de contaminantes orgánicos persistentes (COPs) con métodos innovadores como es la fotocatálisis heterogénea. El proceso fotocatalítico inicia cuando el catalizador es irradiado por energía igual o mayor que su banda prohibida (gap) generando pares electrón-hueco (e-/h+), el electrón libre se transfiere a la banda de conducción; mientras el hueco positivo queda en la banda de valencia. Ambas especies reaccionan con especies adsorbidas en la superficie para la formación de especies reactivas que permiten degradar a los contaminantes. Si los pares electrón-hueco no reaccionan se lleva a cabo la recombinación de los mismos y estos vuelven su estado basal. El verdadero reto cuando hablamos este proceso radica en la elección del catalizador, el cual debe tener una banda prohibida baja para poder ser excitado fácilmente, un área superficial alta para interaccionar con el contaminante, entre otras caracteristicas.En este trabajo evaluaremos la capacidad de degradación del Fenol por fotocatálisis heterogénea utilizando compositos de oxicloruro de bismuto (BiOCl) como fotocatalizador.  



METODOLOGÍA

Síntesis de BiOCl El catalizador fue sintetizado mediante el método solvotermal, en el cual 912 mg de Nitrato de bismuto pentahidratado (Bi(NO3)3•5H2O) fueron añadidos en 50ml de solvente (Trietilenglicol; TEG), se mantuvo en agitación durante al menos 12 horas hasta su completa solubilidad. Una vez montado el sistema, se añadió la mezcla anterior y 0.5mL de NaCl (4M) dejándose 30 minutos en agitación. Posteriormente se llevó a 130°C por 60 minutos. Una vez transcurrido el tiempo a la temperatura indicada, la solución obtenida se dejó enfriar a temperatura ambiente para poder proceder con el lavado. Se realizaron 6 ciclos de centrifugado con agua desionizada y un último con alcohol isopropílico. Finalmente, el sólido obtenido se deja secar por 24 horas a una temperatura de 80°C. Modificación Dopado La modificación del BTEG se realizó durante la síntesis, simultáneo a la adición de NaCl (4M) se añadió una concentración establecida de plata o de ZnO, según sea el caso (Tabla 1). La plata se encontraba en solución al 1% mientras que el ZnO es un sólido blanquecino. Condiciones de secado Con el fin de encontrar las condiciones óptimas de tratamiento y evaluar de manera más global la efectividad del catalizador sintetizado, una parte de los sólidos recuperados se llevaron a 250°C, 450°C y 650°C, respectivamente, para asegurar que no hubiese trazas del solvente utilizado durante la síntesis. Actividad fotocatalítica La evaluación de la eficiencia de los catalizadores se midió a través de la degradación de Fenol (10 mgL-1) en un volumen de 50 mL y 1 gL-1 de fotocatalizador. La solución se mantuvo 30 minutos en agitación en ausencia de luz para mantener el equilibrio de adsorción - desorción entre el catalizador y el contaminante. Se inició la actividad fotocatalítica al encender la lámpara (UV 365 nm) que irradia la energía necesaria para la formación de los pares electrón hueco (e-/h+) que permiten la generación de radicales y la interacción entre bandas que permite la degradación del contaminante. Se tomaron alícuotas cada 30 minutos, las cuales fueron centrifugadas y el líquido fue analizado por espectroscopia UV en un rango de 200 a 500 nm. el Fenol presenta una absorbancia a 270 nm, por lo tanto fue la dicha longitud de onda donde se tomaron los datos.​


CONCLUSIONES

A través de la estancia de verano se logró un acercamiento más íntimo al mundo de la investigación, se obtuvieron un sinfín de experiencias y conocimientos tanto teóricos como los referentes al proceso experimental. Se lograron resultados favorables en cuanto a la degradación del contaminante a través de fotocatálisis heterogénea con el uso de catalizadores sintetizados en el laboratorio por el método solvotermal, los mejores porcentajes de degradación se observaron en aquellas síntesis donde se realizó un dopado con ZnO o con Ag. Por el contrario, se observó que al aumentar la temperatura de calcinación la efectividad del catalizador disminuye, esto se atribuye a la posible formación de nuevos compuestos.  Es un tema de interés actual que representa un trabajo extenso con el que se continúa trabajando. El análisis del sólido por medio de FTIR es solo el primer paso hacia la caracterización de los catalizadores sintetizados. Aún es necesario realizar una determinación por SEM y XRD de cada uno de ellos, para a partir de su morfología lograr un mejor análisis de los resultados obtenidos en su evaluación mediante la cinética. Las variables a controlar (intensidad, temperatura, pH, volumen, etc) se vuelven un factor de interés rumbo al cumplimiento del objetivo de lograr llevar el proceso hacia el rango de luz visible.
Ortega Camacho Victor Manuel, Instituto Tecnológico de Toluca
Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)

ECONOMíA CIRCULAR Y ADOPCIóN TECNOLóGICA EN BASUREROS ELECTRóNICOS: UN MODELO BASADO EN DINáMICA DE SISTEMAS


ECONOMíA CIRCULAR Y ADOPCIóN TECNOLóGICA EN BASUREROS ELECTRóNICOS: UN MODELO BASADO EN DINáMICA DE SISTEMAS

Ortega Camacho Victor Manuel, Instituto Tecnológico de Toluca. Asesor: Dr. Johnny Valencia Calvo, Universidad de Medellín (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los desechos E-Waste (desechos electrónicos), provienen de un crecimiento en el avance tecnológico, ya que las grandes cantidades de E-Waste que llegan a los basureros. Esto ha generado un impacto negativo ambiental y económico en todo el mundo, en los países que no tienen normas y leyes que ayuden al control y gestión de estos mismos. La recuperación de materiales en los E-Waste es una propuesta que ayuda a la economía y al ambiente, siempre que se lleve un proceso adecuado en la recuperación de materiales.



METODOLOGÍA

En el presente trabajo se hace uso de un modelo de simulación basado en la dinámica de sistemas, que nos permite analizar y observar los diferentes escenarios que se presentan en los basureros electrónicos a través del tiempo a partir de calibraciones del modelo, para hacer la integración de la economía circular y la adopción tecnológica en el desarrollo de recuperación de materiales para el avance tecnológico. Así mismo la reducción del impacto al ambiente que se genera de los basureros electrónicos, con lo anterior se analizaran posibles acciones para poder generar una correcta forma de Controlar y Gestionar los basureros electrónicos.


CONCLUSIONES

Mediante las diferentes situaciones por las que paso el sistema se concluye que la mejor forma de que el impacto sea menor al medio ambiente debe de ser mediante la adopción de normas y leyes que apoyen la recuperación de materiales de los basureros electrónicos y así disminuir el impacto que sufre el medio ambiente. Las mejoras que se vayan implantando al sistema de forma económica y se apoye de manera eficiente al control y gestión de los residuos basureros electrónicos, va a generar un mayor beneficio al medio ambiente y al avance tecnológico. En cuanto mayor sea la aceptación de los países por implementar leyes que apoyen el camino del control, gestión y administración de los basureros electrónicos y la aceptación de los ciudadanos del correcto uso de un dispositivo electrónico desde el momento de que lo compran hasta el momento de que cumpla con su cometido.
Ortega Contreras Karen Rubi, Universidad Politécnica de Texcoco
Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)

ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO


ESTACIóN AéREA DE MONITOREO DE CALIDAD DE AIRE CON ARDUINO

Arteaga Nieto Daniel, Universidad Politécnica de Texcoco. Castro Gameros David, Universidad Autónoma de Ciudad Juárez. Ortega Contreras Karen Rubi, Universidad Politécnica de Texcoco. Asesor: M.C. Andrés Garzón Valencia, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La pregunta de investigación es la siguiente: ¿Cuál es aquella necesidad de la sociedad que se puede suplir con tecnología de bajo costo y cómo hacerlo? En la actualidad la creación de políticas públicas que contribuyan a mejorar la calidad de vida de los habitantes de las urbes metropolitanas se ha visto sesgada por la injerencia que los contaminantes ambientales tienen en la salud de los habitantes. Para proponer las medidas necesarias de precaución es necesario contar con la evidencia científica que respalde las decisiones del estado. La ciudad de Cali, al igual que muchas ciudades latinoamericanas cuenta con una red de monitoreo de calidad del aire, en específico cuenta con 9 estaciones de monitoreo ambiental, las cuales tienen distintos sensores que miden la concentración de partículas PM10 y PM2.5, Ozono Troposférico (O3), Dióxido de Azufre (SO2) y Óxido de Nitrógeno (NOx). Sin embargo, todas las estaciones adolecen de, al menos, dos sensores de los 5 requeridos por la OMS. Objetivo General: Suplir la necesidad de capturar información sobre los indicadores que determinan la calidad del aire que permiten la creación de políticas públicas sustentadas en evidencia científica en ciudades que adolezcan de la tecnología necesaria para hacerlo. Es necesario aclarar los objetivos específicos de esta investigación: Construir una estación de monitoreo de calidad del aire con sensores de bajo costo. Montar la estación de monitoreo en un dron que permita su movilidad aérea. Medir la concentración de 4 contaminantes del aire y 2 parámetros físicos: O3, CO, material particulado, H2, y temperatura y humedad. Transmitir la señal medida a un display en que el usuario pueda tener acceso a los datos de los parámetros ya decodificados. 



METODOLOGÍA

Para dar cumplimiento a los objetivos específicos de la investigación se plantea la siguiente metodología específica para cada uno de ellos. Por medio del uso del equipo y material concesionado por el investigador el M.C. Andrés Garzón Valencia se llevó a cabo la construcción de la estación; de manera inicial se construyó en un Protoboard utilizando equipo electrónico de uso didáctico. En primer lugar, se llevó a cabo el inventariado del equipo; se investigó el funcionamiento, por medio de la consulta de sus hojas de datos, de cada uno de los sensores a ser utilizados en la construcción de la estación; se comprobó su funcionamiento en lo individual por medio de su conexión en un Protoboard y una computadora que permita la comunicación entre el microcontrolador y el programador. Una vez comprobado el funcionamiento de los sensores, todos fueron integrados en un mismo circuito que tiene cómo microcontrolador un Arduino UNO, el cual fue programado para recibir la señal transmitida por los sensores y decodificarla para ser leída por el usuario en un display.


CONCLUSIONES

Resultados parciales: Fue posible construir la estación de monitoreo utilizando el microcontrolador Arduino y cuatro sensores, el MQ-7 de CO, el AM2301 de Temperatura y Humedad, el MQ-8 de H2 y el MQ-131 de O3. De los sensores utilizados se obtuvieron sus lecturas, siendo incapaces de calibrarlos, puesto que es necesario hacerlo bajo condiciones físicas y químicas a las que no se tenía acceso. Sin embargo, se confirma que los sensores funcionan de manera correcta y demuestran una alteración en sus señales cuando son expuestos a distintas concentraciones de contaminantes de la manera esperada. Su montura en el dron no fue posible, puesto que fue necesario utilizar un dispositivo de comunicación inalámbrica al que no se tenía acceso por limitante en presupuesto, pero mediante literatura y experiencias en otros proyectos, se conoce que habría sido posible comunicarse, con toda fiabilidad, con la estación de monitoreo montada en el dron y recibir su señal en tiempo real. Conclusiones: Se concluye que es posible construir una estación de monitoreo de la calidad del aire que pueda ser montada en un dron. La tecnología existe y existe el marco tecnológico y empírico que permite su desarrollo. No es una tarea sencilla y requiere conocimientos, no sólo electrónicos e informáticos, también químicos, lo cual es muy importante para el desarrollo completo del proyecto. No fue posible concluir este proyecto de manera integral abordando todos los objetivos específicos, pero fue posible conocer qué es lo necesario para concluirlo y se descubrió un área, ya existente, pero con mucho potencial de desarrollo, en que los drones pueden utilizarse para el beneficio de una sociedad.
Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN


EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN

Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic. Ceras Flores Norma Paulina, Universidad de Guadalajara. Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic. Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic. Valdez López Marco Augusto, Instituto Tecnológico de Tepic. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fitorremediación es una tecnología que utiliza plantas, hongos y semillas para la remediación de agua y suelo contaminados. Consiste en la remoción, transferencia, estabilización y/o degradación y neutralización de compuestos orgánicos, inorgánicos y radioactivos. Es una tecnología de bajo costo, posee un impacto regenerativo en áreas donde se aplica y su capacidad extractiva se mantiene debido al crecimiento vegetal. Las emisiones de dióxido de azufre y óxidos de nitrógeno, que se emiten a la atmósfera mediante fuentes naturales y antropogénicas, originan la lluvia ácida (compuesta por ácido sulfúrico y nítrico), ésta cambia la composición del suelo y desplaza los metales pesados hacia las aguas subterráneas, aumentando su toxicidad e imposibilitando su consumo. Además, los ácidos disminuyen el PH de los acuíferos dulces lo que afecta al desarrollo de la fauna acuática. Según el Registro de Emisiones y Transferencia de Contaminantes (RETC) que se aplica en 17 países, México es el primer lugar (de los países en vías de desarrollo) en la utilización de ácido sulfúrico.  Otra gran problemática actual del ácido sulfúrico en nuestro paíes es el derrame de 3 mil litros de éste el pasado 9 de julio del 2019 en el Mar de Córtés, en la bahía de Guaymas.  Varios compuestos derivados del azufre son nocivos en el medio ambiente, tales como el sulfuro de hidrógeno, disulfuro de carbono o dióxido de azufre Durante el verano de investigación se estudian las capacidades de biorremediación de Crassula ovata en un sitio contaminado por ácido sulfúrico y una Zinnia elegante en un sitio contaminado por azufre.  



METODOLOGÍA

- Preparación de la tierra  Se usó tierra del lago de la BUAP, donde nuestra base fue 500 gramos para cada bolsa siendo las proporciones de esta 91% de tierra y 9% de aserrín, esta relación se usó para las plantas zinnia elegante, las cuales necesitaron de 17 bolsas en total, que contenían 2 blancos y 3 bolsas por cada concentración de contaminante usado los cuales fueron 5. Para la planta suculenta prepararon sólo 5 bolsas con una relación de 95 % tierra y 5% aserrín. - Contaminación de la tierra Se utilizó como contaminante para las plantas zinnia el azufre en forma sólida, teniendo diferentes concentraciones que variaban de 1 a 5%, teniendo cada una un triplicado. Después de realizada las concentraciones se procedió a verter cada una de las concentraciones a una bolsa distinta, dejando reposar una semana y utilizando métodos mecánicos para la agitación y mezclado de la tierra con el contaminante. Para las plantas suculentas se usó como contaminante ácido sulfurico, el cual también se realizaron diluciones que iban de 1 a 5%, cada una agregada a una bolsa distinta, dejando reposar un día y de igual manera usando métodos mécanicos para la agitación y mezclado del contaminante con la tierra. - Determinación de la estratigrafía de la tierra Para determinar el tipo de suelo usado, se pesaron 200 gramos de tierra en una balanza granataria y estos fueron agregados a una probeta de 1 litro, la cual fue aforada con agua por lo que provocó la sedimentación y separación de esta. Como resultado obtuvimos que nuestro suelo es de tipo arenoso y gravilloso. - Selección y germinación de las semillas Se utilizaron dos tipos de plantas, la primera fue conseguida en un supermercado local, la planta es llamada zinnia elegante conseguida en forma de semillas, con un tiempo de germinación corto. Se seleccionó otra planta llamada suculenta por ser típica de la región y tener muy pocos requerimientos para crecer, la cual fue conseguida en un vivero localizado en la ciudad de puebla. Para la germinación de las zinnias se utilizó algodón y agua, dejandolas germinar durante aproximadamente 1 semana en la cual adquirieron una altura de 5 cm. - Plantación en la tierra contaminada Se realizó un proceso de trasplante común, simplemente cubriendo las raíces de las plantas con la tierra previamente contaminada. - Mediciones de pH, densidad de la tierra y humedad Se realizaron mediciones de los parámetros de la tierra antes y después de contaminarla. Además de que se realizan dos mediciones de los parámetros cada semana. Los equipos usados son potenciometro para medir el pH, y la humedad esrealizada con una balanza analítica y una parrilla, dónde se calcula el % de humedad restando el peso húmedo menos el peso seco.  


CONCLUSIONES

- Elaboración de las curvas de calibración. - Determinación de la remoción de los contaminantes. - Analizar las capacidades de biorremediación de Crassula ovata y Zinnia elegante con el respecto al contaminante empleado.  
Ortega Reyes Abner Natanael, Instituto Politécnico Nacional
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

PROPUESTA DE OBRAS DE CAPTACIóN DE AGUA DE LLUVIA PARA LA COMUNIDAD DE TOTONTEPEC VILLA DE MORELOS, OAXACA, MéXICO.


PROPUESTA DE OBRAS DE CAPTACIóN DE AGUA DE LLUVIA PARA LA COMUNIDAD DE TOTONTEPEC VILLA DE MORELOS, OAXACA, MéXICO.

Ortega Reyes Abner Natanael, Instituto Politécnico Nacional. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

En nuestros tiempos la falta de acceso a servicios públicos como lo es el abastecimiento de agua para uso doméstico y/o consumo humano perjudica a miles, si no es que a millones de personas en el mundo. Esta problemática se ve más reflejada en comunidades rurales debido a que no existe el capital de financiamiento para desarrollar proyectos que puedan resolver el problema, sin embargo, las grandes zonas urbanas comienzan a tener esta problemática pues existe un alto índice de migración a las grandes ciudades provocando un crecimiento descontrolado y de esta manera generando problemáticas con respecto al recurso hídrico. En la comunidad de Totontepec Villa de Morelos se cuenta con una red de abastecimiento de agua, pero que a raíz de la topografía del lugar no logra abastecer a toda la comunidad pues esta solo permite llegar el líquido vital primero a las partes bajas de la comunidad debido a la pendiente del lugar, provocando que las viviendas que se encuentran en la parte superior lleguen a carecer de tal recurso. Así mismo también en temporada de calor (marzo- mayo) se presenta la problemática de ausencia de lluvias y por ello una oferta muy pequeña para una demanda mayor a la normal durante todo el año. De esta manera es como se encuentra la problemática del abastecimiento de agua en la comunidad de Totontepec, por lo cual es de suma importancia tratar de garantizar una mejor condición en cuanto al recurso fundamental que es el agua para lograr un bienestar dentro de la comunidad.



METODOLOGÍA

Investigación de los antecedentes de los sistemas de captación de agua de lluvia. Análisis de las características de los sistemas de captación de agua de lluvia. Descripción de las generalidades de la localidad de Totontepec Villa de Morelos, Oaxaca, México. Semblanza de la problemática y justificación de esta, para el caso de la comunidad de Totontepec Villa de Morelos Desarrollo de estudio hidrológico mediante la aplicación del programa AFA V.1.2. Diseño del sistema de captación de agua de lluvia: Determinación de la demanda. Diseño del área de captación. Diseño del sistema de conducción del agua captada. Diseño del volumen del sedimentador o trampa de sólidos. Diseño del sistema de almacenamiento de agua captada. Determinación del costo del sistema de captación de agua de lluvia nivel vivienda. Instalación y construcción del sistema de captación de agua de lluvia.


CONCLUSIONES

Para dar fin al proyecto anteriormente desarrollado, referente al estudio para posterior implementación de un sistema de captación de agua de lluvia, se llegó a las siguientes conclusiones. En el presente trabajo se logró identificar la información necesaria respecto a los SCALL (sistemas de captación de agua de lluvia) para así poder llevar a cabo un buen análisis en el diseño e implementación de este. Retomando parte del análisis hidrológico desarrollado mediante la investigación de los datos de precipitación en la estación Meteorológica 20385 Totontepec, datos comprendidos entre el año de 1983 y el año 2014, con dos periodos de suspensión, la precipitación máxima anual ocurrió en el mismo año de inicio con una precipitación promedio anual de 164.6 mm; mediante la investigación del Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP) se obtuvieron datos de precipitación promedio mensual, de las cuales se concluye que  los meses con mayor precipitación pluvial son comprendidos entre mayo-diciembre, mientras que los meses en los que existe una precipitación menor a las máximas mensuales son comprendidos entre enero-abril. Cabe destacar que durante todo el año la precipitación es constante debido al clima húmedo que impera en la región. Se determinó el diseño con respecto a la demanda de agua, al área de captación, línea de conducción, trampa de sólidos y el almacenamiento de agua captada, siendo los resultados los siguientes: Área efectiva de captación= 48 m2 Área hidráulica mínima de la canaleta de conducción = 0.56 m2 Volumen del sedimentador o trampa de sólidos = 0.3288 m3/h Demanda de agua: Diaria: 380 lts/hab/día. Mensual: 11,400 lts/hab. Anual: 136.80 m3 De acuerdo con los datos anteriores de demanda se consideró una captación parcial semanal debido a que existe una alta precipitación en la zona, de lo cual la demanda a abastecer será de 2.66 m3, de acuerdo con este volumen de demanda se acuerda implementar dos tanques de almacenamiento con fines de aprovechamiento máximo pues se podrán ocupar los dos al mismo tiempo para actividades diferentes, siendo las dimensiones de los mismos de 1 m de diámetro y altura de 1.70 m con capacidad de almacenar 1.33 m3 por cada tanque. Los materiales para instalación serán  adquiridos con la mínima dimensión de venta, puesto que el sistema con las dimensiones de volumen diseñados logrará cumplir su objetivo con los materiales de dimensiones tales antes dadas. En lo particular este proyecto de investigación me ayuda de manera esencial en el presente, pero a largo plazo es más notable su objetivo, pues como se plantea la hipótesis se planea que esto se implemente en la comunidad para lograr que los habitantes de mi localidad puedan cubrir la demanda que tienen con respecto al líquido vital y de esta forma aumentar la calidad de vida del lugar. Me llevo un aprendizaje notable de este proyecto pues aún no había llevado la materia de Hidrología y durante 7 semanas pude comprender, aunque a grandes rasgos, la parte más esencial del desarrollo de un estudio hidrológico; así como también experiencias nuevas con gente diferente a la que ya estaba acostumbrado.
Ortega Rojas Marco Antonio, Universidad Tecnológica del Valle de Toluca
Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)

LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.


LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.

Ortega Rojas Marco Antonio, Universidad Tecnológica del Valle de Toluca. Romero Garcia Martin, Universidad Tecnológica del Valle de Toluca. Romero Hernandez Oscar Eduardo, Universidad Tecnológica del Valle de Toluca. Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con base en la contextualización del problema con los formularios de Contacto y Colaboración se indago y la solución fue la reprogramación del formulario y su migración a un sistema basado en Google Forms para su integración de manera natural. El análisis de alternativas para la geo localización arrojo 2 posibles opciones; sin embargo, se concluyó que las soluciones no presentan resultados exactos y lo mejor es optar por Google Maps y sus costos. El desarrollo del foro de opinión implicó un diseño de una nueva base de datos, e investigación de APIs que facilitaran la lógica del sitio web. También para la implementación del mismo se realizaron diversas pruebas. El sistema fue implementado con tecnologías de desarrollo frontend (ANGULAR 8 tecnología de Google) y backend (Laravel en PHP).



METODOLOGÍA

Se utiliza la metodología ágil Scrum, lo que facilita controlar y planificar proyectos con un gran volumen de cambios y en donde la incertidumbre sea elevada. En esta metodología, se suele planificar por semanas. Al final de cada Sprint o iteración, se revisa el trabajo validado de la anterior semana. En función de esto, se priorizan y planifican las actividades en las que invertiremos nuestros recursos en el siguiente Sprint. Finalmente, se siguió el paradigma de programación orientada a objetos.


CONCLUSIONES

Google Forms es una herramienta que facilita el manejo de la información y se puede adherir a una página web de manera adecuada. Google Maps es la herramienta recomendada para crear recorridos virtuales, pero implica costos. Si se desea utilizar una herramienta gratuita se corre el riesgo de la inexactitud.  Por último el foro de preguntas y respuestas es desarrollado en dos herramientas completamente diferentes como Angular y Laravel, esto permitió comprobar que estas herramientas son potencialmente compatibles, a pesar de ser creadas con propósitos diferentes. Así mismo cabe resaltar que se busca tener estabilidad en esta sección del proyecto ya que a comparación de otra sección del proyecto se busca reducir tiempos de respuesta.
Ortiz Alvarado Andrea, Universidad de Guanajuato
Asesor: Dr. Agustin Vidal Lesso, Universidad de Guanajuato

IMPLEMENTACIóN DE TéCNICAS CAD PARA MODELADO DE TEJIDOS BLANDOS DE PIE PARA ANáLISIS POR ELEMENTO FINITO.


IMPLEMENTACIóN DE TéCNICAS CAD PARA MODELADO DE TEJIDOS BLANDOS DE PIE PARA ANáLISIS POR ELEMENTO FINITO.

Ortiz Alvarado Andrea, Universidad de Guanajuato. Asesor: Dr. Agustin Vidal Lesso, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La biomecánica es una disciplina científica que tiene como objetivo estudiar el mecanismo de trabajo de nuestro cuerpo a través de distintas fuerzas. La biomecánica es multidisciplinar y se utilizan conocimientos de diversas ciencias como ingeniería, anatomía, fisiología, biología, química, entre otras.   La biomecánica nos permite comprender como actúan las fuerzas internas y externas sobre alguna estructura. Estas fuerzas nos ayudan a predecir cambios y problemas que se pueden presentar en el cuerpo debido a alteraciones que el cuerpo ha sufrido y ayuda a proponer intervenciones artificiales para mejorar la calidad de vida. La biomecánica tiene una gran variedad de aplicaciones y se puede clasificar se la siguiente forma: Médica, ocupacional, deportiva, industrial, ambiental. Este proyecto tiene como objetivo obtener un modelo completo de pie. Al tener dicho modelo terminado será posible realizar análisis estáticos estructurales y estudiar cómo se comporta un elemento en particular bajo distintos tipos de carga, este análisis se deberá hacer en paquetes de elemento finito.  El modelo a desarrollar nos permite hacer una gran variedad de análisis de pie como el diseño de prótesis, simulación de distintas patologías como lo son el pie plano, pie cavo, dedo en garra, entre otras.  También será posible realizar cortes de partes de hueso para simular artroplastias e insertar implantes



METODOLOGÍA

Para realizar el trabajo se requiere de una computadora de gama media/alta que cuente con una tarjeta gráfica y también del software SolidWorks, en este caso la versión 2017. Se utilizaran modelos biológicos digitalizados con extensión STL en CAD, este archivo se generan a partir de una nube de puntos los cuales utilizan una malla triangulada para definir la forma del objeto. Estos modelos son un conjunto de huesos, tendones, ligamento y músculos que forman parte de un pie. Después de obtener todos los modelos biológicos se comienza con la corrección de dichos modelos, ya que en la generación de la malla triangulada suelen haber errores, como separaciones entre caras o caras dañadas y es necesario corregirlas. Se tomó como guía un el manual Procedimientos para la corrección de modelos STL. El siguiente procedimiento se realiza con cada uno de las piezas. Se importa el archivo STL a SolidWorks como un conjunto de sólidos con unidades en milímetros. Cuando ya se tiene el modelo abierto en SolidWorks se utiliza una herramienta llamada Diagnostico de importación, esta herramientas nos ayuda a identificar las caras defectuosas y las separaciones que existen en nuestra pieza. Se empieza con las separaciones dando click derecho sobre la separación que se desea reparar y con la herramienta Reparar separación se corrige una a una. Posteriormente se corrigen las cara de las misma forma que las separaciones solo que la herramienta se llama Reparar cara. Es necesario identificar y visualizar el área que se está reparando, existen casos donde se puede encontrar caras que no forman parte del solido principal y se eliminan para que no causen problemas. Es posible que cuando se repara una cara o separación las áreas que colindan también se reparen o se dañen. Cuando se dañan caras que no lo estaban es mejor regresar un paso atrás y comenzar a reparar una distinta. Cuando nuestra pieza ya no tiene errores se guarda con el formato de pieza para solid. Si no es posible corregir todos los errores la pieza se guarda en el formato .x_t y se importa a otro software en donde se hace un pequeño corte a la superficie dañada. Cuando ya tenemos todas nuestras piezas reparadas, en el software SolidWorks abrimos la opción de Ensamble nuevo y se inserta los componentes, que en nuestro caso es cada uno de los modelos biológicos ya corregidos y en formato de pieza. Uno a uno se comienza a acomodar y alinear. Desafortunadamente en este caso no es posible utilizar la herramienta relación de posición debido a que son piezas con formas irregulares, es por eso que para esta parte es necesario tener una guía visual y conocimiento sobre la anatomía del pie. Se basó el ensamble en dos ángulos los cuales fueron: el ángulo de Moreau-Costa-Bartani tiene unos valores de 120-130o y el ángulo astragalocalcáneo (ángulo de Kite) de 15-20°. Y se utilizaron diversas aplicaciones como ayuda visual de los elementos.


CONCLUSIONES

Durante el trabajo de verano se logró corregir el 85% de todas las piezas, el otro 15% sigue teniendo errores; con las piezas listas ya se pueden realizar análisis de elemento finito a cada uno de ellas con ayuda del software Ansys. También si obtuvo ensamble del modelo de pie con todos los huesos en la posición anatómica recomendada. Sin embargo, para realizar este trabajo dependemos de la eficiencia de nuestra computadora y de su capacidad para procesar los modelos y esto hace que nuestro trabajo sea tardado por lo que no fue posible unir todas las piezas, se continuará trabajando para lograr tener el ensamble completo. Se espera que este modelo tenga diversas aplicaciones en el área de investigación, ya que será útil para futuros trabajos.
Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora
Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara

LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA


LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA

Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo. Avila Valencia Ana Claudette, Universidad de Sonora. Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora. Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El interés por impulsar el desarrollo de las Micro, Pequeñas y Medianas Empresas (MIPYMES), ha sido cada vez mayor en los últimos años, no sólo en México, sino también en casi todos los países desarrollados o en proceso de desarrollo. En los últimos años se ha incrementado la localización industrial en la área metropolitana, principalmente en algunas ramas de punta como la electrónica, automotriz, zapatera y la cibernética, lo que ha impreso un nuevo sello a la estructura productiva y a la fisonomía de los suburbios tapatíos. Jalisco es la cuarta economía más importante de México en base a su contribución del 11.9% al Producto Interno Bruto Nacional (PIB); por sectores de actividad económica, los porcentajes de aportación al PIB estatal en el año 2015 fueron los siguientes: agricultura, ganadería, aprovechamiento forestal, pesca y caza, 6%; las industrias manufactureras aportaron el 23%; el comercio, restaurantes y hoteles, 25%; los servicios financieros e inmobiliarios, 12%, y los servicios educativos y médicos, 8%. (INEGI, 2015). Para impulsar un negocio no sólo se requiere interés, inversión y tiempo, ya que esto no garantiza su permanencia. De acuerdo con una investigación efectuada en el Centro Universitario de la Costa (CUCosta), 75 por ciento de microempresas del sector comercio en Puerto Vallarta no sobreviven los primeros cinco años a partir de su creación. Para México, las PYMES son un eslabón fundamental, indispensable para el crecimiento del país. Contamos con una importante base de Micro, Pequeñas y Medianas empresas, claramente más sólida que muchos otros países del mundo, debemos aprovecharla para hacer de eso una fortaleza que haga competitivo al país, que se convierta en una ventaja real para atraer nuevas inversiones y fortalecer la presencia de productos mexicanos tanto dentro como fuera de nuestra nación.



METODOLOGÍA

La investigación a realizar es una investigación mixta, cualitativa y de campo,  en un primer momento de alcance descriptivo, para soportar la observación, revisión de documentos y aplicación de cuestionarios. La unidad de análisis del proyecto de investigación descrito se enfocará a las microempresas de comercio del municipio de la ciudad de Puerto Vallarta. La recolección de la información se realizará por medio de una muestra probabilística estratificada de forma proporcional, esto es, conforme al giro comercial de la microempresa, proporcional a la cantidad de estas en el registro de licencias y en un periodo determinado, para de forma analítico-sintético se analizarán los indicadores de las empresas del municipio de Puerto Vallarta y dar respuesta a las interrogantes y objetivos de la investigación. Como primera actividad de investigación se realiza la recolección documental o información de soporte de la investigación la cual en parte se desarrolla con el acceso a biblioteca digital de la Universidad de Guadalajara, proporcionada por nuestro investigador, maestro José Luis López, además del acceso a la biblioteca del Centro Universitario de la Costa. Con acceso a un basta base de información gracias a estos recursos, además del sitios en Internet, en donde pudimos expandir la investigación gracias a sitios del INEGI como el DENUE, Secretaría de Economía, etc.


CONCLUSIONES

Las tecnologías de la información y comunicación han sido fundamentales para el desarrollo de las actuales empresas de comercio, no sólo en Puerto Vallarta, sino en el mundo. En la actividad de investigación colaboramos principalmente en el trabajo de recolección y revisión de información, como parte de los aspectos fundamentales de esta y hasta los principios de la realización y desarrollo del instrumento de investigación. Con el trabajo realizado podemos concluir que: Un 75% de las microempresas no duran más de 5 años por falta de conocimientos de las TICs. De acuerdo con un estudio realizado por el INEGI en el año 2014, logramos identificar que hay un total de 4 millones 926 mil 061 pymes en México. (INEGI, 2014). Según la revista expansión, las Pymes generan 81% del empleo en México. Existen 4.2 millones de unidades económicas en México. De ese universo, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), esta publicación fue hecha por la revista Forbes. (INEGI, 2014)   Hemos culminado este proyecto con gran satisfacción. Obtuvimos muy buena atención por el maestro, fue directo, nos explicaba cualquier duda.
Ortiz Fragozo Ana Lucia, Universidad de Sonora
Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara

SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR


SISTEMA PARA ADMINISTRACIóN DE ASISTENCIA DE ALUMNOS DIRIGIDO A NIVEL SUPERIOR Y MEDIA SUPERIOR

Arvizu Vega Mariajose, Universidad de Sonora. Castro Robles Sheyla Magdalena, Universidad Autónoma de Baja California. Cazares Galindo Silvia Daniela, Universidad de Sonora. Gutierrez Nava Guadalupe Ivon, Universidad Autónoma del Estado de México. Monteverde Yeomans Ivanna Gabriela, Universidad de Sonora. Moreno Valenzuela Elsa Fernanda, Universidad de Sonora. Ortiz Fragozo Ana Lucia, Universidad de Sonora. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los profesionales de la educación de las más reconocidas universidades trabajan apoyados por las herramientas que estas les ofrecen. En la actualidad, el uso de las tecnologías abre un área de oportunidad a la agilización de las distintas tareas que realizan diariamente, como lo son planeación de clases, evaluaciones, registro de asistencia, entre otros, permitiendo reducir el tiempo invertido en estas y tener tiempo libre para sus actividades personales y mejorar su calidad de vida.            Durante los últimos años la globalización ha dado paso a que más personas alrededor del mundo tengan acceso a tecnologías revolucionarias que faciliten el trabajo en todas las áreas. Integrar la tecnología a la educación es de vital importancia para mejorar tanto la eficiencia como la productividad en el aula, hace posible la ruptura de las barreras de comunicación entre docentes, alumnos y padres de familia. Una de las principales áreas en la cual puede resultar útil la tecnología educativa es la gestión de alumnos, particularmente en la toma de asistencia, actividad diaria que deben realizar los docentes y la cual se puede optimizar para que resulte un trabajo menos pesado. Suponiendo que un profesor imparte clases a 8 grupos de 45 alumnos cada uno, estaríamos hablando de un total de 360 alumnos de los cuales se tiene que realizar el cálculo del porcentaje de asistencia, haciendo uso de la tecnología educativa esta tarea se vuelve sencilla y aumenta la precisión de los datos recopilados, lo que mejora la toma de decisiones en tiempo y forma.     



METODOLOGÍA

Con base a lo anterior se desarrollará un sistema que lleve el control de asistencia de los alumnos en sus clases. Posteriormente se obtendrá un reporte automático y al mismo tiempo los alumnos, docentes y padres de familia podrán consultar el estatus del estudiante con respecto al porcentaje de asistencia normativamente establecido por la institución. Para lograrlo, primeramente nos adentramos en un nuevo sistema operativo, Linux. Una vez logrado el entendimiento de este, comenzamos a realizar distintas prácticas de programación mediante cursos online donde se explica cómo funcionan los programas instalados para empezar a programar en nuestras computadoras, así como el uso de distintos comandos que nos servirían para llevar a cabo estas prácticas. Dentro de la investigación hemos trabajado con el lenguaje de programación Python, y se diseñó una base de datos y una interfaz que permitan asistir a los maestros en el proceso de toma de asistencia de los alumnos para optimizar este proceso, facilitando la tarea al maestro y poniendo a disposición de padres de familia, tutores y alumnos un control sobre la asistencia a clases. Objetivos específicos Crear     el módulo de autenticación de los usuarios (docente, alumno y  padre de familia).      Crear     el módulo del pase de asistencia por clase (docente).      Crear     el módulo de consulta de asistencia por alumno y clase (docente).      Crear     el módulo de consulta de asistencia por clase (alumno y padre de     familia).      Crear     el módulo de mensajería entre docente, alumno y padre de familia.   La página web tendrá un mecanismo sencillo de usar en el cual solo basta con dar de alta el usuario así como el rol que le corresponde junto con datos adicionales según el rol. Así, no habrá posibilidad de que el usuario cometa algún error incorregible al momento de utilizarla. Con esta aplicación se pretende facilitar el trabajo del maestro al momento de tomar lista así como llevar un control de la misma, por lo tanto el cambio en el proceso será de fácil adaptación y comprensión. Mediante diferentes tipos de actividades se está evaluando el desarrollo de la página donde la tecnología es práctica y fácil de usar, de tal manera que su utilización y manejo sea sencillo tanto para docentes, alumnos y padres de familia; ya que contará con una interfaz que interactúe con dichos usuarios. De igual forma se está basando en la evaluación de los recursos que estén disponibles y en el arreglo lógico de los procesos que permitan la transformación de la situación que se está viviendo en la actualidad en una situación más optimista para el futuro, empleando los conocimientos y experiencias que se tengan. El funcionamiento de esta aplicación será idónea ya que la planeación del sistema se está ejecutando cuidadosamente contemplando todos los beneficios, restricciones y objetivos, aprovechando los recursos con los que se cuentan.  


CONCLUSIONES

Durante la estancia de verano logramos adquirir conocimientos nuevos en cuanto a programación y diseño web para posteriormente ponerlos en práctica en la creación de una base de datos y el diseño de una interfaz. El proyecto aún se encuentra en desarrollo y se espera, posteriormente, crear una página web a donde puedan acceder maestros a registrar asistencias, así como alumnos y padres de familia a monitorear el reporte de asistencia, ya sea semanal, mensual o semestral.  
Ortiz Mata Carlos Aldair, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora

REHABILITACIóN PREVENTIVA EN EL BALANCE Y CONTROL POSTURAL EN ADULTOS MAYORES MEDIANTE EL USO DE LA REALIDAD VIRTUAL: EXTENSIóN-FLEXIóN DE CUELLO Y ROTACIóN CERVICAL.


REHABILITACIóN PREVENTIVA EN EL BALANCE Y CONTROL POSTURAL EN ADULTOS MAYORES MEDIANTE EL USO DE LA REALIDAD VIRTUAL: EXTENSIóN-FLEXIóN DE CUELLO Y ROTACIóN CERVICAL.

Ortiz Mata Carlos Aldair, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural se constituye en la evolución de acciones complejas como la locomoción y la manipulación, se caracteriza por la aparición y maduración de patrones que relacionan los impulsos sensoriales, que informan la posición del cuerpo respeto al espacio, es decir la regulación de la posición global del cuerpo en el espacio con el fin de mantenerlo en equilibrio ya sea en reposo o en movimiento.    La mayoría de personas quienes presentan alteración de control postural son los ancianos, debido a que responden de manera inadecuada a los ajustes posturales, las fallas del control postural ocurren cuando las demandas de la tarea biomecánica sobrepasan la capacidad del sistema del control postural, cuando falla un elemento crítico del sistema o cuando los sistemas de realimentación adaptativos se deterioran gradualmente a través de déficits acumulados.   Sumado a lo anterior, los métodos tradicionales que existen para llevar a cabo una terapia pueden resultar monótonos o de poco interés para el paciente, generando la posibilidad de que éste abandone su terapia antes de finalizar su rehabilitación o, en el mejor de los casos, que la realicen con menor desempeño del que podrían.  



METODOLOGÍA

Se desarrollaron dos escenas de realidad virtual en el entorno de desarrollo Unity en las cuales se busca que el paciente realice ejercicios para ayudar a la rehabilitación de las cervicales ubicadas en el cuello, los ejercicios fueron diseñados con base en el protocolo de ejercicios para control postural de Naranjo et al., (2014). El objetivo es poder realizar estos ejercicios mediante el uso de mecánicas y dinámicas de gamificación como el reto, el progreso y la recompensa. Ambas escenas tienen el objetivo de disminuir dolores cervicales en caso de que sean presentes, lograr una mayor movilidad del cuello y una reducción de tensión muscular, con esto a su vez ayudamos a prevenir problemas asociados a la cervicalgia, ya que las personas que sufren de dicha enfermedad presentan, inestabilidades, vértigo, mareos, náuseas, cansancio, zumbidos en el oido y dolor de cabeza y hombros.   La primer escena consiste en la extensión y flexión, que se lleva a cabo al mirar de arriba hacia abajo en un ángulo de 90°, esta escena surge con base en el ejercicio 4 del día 1 de la fase 1 del protocolo antes mencioando, la cual menciona lo siguiente sentado mirar al techo y volver a la posición inicial. La escena será en el jardín trasero de una casa en el cual se encuentra un tanque de helio, del cual comenzarán a inflarse globos de distintos colores, los cuales el paciente deberá seguir con la vista y realizando la extensión y flexión del cuello hasta que el globo explote al chocar con la rama de un árbol ubicado en el mismo jardín. Cada vez que el globo explote este reproducirá un efecto auditivo similar a cuando un globo real revienta, además de que cada globo, dependiendo el color, liberará diferentes sorpresas que lleva dentro del mismo, esto con el fin de que el paciente tenga una recompensa visual, cuando el paciente deja de seguir el globo de forma correcta este descenderá hasta llegar al suelo. El sistema de puntuación consiste en que cada vez que un  globo llegue a la rama del árbol se le darán puntos al usuario, y cuando el usuario no cumpla con ello no se le dará ningún punto. En todo momento, el paciente podrá observar una flecha en la parte superior la cual le señala donde se encuentra el globo por si el paciente lo pierde de vista o se distrae volteando hacia otros lados.   La segunda escena busca que el paciente realice una rotación cervical, dicho movimiento consiste en mirar de izquierda a derecha hasta el ángulo máximo que alcance la persona en cuestión, esta escena surge con base en el ejercicio 8 del día 1 de la fase 1 del protocolo antes mencioando, la cual menciona lo siguiente de pie pies juntos girar la cabeza hacia ambos lados, para lograr esto, se le presentará la misma casa de la escena pasada al paciente, en la sala se colocará una mesa con forma semicircular frente al paciente, sobre ésta se podrá un observar una pista de carreras de juguete con dos coches. El objetivo es seguir, en todo momento, con la mirada y girando la cabeza, al coche asignado al jugador para que acelere y así vencer al competidor, el número de repeticiones dependerá del fisioterapeuta, al momento que el paciente deje de seguir al carro con la mirada el carro desacelerará hasta que quede completamente quieto, el carro del paciente se pintara de un color diferente cuando lo esté viendo de forma correcta y cuando lo pierda de vista el carro se tornara de otro color, se le asignó una mira para que la actividad sea más fácil para el paciente y se de cuenta cuando esté viendo de forma correcta su carro, la velocidad de este aumentará de forma gradual. El sistema de puntuación consiste en lograr que nuestro carro le gane al contrincante en una serie de vueltas y así obtener la victoria.   


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la rehabilitación en personas mayores y realizar prácticas para ayudar a las personas adultas en su proceso de rehabilitación, sin embargo, al ser un extenso trabajo aún faltan muchas escenas para elaborar las cuales ayudaran para rehabilitar otras partes del cuerpo, se espera realizar todas las escenas para así lograr una rehabilitación completa para las personas mayores, así como para mejorar la calidad de vida mediante un sistema entretenido y divertido para los pacientes. 
Ortiz Ortiz Nayeli, Instituto Tecnológico de Pachuca
Asesor: M.C. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco (Colombia)

CARACTERIZACIÓN DE ESTIÉRCOL BOVINO PARA LA OBTENCIÓN DE BIOGÁS


CARACTERIZACIÓN DE ESTIÉRCOL BOVINO PARA LA OBTENCIÓN DE BIOGÁS

Ortiz Ortiz Nayeli, Instituto Tecnológico de Pachuca. Asesor: M.C. Henry Adolfo Lambis Miranda, Fundación Universitaria Tecnológico Comfenalco (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente, uno de los principales problemas sociales en Colombia es la demanda de energía en zonas rurales aisladas, el cual se ha intensificado debido al crecimiento demográfico. Una de las actividades económicas desarrolladas en estas zonas es la ganadería, la cual genera gran impacto ambiental, debido a que produce gases de efecto invernadero como metano (60 %), dióxido de carbono (39 %), y trazas (0,2 %) de óxido nitroso en la atmósfera, procedentes principalmente del estiércol animal (Bekkering, Broekhuis, & van Gemert, 2010). El biogás, es un biocombustible que puede reemplazar energías convencionales debido a que sus principales fuentes provienen de biomasa y residuos sólidos agropecuarios (Mendoza Yenque, 2018).  Los biodigestores son una opción viable para el tratamiento de estiércol, ya que permiten generar el gas combustible y reducir las emisiones a la atmósfera, contribuyendo al bienestar económico y desarrollo social (Román Nevarez, 2016).



METODOLOGÍA

Recolección de la muestra La recolección del estiércol bovino se hizo en estado semi-húmedo, en la Finca Bello Horizonte en el municipio de Turbaco (Colombia). La muestra se colocó en recipientes de vidrio y se introdujo en un congelador hasta su uso. Determinación de carbono orgánico (COT) Curva de calibración En base al método de combustión húmeda de Walkley y Black, para realizar la curva de calibración se preparó una solución patrón de glucosa (C6H12O6) con una concentración de 2.1752 mg de Carbono/mL, disolviendo 0.5443 gr en 100 mL de agua destilada. Se tomaron alícuotas de 0.5, 1, 1.5 y 2 mL, se adicionó 5 mL de K2Cr2O7 1 N y 10 mL de H2SO4  (96% p/p), incluyendo un blanco. Se aforó con agua destilada a 50 mL y se dejó reposar durante 24 horas. Se colocó cada alícuota en celdas de cuarzo, se introdujeron en el espectrofotómetro UV-Visible modelo Genesys 10 UV y se realizó la lectura de absorbancia a 590 nm.   Determinación de carbono orgánico Se pesó 0.25 gr de la muestra previamente secada y tamizada en un vaso de precipitado de 50 ml. Se adicionó 5 ml de K2Cr2O7 1 N y 10 ml de H2SO4 (96% p/p). Se aforó con agua destilada hasta 50 ml y se dejó en reposo por 24 horas. Se filtró y trasvasò cada muestra en celdas para tomar lectura de absorbancia en el espectrofotómetro UV-visible a 590 nm. Para determinar el carbono orgánico de la muestra se empleó la siguiente fórmula:                      (Lectura - Int.. curva de cal.) * 1.3333 * 100      %COT = --------------------------------------------------                          Pendiente de curva * wmuestra * 1000   Determinación de materia orgánica A partir de las lecturas de absorbancia obtenidas en la determinación de carbono orgánico, se estimó la materia orgánica presente en la muestra a partir de la siguiente fórmula:                 (Lectura - Int.. curva de cal.)  * 1.3333 * 1.724 * 100   %MO =   --------------------------------------------------------                           Pendiente de curva * wmuestra * 1000   Medición de pH Se empleó un potenciómetro previamente calibrado. Se introdujo el electrodo de vidrio en una pasta saturada de la muestra y se registró la lectura.   Determinación de sólidos totales Se llevó a peso constante una cápsula de porcelana y se registró el peso. Se pesaron 20 gr de la muestra semi-húmeda y se introdujo en un horno a 105°C durante 24 horas y se pesó. Posteriormente se introdujo en una mufla a 550°C durante 15 minutos y se registró el peso. Los sólidos totales (ST),  fijos (SF)  y volátiles (SV) se determinaron mediante las siguientes fórmulas:                                              w105 °C - wcápsula vacía                                   ST = ------------------------------                                                        wmuestra                                              w550 °C - wcápsula vacía                                   SF = -------------------------------                                                        wmuestra                                                    SV = ST - SF Determinación de producción de metano (CH4) Montaje del biodigestor Se acondicionó un sistema de generación de biogás mediante un cilindro de plástico con capacidad de 3 L y tres recipientes de plástico de 600 mL. Las conexiones entre recipientes se efectuaron mediante mangueras de nivel de plástico y válvulas de plástico. Se preparó una mezcla de agua-estiércol con relación 1:1, para lo cual se pesaron 1050 gr de estiércol semi-húmedo en el  cilindro de plástico y se adicionó 1050 mL de agua destilada. En el primer recipiente de plástico se adicionó 500 ml de una solución de KOH 0.01 M. En el segundo recipiente se colocaron 500 ml de agua destilada, mientras que el tercer recipiente se colocó vacío.   Determinación de dióxido de carbono Se determinó el número de moles de CO2 en base al equilibrio químico. Mediante la energía libre de Gibbs de la reacción (ΔG°r), se determinó la constante de equilibrio de la siguiente ecuación:                                              Kc = e(ΔG°r / RT) Se procedió a calcular la concentración de CO2, despejando la siguiente ecuación:                                                    [K2CO3]                                    Kc = -----------------                                                                    [KOH]2  [CO2]   Determinación de metano (CH4) La estimación de los moles de metano (CH4) producido en el biodigestor se obtuvo mediante la ecuación de gas ideal, considerando al volumen de metano como el volumen de agua desplazada.


CONCLUSIONES

Se montaron tres biodigestores, a los cuales se les realizó una caracterización inicial y final. Las cantidades de CO2 y CH4 obtenidas a partir de la digestión anaerobia fueron pequeñas, lo cual es justificado debido a que se realizó a escala laboratorio con proporciones en menor cantidad. Otro factor que influye es la temperatura de operación, la cual fue de 25°C,  mientras que según la bibliografía (González Cabrales, 2018), la digestión de forma eficiente se lleva a cabo entre 31 y 36 °C. Por otra parte, el pH final de la muestra es superior a 9 en los tres biodigestores, lo que indica que no se encuentra en un pH idóneo, pues de acuerdo con bibliografía consultada (Varnero, 2011), éste no debe ser inferior a 6 ni superior a 8, debido a que es un factor para la formación y composición del biogás. En base a lo anterior, se realizaràn las correcciones pertinentes al sistema de digestión anaerobia, esperando obtener los resultados deseados.  
Ortiz Pérez Ana Julia, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

MODELADO DE FABRICACIóN DE PUERTAS DE ACERO Y PROPUESTA DE MEJORA USANDO LA PLATAFORMA DELMIA QUEST®


MODELADO DE FABRICACIóN DE PUERTAS DE ACERO Y PROPUESTA DE MEJORA USANDO LA PLATAFORMA DELMIA QUEST®

Ortiz Pérez Ana Julia, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La falta de simulación para la evaluación e implementación de mejoras en el desempeño de un sistema actualmente puede llegar a perjudicar al sector manufacturero, en donde principalmente estas no se llevan a cabo por el costo y tiempo invertido en simular un sistema por lo minucioso que puede llegar a ser al obtener toda la información necesaria, pero sin embargo es importante compararlo con los ahorros que se pueden llegar a tener. En la empresa manufacturera de partes metálicas se desconocen el conjunto de ineficiencias que puedan llegar a tener sus diversas líneas de producción para la obtención de su producto final que en este caso son puertas de acero. Es posible que con la evaluación de la línea de fabricación mediante la simulación de eventos discretos en la plataforma Delmia Quest® se pueda tener la oportunidad de seleccionar los mejores escenarios que permitan determinar mejorar ciertos impactos y estos puedan verse reflejados en porcentajes de utilización, fluidez de la producción y los tiempos finales para la entrega de los lotes.



METODOLOGÍA

Se utilizaron los datos específicos de los procesos manufactureros de una empresa de giro metalmecánico que se encarga de la construcción de puertas de acero, así como también la plataforma Delmia Quest® que permite la simulación de eventos discretos, en donde permite obtener una visión 3D de los procesos de fabricación y manejo de materiales con los datos que se le asignen. Es importante destacar que para mi proyecto utilice los datos correspondientes a la puerta de dos luces que fue mi producto a simular. La representación gráfica y conceptual del proceso de manufactura, ayudo a poder determinar las variables necesarias o de mayor impacto en los diferentes procesos. Después de haber sido comprendidos los modelos conceptuales de cada una de los departamentos involucrados en la fabricación de las partes fue necesario realizar estimaciones estadísticas (ajuste de distribuciones) del tiempo requerido en los procesos. Una vez de tener todos los datos necesarios de cada una de las áreas se prosiguió a utilizar la plataforma Delmia Quest® para comenzar con la simulación. Es importante mencionar que se siguió un orden especifico de acuerdo a la línea de producción que se tiene por departamentos. Primeramente, se inició con el departamento de Herrería en donde en este se integran los diversos perfiles que permiten dar forma preliminar al producto. El rolado y troquelado es el segundo departamento realizado, proceso bajo el cual láminas de acero galvanizado se les de la forma de perfil de manera automática por la acción electromecánica. El departamento de lavado es fundamental por el hecho de que se utiliza para eliminar todas las impurezas de los marcos obtenidas en los procesos previos. Considerando el orden de la producción el departamento de pintado tiene como precedente al departamento de herrería y al departamento de lavado, ya que de ahí se obtiene tanto la hoja como las partes de los marcos, en donde se les genera la aplicación de pintura en polvo a través del efecto electrostático y curado a través de un horno. Transcurrido este tiempo pasan al último departamento que es el de armado de puerta en donde por medio del envidriado y armado se obtiene el ensamble final de la puerta para poder pasar al empaque de la puerta y dirigirlo al producto terminado de embarques. Después de haber realizado cada uno de los departamentos se pasó a hacer pruebas de verificación para poder comprobar que el simulador representara correctamente el proceso y se hizo uno prueba de validación para adquirir un lote de producción de 510 puertas, es importante mencionar que se consideró como un día de trabajo 2 turnos en donde cada uno está conformado por 9 horas, en donde por medio de 30 corridas se validaron y así se pudo obtener un rango de tiempo entre 231,203 y 246,631 segundos. Una vez que ya se tiene el modelo construido y validado correctamente se procede a través de la visualización y en conjunto de las herramientas de la Ingeniera Industrial a proponer un área de mejora en algún departamento. Dentro de los departamentos que analice fue el de Herrería corte, Herrería armando, Marco troquelado y limpieza de hojas, en donde me pude dar cuenta que se presentaban cuellos de botella por el hecho de que no todos los materiales se podían procesar al mismo tiempo o en un tiempo más corto, en donde esto provocaba que en los departamentos consecutivos ya mencionadas anteriormente se generaban porcentajes elevados de tiempo ocioso o de manera contraria tuvieran un bajo porcentaje de utilización. Dentro de mis propuestas de mejora en los departamentos antes mencionados lleve a cabo la eliminación de diferentes operadores y maquinarias que permitían una mejor fluidez. Es importante destacar que cada una de las modificaciones realizadas en los diversos departamentos no se vio afectado en el producto final y sobre todo que esto no se vio comprometido con el tiempo acordado normalmente de entrega con los clientes, sin embargo en conjunto las mejoras pudieron generar diversos beneficios dentro de los principales es que se obtuvo una reducción de tiempo, consiguiendo tener un margen de tiempo entre 191,794 y 205,742 segundos, así como también se tuvo un incremento en la utilización tanto de máquinas como de operadores en promedio del 5% y 7% respectivamente, y de forma contraria se tuvo una reducción del tiempo ocioso en ambos factores del 17.40% en maquinaria y el 7.9% en operadores.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos tanto teóricos como prácticos, por el hecho de que primeramente se procedió a conocer los mayores conceptos, tecnicismos, herramientas que eran necesarios para realizar una simulación. Finalmente pude tener la facilidad de manejar la plataforma Delmia Quest® que fue de gran ayuda para poder obtener una simulación en 3D de todos los procesos y así poder tener una visión más clara y real de lo que se estaba realizando. Puedo concluir que la modelación de las puertas de acero de 2 luces me permitió poder realizar un análisis y experimentación de cómo se encuentra la planta actualmente y como podría llegar a mejorar a corto o largo plazo tanto en ámbitos económicos, de espacio y sobre en tiempos y fluidez de los procesos.
Ortiz Pineda Citlalli Guadalupe, Instituto Tecnológico de Iguala
Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala

ELABORACIóN Y ACTUALIZACIóN DE MéTODOS DE TRABAJO EN EL áREA DE CORTE


ELABORACIóN Y ACTUALIZACIóN DE MéTODOS DE TRABAJO EN EL áREA DE CORTE

Ortiz Pineda Citlalli Guadalupe, Instituto Tecnológico de Iguala. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El problema que afecta la fabrica, en el área de corte es que no cuentan con métodos de trabajo establecidos, debido a la actualización del sistema se llevaron a cabo cambios. Todos estos implican la necesidad de actualizar los métodos de trabajo y la nueva toma de tiempos estándar.



METODOLOGÍA

Al comenzar las actividades lo primero que se observo fue cómo está constituida la fábrica por áreas, secciones y con esto dar a conocer como está conformado cada área. Por lo cual se creó un formato de "métodos de trabajo", en el cual se describe las actividades que desarrollará el operario en la sección de corte en la operación  que se le asigne y de acuerdo a los lineamientos que la empresa solicitó. Datos de todo lo que va a realizar y ocupar para el desarrollo de su actividad, como son: Máquina y accesorios conocer el modelo de la máquina que tiene el operario y que es lo que realiza y enseñarle cómo funciona. Descripción detallada de la información de método de trabajo de corte. No. de operación qué operación es y conocer cuál es la anterior y la que sigue. Condiciones de trabajo estas deben de ser las más adecuadas. Suplementos son asignados dependiendo si la operación es manual o se utiliza máquina Área de Trabajo cuales es el área que se le debe asignar a los trabajadores acorde a su operación esta debe de tener no necesario ya sea tijeras, Maquina cortadora etc. Hoja de Análisis y Desarrollo de tiempos esta se nos dio la que la fábrica maneja para la toma de tiempos a operarios. Puntos de Calidad son los más importantes en todas las operaciones del área de corte especificaciones. Para la elaboración de este formato, se utilizó principalmente, el método de observación, debido a que es necesario acudir al área donde se encuentran los operarios que tienen un nivel medio para la toma de tiempos, y observar las actividades, para hacer una explicación detallada de todos los movimientos y medidas que realiza el operario al momento de la realización de alguna operación dentro de esta área este método se realiza con mucho tiempo debido a que se debe de analizar donde comienza la operación y que puntos pasa hasta llegar al operario que realizará la operación. Posteriormente se redactó en el formato exactamente lo que se realiza en la operación con todos los datos requeridos en ella, una vez teniendo los datos ya completos se pasa al Ing. Jorge catalán  quien es el encargado de toda el área de operaciones de corte, y es revisado por el supervisor de calidad, Dentro del método se coloco el tipo de tela y prenda que manejan en los procesos, así mismo el nombre y códigos de operaciones, debido a que esto es parte fundamental de la actualización de métodos de trabajo para el operario, una vez dentro se le dará a conocer las características y defectos que puede traer la tela y como mejorar eso cuando realicen su operación. Descripción de cada una de las actividades desarrolladas de acuerdo a lo establecido en el cronograma. Esta metodología comprende 4 puntos importantes para cubrir con este proyecto, el cronograma se inició con el conocimiento del proceso de operación. Conocer los procesos de operación del área del corte. Se observó cómo es que la fábrica trabaja en el área de corte, conociendo las máquinas que utiliza y función de cada una, también conocer cuántas operaciones tiene en esta área y como están divididas, ver cuál es el flujo que tiene desde el corte de tela de casimir hasta la formación de bultos, observamos que partes que componen el proceso. Almacén: esta parte es fundamental debido a que la tela se inspecciona que este en buen estado que no esté con hilos jalados, manchada, etc. Abastecimiento: en esta operación se encarga de dejar rollos correspondientes de tela a los tendedores de casimir y forro, junto con sus trazos y con cruzados de la orden ya verificados por el supervisor. Tendido: Esta operación es la encargada de hacer los colchones de casimir, alinear perfectamente las hojas de casimir una tras otra hasta formarlo. Corte de casimir: este proceso debe de ser muy preciso ya que el corte de tela es por colchón y si una pieza es mal cortada no puede pasar a la siguiente operación.  Recoger talla: en esta operación recoge las piezas refiladas de corte de casimir liso, raya y cuadro y las lleva al área de feleo. Foleo: se encarga de colocar a cada pieza un código para no tener errores Fusionado:Pasa a esta área en donde se realiza la colocación de adhesivos y entretelas en diversas partes del corte y pantalón las cuales ayudan a dar mejor firmeza a la prenda al pasar por la máquina fusionadora esta parte se tiene que hacer por foleo ya que la tela y el adhesivo debe coincidir con la tela a fusionar. Formación de bultos: Aquí se dividen las piezas y forman la talla completa, se amarran y forman un bulto, ya fusionadas y revisadas. Listas para pasar a la siguiente operación. Estas son todas son todas las operaciones que cuenta el área de corte desde su inicio hasta que pasa a la segunda sección. Elaboración de diagrama de operaciones. Al observar cuantas operaciones tiene esta área, se realizó un diagrama de operaciones. Ya que nos facilita la muestra de la secuencia cronológica de todas las operaciones, inspecciones, tiempos permitidos y materiales que se utilizan en este proceso, desde la llegada de los materiales hasta la F. de bultos. Determinación del tiempo estándar de fabricación. Se tomó el tiempo que tarda un operario en cada operación, dicho tiempo será para todos los operarios de una sola sección, también calculamos el tiempo estándar de uno operario, tomando en cuenta que cada operación realizada es diferente y que algunas son más complicadas de hacer y llevan más tiempo en realizarlas.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos y en el área de Ing. industrial y ponerlos en práctica con las técnicas de Métodos de trabajo, toma de tiempos, diagrama de operaciones. Con esto ayudamos a elevar la productividad y la eficiencia en los trabajadores haciendo más en menos tiempo, con ayuda de los métodos que se establecieron.
Ortiz Ramos Irlanda, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. María del Rosario Fátima Robles Robles, Universidad Estatal de Sonora

EL OUTSOURCING EN LA INDUSTRIA AUTOMOTRIZ EN SONORA. UN MODELO CONSOLIDADO Y CON PARALELOS A LA INDUSTRIA EN GENERAL.


EL OUTSOURCING EN LA INDUSTRIA AUTOMOTRIZ EN SONORA. UN MODELO CONSOLIDADO Y CON PARALELOS A LA INDUSTRIA EN GENERAL.

Ortiz Ramos Irlanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. María del Rosario Fátima Robles Robles, Universidad Estatal de Sonora



PLANTEAMIENTO DEL PROBLEMA

El outsourcing es un modelo de contratación de trabajadores o procesos en la producción, que ha incentivado el crecimiento y desarrollo del sector industrial, y particularmente de la industria automotriz, permitiendo organizar de una manera muy peculiar la interacción entre las líneas productivas internas y externas dentro de las empresas. La Industria Maquiladora de Exportación surge en Sonora en 1968 con la instalación de la primera maquiladora en la ciudad de Nogales, sin embargo, la industria se expandió de tal modo que para el año 2015, según la Secretaría de Economía (2015, p.06), una de las actividades estratégicas era la fabricación de equipo de transporte, que representa una importante participación en la industria automotriz a nivel nacional e internacional. Sector que, desde entonces, ha tenido una significante intervención como proveedor de empleos en el estado, y principalmente en la capital Hermosillo, desde 1986 con la instalación de la planta de ensamblaje de automóviles de Ford Motor Company, que, a su vez, propició el establecimiento de proveedores, contribuyendo al desarrollo de la región. En la actualidad la participación del outsourcing se ha incrementado a casi todas las ramas de la producción, es por ello que nos hemos propuesta los siguientes objetivos. General. Identificar las características del outsourcing en la ciudad de Hermosillo, Sonora, para revelar elementos comunes del outsourcing en la industria automotriz. Específicos: Exponer el marco legal que rige a la modalidad de subcontratación para reconocer los actores y sus funciones que establece la legislación vigente en México. Conocer el comportamiento estadístico del personal subcontratado en la industria automotriz para definir elementos que caractericen el modelo de contratación en la producción y establezcan puntos de comparación con otras industrias. Se parte de la premisa que el outsourcing en la industria automotriz en Hermosillo, Sonora se ha consolidado como un modelo de contratación de trabajadores o empresas, para cumplir con los objetivos de entregar a tiempo y con calidad los productos y servicios de esta industria.



METODOLOGÍA

Para alcanzar el objetivo de identificar las características del outsourcing en la ciudad de Hermosillo, Sonora, para revelar elementos comunes del outsourcing en la industria automotriz, se utilizó una metodología mixta, se realizó investigación documental y se consultaron fuentes especializadas, tanto nacionales como extranjeras, conjuntamente se realizó una investigación cuantitativa, en la que se elaboraron bases de datos con información del Instituto Nacional de Estadística y Geografía (INEGI). Para exponer el marco legal que rige a la modalidad de subcontratación y reconocer los actores y sus funciones que establece la legislación vigente en México, se utilizó una investigación documental mediante el análisis de la Ley Federal del Trabajo (LFT) en su última Reforma DOF 12-06-2015, artículos 8vo, 12, 13 y 15. Para conocer el comportamiento estadístico del personal subcontratado en la industria automotriz y definir elementos que caractericen el modelo de contratación en la producción que establezcan puntos de comparación con otras industrias, se empleó una metodología cuantitativa donde se construyeron bases de datos con información del INEGI, y además se aplicaron entrevistas a personalidades representativas de la industria automotriz en Hermosillo, Sonora.


CONCLUSIONES

Según la LFT el outsourcing consiste en el traspaso de actividades puntuales, previamente divididas, a empresas especializadas que pueden estar ubicadas dentro o fuera del país, logrando el crecimiento de la empresa solicitante, alcance de objetivos y mejoras productivas. De acuerdo a lo anterior, queda claro que los trabajadores dependen del contratista y quien fija las tareas al contratista (no a los trabajadores) es el contratante. En México desde el año 2007 se tienen registros del trabajo desempeñado por la IMMEX bajo el modelo de subcontratación y contratación directa. Con la información obtenida se elaboraron bases de datos  de dos actores una con el personal subcontratado y contratado directamente por la IMMEX y otra con cifras de la industria automotriz, donde además se tiene identificado el porcentaje de participación por género. Además, se realizó un análisis nacional que muestra el porcentaje de participación por tipo de contrato de obreros, técnicos y empleados administrativos en la IMMEX por estado en abril de 2019. A través de las cuales podemos afirmar que, el outsourcing se ha consolidado como un modelo de contratación en la producción en la industria nacional que muestra un estancamiento por un periodo de más de 10 años. En el caso particular de la ciudad de Hermosillo entre 2007 y 2018 se encontró una presencia mucho mayor de la subcontratación como modelo de contratación en la industria, a comparación del promedio estatal y nacional. Estos datos nos hacen ver que recientemente Hermosillo ha superado por 17% las cifras estatales y por 9% las nacionales, por lo que se reconoce que el outsourcing juega un papel importante en la modalidad de contratación de los hermosillenses. Por otra parte, un asunto que es necesario señalar es que, de acuerdo a la LFT en México, en su artículo 15 fracción A, en la que se condiciona a ser de carácter especializado y a que no podrá ser la totalidad de las actividades en la entidad económica. Sin embargo, consideramos que no se ha cumplido con la primera condición debido a que, de acuerdo a la información obtenida, existen en el rubro obreros y técnicos un número considerable de trabajadores subcontratados, así como en la categoría de administrativos. Además, gracias a la interpretación de los datos podemos afirmar que el outsourcing es un modelo que se ha consolidado como una forma de contratación en la producción, siendo la industria automotriz un referente nacional que presenta comportamientos similares a la IMMEX desde hace una década, que, si bien iba en aumento a partir de la reforma laboral de 2013 y las reformas estructurales de 2014 con Felipe Calderón, paradójicamente la subcontratación empieza a disminuir a partir de esas fechas para establecerse en esos rangos.
Ortiz Reyes Dulce María, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez

CARACTERIZACIÓN DE UNA CELDA FOTOVOLTAICA Y UN COLECTOR SOLAR Y DETERMINACIÓN DE LA VIABILIDAD DEL SISTEMA


CARACTERIZACIÓN DE UNA CELDA FOTOVOLTAICA Y UN COLECTOR SOLAR Y DETERMINACIÓN DE LA VIABILIDAD DEL SISTEMA

Gallardo Rojas Karina Itzel, Instituto Tecnológico de Ciudad Juárez. Ortiz Reyes Dulce María, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Determinar la eficiencia en condiciones de operación a campo abierto del arreglo fotocelda-colector solar a partir de los parámetros característicos.



METODOLOGÍA

Recopilación de información acerca de la geometría del arreglo fotocelda-colector solar. Adquisición de datos de corriente, voltaje, temperatura y radiación a través de un módulo de acondicionamiento de señales y resguardo de información a una memoria SD. Análisis de datos utilizando un modelo matemático que describe el comportamiento del sistema para determinar la eficiencia de la celda y el colector. Comparación de la eficiencia de la celda fotovoltaica y del colector para un día con radiación estable y otro con radiación variable. Determinación de la viabilidad del arreglo fotocelda-colector solar respecto a la eficiencia y al gasto promedio en un hogar.


CONCLUSIONES

Se determinará la viabilidad del sistema fotocelda-colector solar a partir de las gráficas de eficiencia y el análisis de gastos de construcción y consumo en un hogar promedio. Para trabajo a futuro configurar-optimizar un arreglo fotocelda-colector solar en condiciones de uso real en Ciudad Juárez de tal forma que la fotocelda trabaje bajo temperaturas recomendadas para mayor eficiencia y obtener agua caliente aprovechable.
Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Osuna Valenzuela Valeria, Universidad Politécnica de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

DISEÑO DE UN AEROGENERADOR DIDÁCTICO PARA MICROGENERACIÓN


DISEÑO DE UN AEROGENERADOR DIDÁCTICO PARA MICROGENERACIÓN

Coronado Cortés Karen Guadalupe, Universidad Politécnica de Sinaloa. Osuna Valenzuela Valeria, Universidad Politécnica de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La importancia del desarrollo tecnológico en cuanto a las energías renovables es innegable. Cada vez los requerimientos de energía eléctrica van en aumento y las formas tradicionales de obtención de energía se convierten al paso del tiempo en recursos insustentables. Cada vez son más los países que apuestan hacia la visión de una generación de energía más sostenible, y esto es posible gracias al desarrollo de conocimientos y programas que promueven la importancia de un desarrollo tecnológico cada día más avanzado. La mayor problemática en las universidades es que no cuentan con el equipo necesario para aplicar los conocimientos teóricos, es por ello que el presente proyecto tiene como objetivo principal la implementación de un perfil aerodinámico en el diseño de una turbina de un micro-aerogenerador didáctico, con el cual alumnos del Programa Académico de Ingeniería en Energía de la Universidad Politécnica de Sinaloa puedan comprender y analizar el funcionamiento de los microgeneradores, tomando en cuenta la importancia tanto del perfil aerodinámico como del diseño mecánico, para tener una generación de energía óptima de acuerdo a las características del recurso eólico con el que se cuenta en cada región, solidificando así los conocimientos que se tienen acerca de este tipo de generación eléctrica.



METODOLOGÍA

Primeramente, se realiza una revisión bibliográfica de los múltiples perfiles aerodinámicos que existen y de acuerdo a los coeficientes de sustentación y arrastre se elige el perfil de la National Advisory Commitee for Aeronautics NACA 4412, para el diseño del microaerogenerador, debido a que las velocidades de arranque requeridas para este perfil es de velocidades de viento bajas, lo que significa que se puede aprovechar la baja velocidad de viento característica de la región en el arranque de la turbina eólica. Se toman como referencia los datos de la estación meteorológica de la UNAM, misma que se encuentra instalada a 20 m de altura frente al mar. A partir de esta altura se extrapola la velocidad del viento a una altura deseada en base de la ley potencial o ecuación de escalamiento de Hellman, con el propósito de captar la energía cinética del viento con el mayor aprovechamiento. Se modelan los distintos componentes del prototipo con los datos del perfil aerodinámico correspondiente en Solidworks. El ángulo de ataque se considera debido a que su importancia relevante en relación con la velocidad relativa del viento y la cuerda de la superficie de sustentación de la pala. Del mismo modo, el ángulo de inclinación se obtiene entre la cuerda y la velocidad del viento que origina el giro del rotor. Posteriormente, se imprimen los modelos en una impresora 3D, de tal manera que se pueda representar el prototipo a escala y así, hacer pruebas en el túnel de viento para conocer la velocidad desarrollada por la aerodinámica de la turbina, lo que permitirá validar la necesidad de implementar un sistema de transmisión acoplado a la misma y al generador.  


CONCLUSIONES

El alcance del presente proyecto es desarrollar un prototipo basado en las condiciones de recurso eólico de Mazatlán, Sinaloa, donde el perfil aerodinámico implementado presenta un mayor coeficiente de sustentación en comparación a otros perfiles, lo que permite a la turbina funcionar con velocidades de viento bajas. Este prototipo impreso en 3D, permite al alumnado de comprobar de forma experimental los fundamentos teóricos de este tipo de sistemas de generación de energía eléctrica. Durante este verano científico se lograron comprender algunos de los conocimientos teóricos adquiridos al ponerlos en práctica con el prototipo. Por lo tanto, una vez que esté terminado el prototipo se harán pruebas con el túnel de viento, para que los alumnos puedan tener una noción más amplia del tema y de la misma manera, apliquen sus conocimientos de generación eólica.
Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Argelia Rios Posada, Benemérita Universidad Autónoma de Puebla

PROTOTIPO DE UN CARRITO EXPLORADOR QUE PERMITA OBTENER EL MODELO DIGITAL DE TERRENO (MDT) DE UNA ZONA


PROTOTIPO DE UN CARRITO EXPLORADOR QUE PERMITA OBTENER EL MODELO DIGITAL DE TERRENO (MDT) DE UNA ZONA

Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Argelia Rios Posada, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La curiosidad del ser humano lo ha llevado al descubrimiento de nuevos lugares, sin embargo, algunos de estos se tornan inaccesibles para explorar. Un ejemplo de ello podría ser una cueva o un terreno donde abunden sustancias tóxicas. Y es aquí donde la tecnología juega un papel muy importante ya que gracias a su desarrollo es posible lograr llegar a esas zonas desconocidas y permitirle al hombre conocerlas indirectamente. Otro problema respecto a la exploración es el costo de esa tecnología, pues ciertas veces resulta difícil acceder a este equipo que incluso, podría llegar a detener la investigación. Es por ello que durante el verano de investigación se desarrollará un prototipo de un carrito explorador que permita conocer el relieve o imagen digital de una zona determinada, de esta manera se buscará un método fácil y menos costoso a los ya existentes.



METODOLOGÍA

Los materiales utilizados para la elaboración del prototipo fueron: Placa Arduino UNO: Una vez programada permitirá la toma de datos de los sensores y su conversión a datos digitales. Acelerómetro con giroscopio MPU6050: Dará el ángulo de inclinación en los ejes X y Y, además de la aceleración y velocidad angular en X,Y y Z. Jumpers. Encoder óptico: Permitirá obtener las vueltas del carrito y su velocidad angular. A partir de lo anterior se podrá obtener la distancia recorrida por el mismo. Rueda con muescas para encoder óptico: Permitirá al encoder hacer sus lecturas. Carrito de radio control: Será el medio de transporte de los sensores y el protagonista del proyecto. Módulo Micro SD: Permitirá guardar los datos tomados con los sensores. Tarjeta Micro SD. Piezas de acrílico: Con un diseño previamente hecho, permitirá el montaje de la placa Arduino y los sensores. El primer paso fue la escritura de un programa que permitiera tomar los datos del acelerómetro, para ello fue necesario descargar las librerías I2Cdev.h y MPU6050.h, cuya función fue la de facilitar la manipulación y comunicación entre el sensor y la placa Arduino. Una vez escrito el programa para el acelerómetro se procedió a la fase de calibración, donde el sensor fue fijado en una base plana y puesto en una superficie de la misma naturaleza. Para la elección de la superficie se usó una app móvil llamada Nivel de burbuja, desarrollada por Gamma Play y cuya función fue la de emular un nivel. Dado lo anterior se cargó a la Arduino un programa creado para calibrar y modificar los offsets del acelerómetro. Después se procedió a la fase de pruebas donde se pudo observar la diferencia entre el ángulo de inclinación medido por el acelerómetro y el medido por un transportador. La diferencia fue mínima, por tanto, la calibración había resultado exitosa. Más tarde el programa se modificó para incluir un módulo micro SD, de manera que los datos tomados por el acelerómetro sean guardados en una tarjeta de esta clase. Lo siguiente que se realizó fue la escritura del programa de prueba para un encoder rotativo KY-040. Una vez que se empezó con su fase de pruebas, se pudo encontrar que este sensor no es tan eficiente para calcular los pulsos por vuelta como lo es un encoder óptico, por tanto, se pasó al uso del componente anterior. A la par se revisó la estructura mecánica del carrito y se modificó, de manera que pudiera adaptarse a los componentes del proyecto. Además, se diseño una especie de caja y una placa para poder montar al encoder, al acelerómetro, módulo Micro SD y Arduino al carro. Las piezas del diseño fueron mandadas a cortar en acrílico. Teniendo lo anterior se procedió al armado del prototipo, resaltando el anexo de un resorte para lograr un muelleo en la rueda del encoder. Más tarde se procedió a la elaboración del código final y pruebas. Llegando a este punto es importante decir que lo que el encoder óptico detecta es la interrupción de un haz infrarrojo, obteniendo la lectura de un estado alto cuándo algo bloquea su paso y bajo cuándo no hay algo que lo interrumpa. Es por ello que la rueda con muescas es perfecta para saber cuantas interrupciones hay por vuelta, en este caso se obtuvieron 40, 20 de estado alto y 20 de bajo. Sólo hace falta saber el perímetro de la rueda y multiplicarlo por el número de vueltas que da para saber que distancia avanza el carrito. El acelerómetro permitirá obtener el ángulo de inclinación del terreno al que se enfrente el carrito y junto a la distancia calculada se podrá calcular a través de un triángulo la altura a la que se encuentre. Finalmente, para evitar problemas con la transmisión de las lecturas en tiempo real, se decidió el uso de un módulo micro SD para guardarlos y así, graficar con posterioridad el MDT.


CONCLUSIONES

Durante el tiempo de estancia se logró obtener de manera satisfactoria el prototipo del carrito explorador, además de obtener conocimientos de nuevos de programación y de cómo funcionan los sensores usados en el proyecto, sin embargo, no se llegó como tal al punto de la graficación del MDT debido a las implicaciones que se tuvieron en las pruebas de los componentes. Por tanto, los resultados obtenidos son el prototipo y las lecturas que este hizo. Se espera la interpretación de esas lecturas a través de otro software para poder graficar el terreno.
Pacheco Gutierrez Hector, Instituto Tecnológico Superior de Tacámbaro
Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro

VIABILIDAD E IMPLEMENTACIóN DE LA SUSTENTABILIDAD MEDIANTE PANELES SOLARES EN LA INDUSTRIA Y PYMES DE LA REGIóN DE TACáMBARO.


VIABILIDAD E IMPLEMENTACIóN DE LA SUSTENTABILIDAD MEDIANTE PANELES SOLARES EN LA INDUSTRIA Y PYMES DE LA REGIóN DE TACáMBARO.

Pacheco Gutierrez Hector, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro



PLANTEAMIENTO DEL PROBLEMA

Podemos percatarnos que la energía eléctrica solar ataca los sectores más indispensables para la vida y desarrollo de la sociedad, como lo son la salud, la energía y la economía por lo que es importante saber los efectos que tiene la producción no sustentable para el medio ambiente y preservación de la idónea estabilidad de nuestro planeta para las futuras generaciones. De acuerdo a la presentación de la utilidad de las energías limpias del Dr. Ramón Sánchez de la Universidad de Harvard (2014), en la generación de electricidad para ser usada tanto en el ámbito doméstico como industrial, se genera en plantas o estaciones de generación eléctrica que actúan como otra industria con el pretexto que estas tienen como fin la generación y distribución eléctrica. Las centrales eléctricas que existen pueden variar de un tipo a otro en función del combustible utilizado como energía primaria. El Consejo Europeo de Energía Renovable, establece que los tipos de fuente energética son de tipo: térmico, nuclear, biomasa, hidroeléctrica, eólica, hidráulico. Juntas suman el 21.8% de la contaminación del aire a nivel global siendo esta la principal fuente contaminante, además de que su destino de actividad va a nuestro sector de enfoque el cual es el sector industrial el cual tiene el 51,7% de consumo de energía eléctrica a nivel global y las pymes y residencias un 21.6% dado que es un nivel alto en el cual se puede influir para contrarrestar los efectos que causa la generación de electricidad no limpia. Según la Secretaria de Economía en conjunto en Pro México los efectos que traen las plantas generadoras son las grandes emisiones de gases como el dióxido de carbono (CO2) el cual en el año 2014 tuvo un nivel de 498,450.6 Gg, estas emisiones contribuyeron al 65.4% del total del inventario para el efecto invernadero, por otro lado, el metano (CH4) obtuvo 7,938.9 Gg y óxido nitroso (N2O) el cual obtuvo un nivel d 206.3 Gg. El problema es que se estima que cada año aumentan 1.3%. Estos ocasionan el efecto invernadero y calentamiento global, dando paso al derretimiento de los polos árticos y desgaste de la capa de Ozono.  Causando así fenómenos meteorológicos y efectos en la salud y demográficos implicando así gastos por parte de la sociedad superiores a la inversión que se utilizaría para cubrir la demanda de energía eléctrica con un proceso renovable y sustentable como lo son el sistema fotovoltaico. Según la Cámara de Comercio de la región Tacámbaro (2019), estima un aproximado de 58 establecimientos entre Pymes y empresas las cuales son idóneas para la implementación de cambio de electricidad limpia. 



METODOLOGÍA

Enfocamos nuestro proyecto de investigación en la aplicación de la sustentabilidad mediante la implementación de los paneles solares en la industria y pymes de la región de Tacámbaro para posteriormente ponerse manos a la obra con la consulta bibliográfica sobre este tecnicismo y sus factores, para el buen funcionamiento y eficiencia de los paneles solares, para fundamentar el uso de energía limpia y conocer las ventajas que se adquieren cada vez que reemplazamos cada watts de energía solar por la convencional ya que nos evitamos 243g de carbono en la atmosfera por cada uno y más problemáticas antes mencionadas. En esta consulta conocimos teóricamente conceptos eléctricos como irradiación solar, watts, kWh, tipo de energía y su distribución. Además de conceptos geográficos que son factores claves para la poder implementar proyectos de energía solar como lo es: el tipo de clima, lugar o posición donde desean la implementación. E información acerca de los paneles solares como: su composición, capacidad, tamaños y su sistema de funcionamiento, al igual que las normativas que maneja CFE en estos proyectos, del mismo modo que las tarifas de los consumistas de energía eléctrica. También para su viabilidad tuvimos que recurrir a la cotización de costos, y su diversidad de atributos: como marca y confiabilidad, capacidad, gastos por envío, gasto de instalación, y dimensiones. Por lo que cada proyecto tendrá su costo y su TIR determinada a su necesidad e inversión. Para corroborar lo antes mencionado y conocido acudimos con un experto en el tema donde nos sintetizó el funcionamiento, factores de viabilidad e instalación y costos de los paneles solares, así como detalles para su eficiencia y aspectos técnicos que deben ser muy estrictos que teóricamente no habíamos adquirido. Así poco a poco nos forjamos una perspectiva de lo que lograremos con los paneles solares y el beneficio que estos tendrán para el cuidado del planeta a largo plazo dejando un legado a nuestros descendientes, dar una muestra de humanidad como huella ecológica de los establecimientos a sus consumidores y la región, así como la propagación de concientización por parte de las personas hacia el cuidado del medio ambiente y cultura ecológica que es hoy en día un tema muy relevante.


CONCLUSIONES

Los paneles solares son una tecnología muy noble para la humanidad por los beneficios, económicos, ambientales y sociales que nos brindan a largo plazo, por lo cual generaremos una tabla de Excel donde esta arrojará resultados de variables, económicas como, la TIR y VPN de la inversión por proyecto de acuerdo a su demanda de energía, y variables ambientales de las toneladas no emitidas anualmente por la implementación de paneles solares. Además, que esta base nos determinará el espacio en m2 que se abarcará con los paneles solares en base a su demanda de kWh.
Pacheco Ponce Jonathan, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Irma Martínez Carrillo, Universidad Autónoma del Estado de México

PROGRAMACIóN E IMPLEMENTACIóN DE PLC´S INDUSTRIALES A PROCESOS DE PRODUCCIóN


PROGRAMACIóN E IMPLEMENTACIóN DE PLC´S INDUSTRIALES A PROCESOS DE PRODUCCIóN

Pacheco Ponce Jonathan, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Irma Martínez Carrillo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

El proyecto consiste en redactar un manual de programacion y uso de dos modelos diferentes de PLC´S s7-200 y LOGO 0 los cuales tienen su diferencia en el año de su producción, con ello se pretende poder utilizar los dos dispositivos de la misma manera con los componentes de cada uno. Tambien el anexo de  una sección que explica la logica de  la programación en escalera en los programas step-7 y LOGO soft comfort v 8.2, las practicas hechas con los dos dispoditivos seran las mismas y de esta manera se busca poder dar una introducción del uso de los PLC´S, diagramas electricos, programación y conexiones .  



METODOLOGÍA

Se nos dio un cusro de PLC´S LOGO con el cual partimos para poder programar el otro modelo de PLC. Se realizaron practicas similares en los dos PLC´S con el fin de resaltar sus deferencias y similitudes señalando los pasos de programación, subida  y conexión, todo esto con el fin de que nuestro manual resulte util para presonas que no estan relaciónadas con la programacion y uso de los PLC´S. A su vez se revisan las caracteristicas de los programadores y las caracteristicas del dispositivo mismo entre ellos el numero de conexiónes, si tiene alimentación propia o si debe ser externa. Todas estas observaciónes quedarán capturadas en el manual y utiles para instruir a cualquier persona que lo necesite.  


CONCLUSIONES

Los resultados esperados con el proyecto es que los alumnos que tengan cero conocimiento de programación para PLC´S se relaciónen con las practicas  presentadas y con las capturas de pantalla de la programación en el manual, tambien que aprendan a interpretar la simbologia y los esquemas de conexion que tambien estan explicados en el mismo, al final  despues de haber cursado por todo el manual, el alumno podrá realizar practicas en diferentes tipos y modelos de PLC´S para posteriormente usarlos en proyectos para la  industria.
Páez Ortega Oswaldo Emmanuel, Instituto Politécnico Nacional
Asesor: Dr. Carlos Artemio Coello Coello, Centro de Investigación y de Estudios Avanzados (IPN)

SERVICIO WEB PARA LA COMPARACIóN DE RESULTADOS DE ALGORITMOS EVOLUTIVOS DESARROLLADOS EN EL CINVESTAV


SERVICIO WEB PARA LA COMPARACIóN DE RESULTADOS DE ALGORITMOS EVOLUTIVOS DESARROLLADOS EN EL CINVESTAV

Páez Ortega Oswaldo Emmanuel, Instituto Politécnico Nacional. Asesor: Dr. Carlos Artemio Coello Coello, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, diversas industrias y ámbitos académicos se han visto beneficiados de la computación y de sus herramientas que ésta ofrece. Ejemplos de industrias y disciplinas son finanzas, ventas, medicina, biología, videojuegos entre otras. En casi todo lugar a donde dirijamos la mirada siempre habrá un aspecto computacional involucrado. Sin embargo, también existen problemas que necesitan un tratamiento especializado. En física, para poder simular el comportamiento de la colisión entre átomos es necesario de recurrir a ecuaciones diferenciales de múltiples variables las cuales necesitan ser resueltas mediante métodos numéricos ya que resolverlas de forma manual sería completamente impráctico. Si bien bastantes métodos numéricos son suficientes para resolver problemas que se llegan a presentar, muchas veces no son suficientes para resolver otros tipos de problemas. Tales como ¿cuáles son las posibilidades que un viajero tiene para viajar en ciudades distintas sin viajar demás? Este problema se conoce como el problema del viajero y es un problema de optimización combinatoria muy estudiado en las ciencias computacionales el cual es considerado un problema NP completo. El problema que sale de aquí es la alta complejidad computacional que implica resolver este problema mediante algoritmos tradicionales, es decir, determinísticos. Es aquí donde las heurísticas entran en el juego para resolver este tipo de problemas de manera más eficiente, pero sacrificando la precisión. En el laboratorio de computación del CINVESTAV se estudian este tipo de problemas mediante algoritmos evolutivos los cuales están basados en las teorías evolutivas que biólogos desarrollaron para explicar el proceso de evolución en los seres vivos tales como George Luis Leclerc, August Weisman o Charles Darwin. Así que el evaluar los algoritmos que los investigadores desarrollan es fundamental para determinar si su trabajo está bien hecho o no. Aunque la Dra. Raquel Hernández Gómez desarrolló un software que es capaz de evaluar los resultados de sus algoritmos mediante un considerable número de indicadores de convergencia, distribución, uniformidad y cardinalidad, es necesario aumentar el número de indicadores disponibles y que el acceso a este sistema sea más rápido, fácil y con un resultado tangible mediante un servicio web que permita cargar los archivos de resultados, seleccionar los indicadores, evaluar dichos resultados con el software de la Dra. Raquel y obtener resultados de la evaluación en una tabla cuyo formato de archivo es Latex.



METODOLOGÍA

Para poder llevar a cabo el aumento de indicadores se tuvo que estudiar de qué se tratan los algoritmos evolutivos mediante la lectura de 2 capítulo de un libro sobre computación evolutiva y algoritmos genéticos. En ellos se describía cómo está conformada la computación evolutiva a través de representaciones, población, una función que se encarga de evaluar el comportamiento de la población (fitness function), métodos de selección, operadores de reproducción, condiciones de detención para el algoritmo, la diferencia entre computación evolutiva y optimización clásica y algoritmos evolutivos y sus variantes. Una vez aprendido lo anterior, se procedió a extraer la funcionalidad del proyecto la cual es la encargada de evaluar los resultados de los algoritmos mediante indicadores que ya sea por archivos de referencia, valores constantes o sin información extra entregan un valor que indica la calidad de los resultados. En esta fase se implementaron los siguientes indicadores los cuales son evaluadores de convergencia: M1 DELTAP IGD-NS SIGMA TAU KAPPA OBJIGD Al terminar de implementar estos indicadores en el proyecto, se procedió a diseñar el servicio web que se encargará de hacer el uso del proyecto anterior de manera amigable y accesible a usuarios de la red de internet en el CINVESTAV. El uso del proyecto es el siguiente. Cargar los archivos a evaluar con el formato MOEA_MOP_#DIMENSIONES_#archivo.ext. Marcar qué indicadores serán los usados para la evaluación y detallar la información extra en caso de que sea necesario. Corregir información en caso de así se requiera. Descargar la tabla generada en formato Latex. Idealmente, el sistema va a estar montado sobre la red del CINVESTAV para ser usado por los usuarios de esta red y tengan acceso a la herramienta. Los problemas que estuvieron presentando en el desarrollo del servicio es qué tecnologías se iban a usar ya que se estuvieron contemplando JavaScript, HTML5 y CSS para la interfaz visual y su funcionamiento mientras que del lado del servidor se estuvo considerando PHP y Python y para la comunicación entre el frontend y backend el uso websockets o un servidor web Apache eran las opciones. Después de diversas pruebas en la última semana del programa Delfín, se decidió por usar Interfaz visual HTML5 JavaScript Backend PHP Comunicación Servidor Apache Estas tecnologías fueron seleccionadas en función de los requerimientos finales del servicio web en la última semana del verano Delfín.


CONCLUSIONES

A lo largo de este programa, se comprendieron los fundamentos de la computación evolutiva y de los algoritmos evolutivos, así como su evaluación en función de 4 factores: convergencia, distribución, uniformidad y cardinalidad. Aunado a ello, se adquirieron otro tipo de habilidades como la comunicación, paciencia y proactividad. El estado actual del sistema se encuentra con la interfaz visual completa y el sistema montado sobre el servidor Apache mientras que la adquisición de los archivos del usuario y su tratamiento está aún en desarrollo. Por otra parte, la implementación de los indicadores mencionados ya está integrado en el Branch del proyecto.
Palacios Valdez Elda Pablina, Instituto Tecnológico de Culiacán
Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora

CHABAZITA PARA LA REMOCIóN DE NARANJA DE METILO EN SOLUCIóN ACUOSA


CHABAZITA PARA LA REMOCIóN DE NARANJA DE METILO EN SOLUCIóN ACUOSA

Palacios Valdez Elda Pablina, Instituto Tecnológico de Culiacán. Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Se realizó la remoción del colorante naranja de metilo usando chabazita natural y tratada con KOH y óxido de zinc, para remover el naranja de metilo en solución acuosa, en tiempos de 30 minutos a 3 horas. Se utilizaron las técnicas de UV-Vis, microscopia electrónica de barrido (MEB) y espectroscopia de infrarrojo por transformada de fourier (FTIR). Se concluyó que la zeolita tratada (ZT) es una alternativa para la remoción de naranja de metilo.



METODOLOGÍA

1.Obtención de la zeolita del municipio Divisaderos, Sonora. 2.Preparación de las muestras. *La zeolita se trituró en un mortero de porcelana y fue tamizada a 100 mallas hasta obtener polvo fino (ZN) *La ZN fue tratada con una solución de KOH y posteriormente fue colocada en una solución de acetato de Zinc y finalmente tratada térmicamente. (ZT) *Se preparó una solución de naranja de metilo 10 ppm simulando agua contaminada. 3. Se llevó a cabo el estudio de la capacidad de remoción del naranja de metilo con ZN y ZT, analizando cada 30 minutos en un total de 3 horas. 4. Se realizó la caracterización de los materiales obtenidos por FTIR, MEB y UV-Vis.


CONCLUSIONES

•Esta investigación permitió evaluar el uso de la Zeolita tipo Chabazita en la eliminación del color del naranja de metilo en solución acuosa. •La chabazita sonorense cumple con el propósito de remoción, tanto la ZT como la ZN degradaron el naranja de metilo, mostrando mayor eficiencia la ZT. •De acuerdo a la morfología y los resultados del MEB el colorante quedó atrapado en la chabazita, cambiando la morfología a cristalino y más homogéneo en tamaño, así como el  color del material después de la remoción.
Palancares Sosa Maria Jose, Instituto Politécnico Nacional
Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE BIONANOCOMPOSITOS PARA APLICACIONES ESTOMATOLóGICAS BACTERICIDAS Y BACTERIOSTáTICAS.


SíNTESIS DE BIONANOCOMPOSITOS PARA APLICACIONES ESTOMATOLóGICAS BACTERICIDAS Y BACTERIOSTáTICAS.

Palancares Sosa Maria Jose, Instituto Politécnico Nacional. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Debido a que la higiene bucal es la clave para la prevención y preservación de la salud de dientes, encía y lengua y siguiendo las ventajas del manejo de plata en la medicina por su utilidad como elemento bactericida y bacteriostático, se ha desarrollado la idea de elaborar un bionanocomposito que sea coadyuvante para mantener la higiene bucal mediante el control de un blanco principal: Streptococcus mutans (presente en la microbiota oral) que constituye la primera causa de caries dental e infecciones bucales.



METODOLOGÍA

El bionanocomposito que se desarrolló debe sus características a la síntesis in situ de  nanopartículas de plata  formadas por la reducción de plata Ag(I) proveniente del nitrato de plata (AgNO3) en dilución acuosa. La síntesis de dichas nanopartículas fue realizada por dos métodos de reducción, en dos matrices de polímeros diferentes y con tratamiento aniónico y sin un tratamiento previo. El primer método consistió en una reducción química, se basó en la reportada por Ovalle et als (2013), donde con apoyo de un baño ultrasónico (Ultrasonic Cleaner AS5150B) las matrices se dejan impregnar de iones de plata en 5mL de una solución 3mM de nitrato de plata (AgNO3) a 40°C por 30 minutos, y posteriormente igual en condiciones ultrasónicas se agregan 5mL de una solución 20mM de NaBH4 previamente calentada a 40°C y se da un tiempo de reacción de 10 minutos. Seguido al tiempo de reducción se dio un lavado con agua desionizada y se dejó secar el apósito en la estufa a 50°C por 1 hora. El segundo método de obtención fue la biorreducción, basado en el reportado por López Iturbide et als (2013), donde los polifenoles presentes en el extracto acuoso de Camellia sinensis realizan la reducción de los iones del metal. Para ello se usó 5mL de una solución 1mM de AgNO3 en la cual las matrices ocupadas se dejan reposar 10 minutos y posteriormente se pasan a un baño de 2 horas en 5mL del extracto reductor (elaborado con 1.2g de hojas secas de Camellia sinensis y 100mL de agua desionizada). Posterior al tiempo de reducción se dio un lavado con agua desionizada y se dejó secar a 50°C por 24 horas. Las matrices o soportes ocupados para la fijación de nanopartículas fueron principalmente constituidos por celulosa, compuestos naturales como el algodón y sintéticos como el rayón (celulosa reconstruida) con poliéster. La importancia de que fueran o tuvieran componentes orgánicos (como la celulosa) se debe a que estos brindan una carga parcial electronegativa útil para que los iones de plata Ag+ se fijen de mejor manera en las fibras (por interacciones intermoleculares ion-dipolo de los grupos hidroxilo) además que los grupos funcionales de estas matrices brindan estabilidad en las nanopartículas de  plata evitando su crecimiento (a niveles micrométricos) y aglomeración. Debido a que la importancia de la fijación de los iones plata en la matriz es importante en las fibras, ya que se requiere que el apósito tenga un carácter bactericida y bacteriostático, además de tener una síntesis in situ y materiales electronegativos se buscó tratarlos químicamente para aumentar su electronegatividad y contrastar los valores de nanopartículas de plata presentes en las diferentes síntesis. El tratamiento químico consto de un baño de 20 minutos de las matrices en una disolución 0.5M de H2SO4 preparada mediante una solución 4M. Dichas las diferentes condiciones de síntesis se aprecia que se trabajaron con ocho muestras, etiquetadas de la siguiente manera: Síntesis de NP´s de Ag NaBH4 algodón Síntesis de NP´s de Ag NaBH4 sintética Síntesis de NP´s de Ag Camellia algodón Síntesis de NP´s de Ag Camellia sintética Síntesis de NP´s de Ag NaBH4 algodón H2SO4 Síntesis de NP´s de Ag NaBH4 sintética H2SO4 Síntesis de NP´s de Ag Camellia algodón H2SO4 Síntesis de NP´s de Ag Camellia sintética H2SO4 Cuando se tuvo la síntesis de todos lo bionanocompositos se procedió a realizar sus caracterizaciones por técnicas como: Espectrofotometría por Infrarrojo por Transformada de Fourier (FTIR), Difracción de Rayos X (DRX), Microscopio de Barrido (SEM) y Espectrometría de Dispersión de Energía de Rayos X (EDS). Debido al bajo porcentaje de concentración de plata presente con relación al peso (menor al 1%), los únicos métodos de caracterización que brindan información completa de la presencia de este elemento son el EDS y SEM. Las pruebas de funcionamiento del apósito con las nanopartículas de plata fueron probados en medios de cultivo de Streptococcus mutans, donde las características a probar fueron la acción bactericida y la acción bacteriostática. Se colocaron muestras de dimensiones aproximadas de 5mm*5mm de las matrices blanco y solo de aquellas en las que las pruebas de caracterización por EDS arrojaron la presencia de Ag (muestras 1,2,3,4 y 8). Los resultados de las muestras fueron negativos ya que no se presento un halo de inhibición, sin embargo se plantea la posibilidad de que se debe al bajo porcentaje de plata presente en los apósitos. Por lo anterior se procederá a realizar otra síntesis manejando hidróxido de sodio (NaOH) 1M y cloro acetato de sodio (C2H2ClO2Na) 1M, tratamiento químico cuyo objetivo es lograr una carga aniónica en las matrices diferente al H2SO4 y que ya es reportado como eficaz por la literatura.


CONCLUSIONES

Los conocimientos obtenidos durante esta estancia abren un nuevo panorama de la biomédica y el uso de la nanotecnología, ya que esta última brinda la posibilidad de conferir a materiales ya existentes nuevas características para potencializar propiedades funcionales ya presentes en elementos a nivel macroscópico. El uso de nanotecnología en el campo de la salud reduce el contacto y uso de sustancias químicas en las cavidades de los humanos y brinda nuevas alternativas de tratamientos en este caso para la higiene bucal. A su vez se espera que aumentando el porcentaje de concentración de Ag con relación al peso del apósito se presente la actividad bactericida y bacteriostática deseada.
Palazuelos Espinoza Gilberto, Universidad Autónoma de Occidente
Asesor: Dr. Paola Valenzuela García, Universidad Autónoma de Occidente

OPTIMIZACION Y ESTANDARIZACIÓN DE LA FORMULACIÓN BASE DE LA MASA PARA LA ELABORACIÓN INDUSTRIAL DE UN SNACK TIPO CHURROS CON HARINA DE GARBANZO


OPTIMIZACION Y ESTANDARIZACIÓN DE LA FORMULACIÓN BASE DE LA MASA PARA LA ELABORACIÓN INDUSTRIAL DE UN SNACK TIPO CHURROS CON HARINA DE GARBANZO

Palazuelos Espinoza Gilberto, Universidad Autónoma de Occidente. Asesor: Dr. Paola Valenzuela García, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

A pesar de que Sinaloa es el estado con mayor producción de Garbanzo Cicerarietinumen México, su consumo per capita nacional y local es muy bajo debido a razones diversas como diferencias de cultura gastronómica y además escaso o nulo conocimiento de sus bondades nutricionales las cuales hacen falta fomentar.El garbanzo es alto en proteína pero al mismo tiempo bajo en el contenido de grasas saturadas y rico en fibra, por lo que contribuye a regular el colesterol, esto por ser una fuente de hidratos de carbono de absorción lenta, que producen una asimilación gradual de la glucosa, esto evita el desequilibrio de los niveles de azúcar, también conteniendo fibra y siendo libre de gluten esto favorece a un determinado grupo de personas que son alérgicas al gluten (celiacas) y a personas que quieran mantener una alimentación adecuada para distintas especificaciones clínicas. Por todo lo anterior expuesto, es necesario iniciar la industrialización del garbanzo en México, esto permiría además generar valor agregado de este y ayudará a impulsar el desarrollo económico de nuestro Sinaloa. En el mercado existen productos alimenticios industrializados que solo satisfacen la saciedad en vez de dar productos saludables altos en proteína y nutrientes. Es sin duda, que el mercado internacional de estos productos se incrementa cada día, sobre todo los alimentos rápidos tipo snack que cumplen su función como comida rápida (fast food) pero no como alimento.  Por lo tanto, se debe de tener una gama mas amplia de productos tipo snack saludables. La propuesta del presente trabajo de investigación fue estandarizar una formulación base de la masapara la elaboración industrial de un snack tipo churros con harina de garbanzo, para una microempresa del giro agroalimentario de reciente creación en la Cd. de los Mochis, Sinaloa, llamada Desarrollo de multiproductos de Sinaloa A.C de C.V. (DEMULSIN) que tiene como propósito impulsar la industrialización del garbanzo.



METODOLOGÍA

Para el presente proyecto, se realizó un diseño experimental basado en 3 repeticiones de procesado de 4 diferentes fórmulas de masa para churros los cuales se identificarán como (fórmula 1, fórmula 2, fórmula 3 y fórmula testigo). Para elpesado y mezclado de los ingredientes secos  se utilizó una báscula digital (marca Tefal) y una mezcladora (marca Kegma) respectivamente. Las cantidades utilizadas de los ingredientes secos como: fécula de maiz, ácido cítrico y sal fueron iguales para todas las formulaciones, solo que cada fórmula (fórmula 1, fórmula 2, fórmula 3 y fórmula testigo) contenian distintas mezclas y porcentajes de harinas (garbanzo y maiz), por lo tanto el contenido de agua fue distinto para todas. Los ingredientes para cada fórmula se mezclaron por 15 minutos luego siendo amasada manualmente hasta obtener 1 bola de masa, porteriormente fue pesada en báscula y en seguida fue metida en un extrusor (marca Tostelusa) el cual le daba la forma de churro a la masa y el producto extruido (churros) caian a la tina de freido (marca Tostelusa)con la ayuda de una espátula para hacer los cortes de churros manualmente (7 cm)  con un total de 3 cortes por freido de fórmula. Se probaron diferentes temperaturas(185, 190 y 195 ºC) y diferentes tiempos (4, 4.5 y 5 minutos) de freido. Un proceso adicional fue la eliminación de aceite excedido mediante lacentrifuga (marca Tostelusa) por 3 minutos donde se les fué removido el aceite en exceso, se sacaron para ser nuevamente pesados en la báscula y finalmente casi para terminar se realizó el sazonado, con un sazonador(marca Tostelusa)  con una mezcla de sal y acido cítrico por 1 minutos. Por último fueron embolsados y sellados con sus respectivas etiquetas y datosde producción (Tipo de fórmula, valor de temperatura/tiempo y fecha de producción correspondientes). Se realizaron pruebas sensoriales con 6 panelistas que evaluaron todas las 4 formulaciones de churros juntos y calificaron su apariencia, textura, sabor y aceptabilidad general. Los resultados arrojados sugerirán la formulación mejor calificada y la fórmula elegida será estandarizada y propuesta a la dirección de DEMULSIN


CONCLUSIONES

Se concluyóen las pruebas  preliminares que la temperatura mejor calificada fue de 195 grados y en un tiempo de freido de entre 4-5 minutos dependiendo la fórmula. Respecto a la apariencia y sabor calificados en la evaluación sensorial no parecieron tener mucha diferencia entre las fórmulas evaluadas. Sin embargo, la textura fue la que detonó en gran medida la calificación de la aceptabilidad general. Sin poder mencionar a detalle la fórmula y respetando los derechos de privacidad de la empresa, se limita solo a concluir que aparentemente las calificaciones de las de las pruebas sensoriales de todas las fórmulas sugieren la fórmula con menor porcentaje de harina de garbanzo.
Palma Alvarez Miguel Arturo, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA


IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA

Aguilar Rosas Leonardo Adrián, Instituto Politécnico Nacional. Cancino Escobar Manuel de Jesús, Instituto Tecnológico de Tuxtla Gutiérrez. Palma Alvarez Miguel Arturo, Instituto Tecnológico Superior de Los Ríos. Sánchez Sánchez Orlando Miguel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Hoy en día resulta una tarea algo compleja el conocer con exactitud el momento adecuado para cambiar un rebaño de un terreno, pero, ¿Por qué decimos eso? Bueno, se entiende que para mantener un rebaño en un determinado terreno se debe contar con una pastura en cantidad y calidad, para que así el rebaño tenga el alimento suficiente, y en buen estado, ¿En qué momento se requiere cambiar el rebaño de terreno? La respuesta es cuando ya no existe la pastura suficiente para alimentarse, y, ¿Qué me puede ayudar a saber eso?, como una solución surge este proyecto que consiste en realizar un sistema digital encargado de analizar la pastura del terreno a través de imágenes, así es, estamos hablando del procesamiento de imágenes ¿Por qué usarlo? Con el sistema se podrá obtener la información necesaria para determinar la cantidad de pastura buena que queda en el terreno y esa información podrá ayudar a tomar la decisión de cambiar al rebaño en el momento correcto.



METODOLOGÍA

Obtención de imágenes Las imágenes son obtenidas con la ayuda de un teléfono celular, el cual se coloca a los borregos en el cuello, el teléfono cuenta con una aplicación previamente programada para tomar una cantidad de 30 imágenes con un lapso de tiempo entre la captura de cada imagen de 2 minutos aproximadamente. El proceso de la toma de las imágenes tiene un tiempo estimado de 1 hora, al finalizar el proceso una persona encargada recogerá los teléfonos para extraer las imágenes en un ordenador para realizar el procesamiento de las imágenes.   Procesamiento y Análisis de las imágenes Cuando de procesamiento de imágenes se trata, estamos hablando de un sistema o programa lo bastante complejo para dicha tarea, en la actualidad hay lenguajes de programación que permiten hacer este tipo de actividades, un ejemplo de ellos lo es Matlab, Python, entre otros; en este proyecto se está utilizando Python debido a que brinda herramientas más adecuadas para las tareas que se necesitan realizar en el proyecto. Las imágenes se someten a un programa realizado en Python que se encarga de obtener la ubicación GPS de donde fueron tomadas, de igual forma analiza las imágenes y las divide por canal RGB, posteriormente realiza un análisis estadístico para determinar la tonalidad de cada canal/color y con ello se establece un rango con el que se puede determinar el estado de la pastura. Como parte final, el código guarda la información en archivos TXT para ser enviados a la nube.


CONCLUSIONES

Contando con las herramientas necesarias para la culminación del proyecto, se realizaron una serie de pruebas tomando las fotos directamente desde el teléfono sujetado al cuello del borrego para poder observar la calidad de las imágenes tomadas. De la misma manera se llevó a cabo el análisis de las imágenes mediante el sistema realizado donde se obtuvieron resultados dando la ubicación geográfica de la imagen, el estado de la pastura, y mediante estos datos se pudo calcular de manera porcentual el estado de la muestra de terreno que se ocupó para realizar una primera prueba de este proyecto donde los datos obtenidos fueron enviados a la nube para ser consultados por el usuario y tomar mejores decisiones.  
Palomares Barragán Ludwin Felipe, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

FPGA


FPGA

Aguayo Cázares Lizeth Alejandra, Instituto Tecnológico de Ciudad Juárez. Palomares Barragán Ludwin Felipe, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Jose de Jesus Rangel Magdaleno, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Un FPGA (field-programmable gate array) es un dispositivo que está formado por bloques lógicos cuya interconexión y funcionalidad puede ser configurada mediante un lenguaje especializado HDL (hardware description language). Dicha configuración puede ser en el momento, lo cual hace que las aplicaciones sean directas. Además, estos dispositivos manejan velocidades muy altas de adquisición y procesamiento y, a diferencia de los microcontroladores, el procesamiento puede ser paralelo en vez de secuencial. Actualmente los aparatos electrónicos como los celulares suelen tener uno o más FPGA’s para realizar las operaciones de alto consumo de energía e incrementar la vida de la batería. Las aplicaciones de estos dispositivos son numerosas y necesarias para la industria electrónica, pero el configurar un FPGA puede resultar difícil para aquellos que no se dediquen a la rama de ingeniería en software. Adicionalmente, muchos de los recursos de las tarjetas se pueden desperdiciar por un direccionamiento deficiente a la hora de configurar los circuitos que se requieren para una aplicación en específico. Por ello, es de gran utilidad gestionar los recursos con los que cuenta el FPGA de manera eficiente, y una manera adecuada para realizar esto es direccionando desde el diseño para la aplicación que se requiera; desarrollando una IP (Intellectual Property) específica.



METODOLOGÍA

Metodología Como objetivo final, se busca desarrollar una IP sencilla para adquisición y procesamiento de señales analógicas, para lo cual se debe iniciar con las bases para llegar hasta dicho desarrollo. Primero se realizará la búsqueda de información, hoja de datos, configuración y funcionamiento del FPGA (DE1-SoC, que es con el que se estará trabajando). Seguido a esto, se estudiará dicho FPGA, así como su entorno y el software para su configuración (Quartus). Después, se desarrollarán prácticas que incluyan el uso del procesador del FPGA para entender cómo realizar la comunicación con el HPS (Hard Processor System). A la par, se estudiarán las bases del procesador del FPGA. Añadido a esto, se realizará la comunicación ARM-FPGA-Computadora Host, mediante una imagen cargada del sistema operativo Linux LXDE en el FPGA. Se va a interactuar con el entorno del FPGA con el sistema operativo cargado, utilizando periféricos. Después se probarán algoritmos para adquisición de datos en el FPGA, experimentando con distintos diseños y procedimientos que se propondrán. Se continuará con la prueba y experimentación de algoritmos. Finalmente, se realizará la implementación de algoritmos para la adquisición y procesamiento de datos, y se documentarán los resultados.


CONCLUSIONES

Conclusiones (resultados obtenidos o por obtener). Los resultados obtenidos hasta el momento se mencionarán a continuación en forma de lista: Comunicación en puerto serial con la tarjeta de desarrollo Ejecutar una aplicación desde una computadora host Elaboración las practicas propuestas por Intel para el uso del ARM Implementación de descripción ADC-DAC para aplicar una transformación de señal trifásica a plano estacionario.
Parra Carmona Karen Itzel, Instituto Politécnico Nacional
Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío

SíNTESIS DE NANOPARTíCULAS DE PLATA PARA AUMENTAR LA CAPACIDAD CONDUCTIVA DE LOS ELECTRODOS DE UN ECG


SíNTESIS DE NANOPARTíCULAS DE PLATA PARA AUMENTAR LA CAPACIDAD CONDUCTIVA DE LOS ELECTRODOS DE UN ECG

Parra Carmona Karen Itzel, Instituto Politécnico Nacional. Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

En el mundo, cada cuatro segundos ocurre un infarto agudo de miocardio y cada cinco segundos un evento vascular cerebral, y al menos una de cada tres personas pierde la vida por alguna patología relacionada con enfermedades cardiovasculares. Para el 2017, el Instituto Nacional de Estadística y Geografía (INEGI) tiene a las ECV como la principal causa de muerte de los mexicanos, seguidas por la diabetes mellitus y los tumores malignos. Aunado a este hecho, las ECV pertenecen al grupo de las cuatro enfermedades no transmisibles más importantes (siendo las tres restantes el cáncer, las enfermedades respiratorias crónicas y la diabetes) las cuales, según la Organización Panamericana de la Salud representaron para el periodo 2006 - 2015 una pérdida acumulativa del PIB de 13540 millones de dólares en cuatro países de la región de las Américas: Argentina, Brasil, Colombia y México.   Durante el verano de investigación se desarrollará un modelo de electrodo que use las propiedades de los nanomateriales para mejorar la adquisición de señal para un ECG, de manera que posteriormente se pueda desarrollar un sistema de monitoreo cardiaco (inalámbrico) con DI, DII y DIII, fungiendo como un auxiliar para el diagnóstico temprano de cardiopatías y como un promotor de un estilo de vida saludable, ya que resultaría útil para ayudar a que los deportistas mantengan un ritmo cardiaco ideal durante sus rutinas de ejercicio.



METODOLOGÍA

Síntesis de Nanopartículas Materiales: Balanza y vidrios de reloj Espátula Vasos de precipitado Agitador Magnético Termo-agitador Micropipeta Tubos de ensayo Centrifuga Reactivos: Nitrato de Plata (AgNO3) Carbonato de Sodio (Na2CO3) Ácido Ascórbico (C6H8O6) Desarrollo: La síntesis de nanopartículas de plata se realizó por el método de coprecipitación, el AgNO3 y el Na2CO3 fueron usados como precursores y el C6H8O6 como agente reductor. El proceso inició preparando 40ml de AgNO3 0.59M en agua desionizada, a esta solución se le agregó 0.1g de C6H8O6, esta adición originó un cambio de color de transparente a blanquizo; simultaneo a esto se preparó 40ml de Na2CO3 0.29M en agua desionizada, esta última solución se añadió a la primera gota a gota, obteniendo con ello cambios de coloración inestables que van de blanco, amarillo a gris a partir de este  momento la muestra se agitó durante 5hrs. con lo que se generó un precipitado gris blanquizo. El precipitado se separó del medio acuoso por centrifugación y otras impurezas fueron lavadas tres veces con alcohol en la misma maquina a 4500rpm por 5 min. Para finalizar los residuos se extrajeron de los tubos de ensayo y se secaron en el horno a 110°C durante 15hrs. Resultados: Después de obtener la muestra del vaso de precipitados, se cuantificó 2.1g de peso neto, del cual se tomó 0.1g para someterla a pruebas de difracción de rayos x. Los picos de difracción a  en 38.26°, 44.41° y 64.47° se pueden atribuir a los planos cristalográficos (1 1 1), (2 0 0) y (2 2 0) respectivamente, según la carta cristalográfico de nanocristales de plata cúbicos centrados en la cara (JCPDS 89-3722). Diseño del Electrodo Se consideró que los electrodos sean compatibles con los cables de un electrocardiógrafo convencional de las derivaciones del plano frontal, para ello se diseñaron cuatro electrodos idénticos de nueve piezas, que se conectarían dos en la parte superior de cada antebrazo y dos en la parte inferior década astrágalo. Se fabricaron cuatro electrodos de plata sin dopar y cuatro electrodos de plata dopados con los 2g de nanopartículas de plata que se sintetizaron en el laboratorio. El diseño piloto presento dos fallas principales, la primera se debe a que la presión de la pulsera de resorte y la forma del electrodo provoca el sistema se volteé y la cara con la pieza de plata no quede en contacto con la piel, este defecto se corregirá con el diseño de una pulsera ajustable que sea más ancha y quitando los tres resortes de la caja, reduciendo con ello su tamaño. La segunda falla está relacionada con la zapata, ya que cuando se realizaron las pruebas, la señal generada en el electrocardiógrafo resulto pobre y muy ruidosa, debido a la conexión inestable de la zapata al cabezal del cable del electrocardiógrafo y a la calidad y tipo de material de la zapata. Debido a que el prototipo del electrodo falló, se realizaron las pruebas con los electrodos de plata fabricados y las pinzas del electrocardiógrafo. En total se realizaron cuatro pruebas para medir DI, DII y DII de un individuo de 21 años masculino en reposo. Es fácil ver que la señal obtenida con los electrodos del ECG limitados al tamaño de los electrodos de plata fabricados para esta investigación es más ruidosa que cualquiera de las otras señales, lo que demuestra que usar plata para los electrodos ayudaría considerablemente a disminuir el tamaño de la pieza metálica que debe estar en contacto con la piel.  Por otro lado, al comparar la señal obtenida con los electrodos dopados nanopartículas de plata contra las obtenidas con los electrodos de plata sin dopar o contra las obtenidas con las pinzas convencionales de ECG la señal se amplificó 0.05mV aproximadamente, además se puede notar que la señal obtenida con los electrodos    dopados con las nanopartículas de plata  es más definida debido a que la línea en este ECG se ve más gruesa que las demás, el  electrocardiograma obtenido fue más sensible, esto ayudo a  que las   características del ECG se mostraran  más definidas, este punto es más evidente si se observa con atención la onda T.


CONCLUSIONES

Con base a los resultados obtenidos, se confirma que el diseño de nuestro electrodo mejora la adquisición de la señal para un ECG manteniendo un tamaño cómodo, esencial para el posterior desarrollo de nuestro sistema de monitoreo. Por otro lado, las pruebas con el electrodo permitieron conocer las fallas del sistema, se plantearon las mejoras y se esperan mejores resultados para el siguiente prototipo.
Parra Lopez Gerardo, Instituto Tecnológico de Toluca
Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)

SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO


SISTEMA PARA EL MONITOREO Y TOMA DE DECISIONES A PARTIR DE VEHíCULOS NO TRIPULADOS (DRONES) EN EL áREA RURAL DEL DEPARTAMENTO DEL ATLáNTICO

Lara Olvera Sergio Armando, Instituto Tecnológico de Reynosa. Niño Peña Ana Laura, Instituto Tecnológico de Reynosa. Parra Lopez Gerardo, Instituto Tecnológico de Toluca. Asesor: M.C. Efren Humberto Garcia Clavijo, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el sector agrícola surgen problemáticas que ocasionan un gasto innecesario y un aumento potencial del deterioro medioambiental por agotamiento de la fertilidad o del agua disponible para riego, y por contaminación de suelos y acuíferos, entre otros. Este sector del departamento del Atlántico se ha visto estancado en sus niveles de producción, calidad y cantidad debido a las formas tradicionales de manejar los cultivos, por lo que se ha comenzado a implementar modelos de agricultura desarrollados en el exterior. La variabilidad espacial de las propiedades del suelo y de los rendimientos de los cultivos han sido reconocidos dentro de estos modelos de agricultura, dando origen a nueva tecnología llamada Agricultura de Precisión (AP) que permite medir y manejar la variabilidad espacial para aumentar la eficiencia productiva y disminuir el impacto ambiental. Tomando en cuenta que la demanda de productos va en aumento debido al crecimiento de la población, es indispensable realizar cambios que permitan que los cultivos logren cumplir con la demanda del mercado, además de comenzar a comercializar un producto de mayor calidad, beneficiando tanto al productor como al consumidor.



METODOLOGÍA

El resultado de una prueba piloto de investigación del SENA Centro Nacional Colombo Alemán CNCA en el área de Diseño de Productos Industriales y Diseño e integración de Automatismos Mecatrónicos, con el fin de desarrollar un sistema de monitoreo que permite innovar en los procesos de formación internos e impactando en el Centro para el Desarrollo Agroecológico CEDAGRO. Visualización y análisis de la información (mapas digitales). 1. Se planeó y seleccionó el área a cartografiar, se planificó la misión y las diferentes tareas (Participan aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se capturaron imágenes aéreas multiespectrales de su cultivo con aviones no tripulados (Drones), registrando la información de calidad de suelo, detención de plagas y rendimiento y crecimiento de cultivos del departamento del Atlántico. Generación y entrega de reportes. 1. Se realizaron notificaciones automáticas en tiempo real a los agricultores del estado de tierras y el resultado de decisiones de expertos mediante órdenes de trabajo fotografías, notas de voz o texto, que fueron registrados y almacenados en el Sistema de Monitoreo. (intervienen aprendices de Diseño e Integración de Automatismos Mecatrónicos como de Análisis y Desarrollo de Sistemas de información; Gestión de Redes de Datos; Producción Agropecuaria Ecológica; Gestión de Empresas Agropecuarias; Gestión de Recursos Naturales). 2. Se analizó la información obtenida con las conclusiones y resultados del procesamiento de las imágenes apoyados de las indicaciones de los expertos agroindustriales, y se tomaron decisiones sobre la base del conocimiento construido por aprendices y expertos profesionales en el tema, que permiten a los agricultores ser productivos y competitivos en el mercado.


CONCLUSIONES

Diseñar y proporcionar un sistema de toma de decisiones a partir de vehículos no tripulados para la gestión integrada de las explotaciones agrícolas es fundamental. Esto permite fortalecer competencias en el desarrollo tecnológico de productos que impactan positivamente a la comunidad con la solución de problemáticas reales, es decir; permite a los agricultores del Atlántico optimizar el rendimiento de la inversión y conservar los recursos naturales. La propuesta del Sistema para el monitoreo y toma de decisiones a partir de vehículos no tripulados (drones) en el área rural del departamento del Atlántico, se centra en proporcionar a los agricultores una herramienta profesional que mejora la producción, reduzca los costos y el riesgo, permitiendo concentrarse en lo importante, su productividad y negocio.
Parra Monzón Kimberly Maritsa, Universidad Autónoma de Sinaloa
Asesor: Dr. Leonel Soriano Equigua, Universidad de Colima

ALGORITMOS DE BEAMFORMING COORDINADO APLICANDO INVERSIóN DE MATRICES Y DESCOMPOSICIóN DE VALORES SINGULARES


ALGORITMOS DE BEAMFORMING COORDINADO APLICANDO INVERSIóN DE MATRICES Y DESCOMPOSICIóN DE VALORES SINGULARES

Bastidas Zavala German Adrian, Universidad Autónoma de Sinaloa. Parra Monzón Kimberly Maritsa, Universidad Autónoma de Sinaloa. Asesor: Dr. Leonel Soriano Equigua, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

Con el incremento del número de usuarios de telefonía celular y redes de área local inalámbrica, aunado a la demanda de altas tasas de transmisión y recepción en bits por segundo, es necesario modernizar o proponer nuevos sistemas de telecomunicaciones inalámbricos que puedan soportar las necesidades requeridas por los usuarios. En particular la capa física del sistema de telecomunicaciones puede tomar ventaja de la aplicación de antenas múltiples tanto en el transmisor como en el receptor, para ello es necesario estudiar e innovar técnicas o métodos de procesamiento de señal que permitan tomar ventaja para alcanzar altas capacidades de enlaces. En específico el enlace de bajada es el que demanda mayor tráfico entre los usuarios.



METODOLOGÍA

En busca de mejorar los enlaces de bajada para la transmisión de datos, se realizó una simulación de un sistema MIMO multiusuario con Beamforming Coordinado utilizando dos métodos: inversión de matrices y descomposición de valores singulares. Para llevar a cabo el algoritmo, es necesario realizar una serie de distintos pasos que se mencionan brevemente a continuación. Se inicializan los vectores de combining de los usuarios a vectores unitarios. Se define una matriz de canal efectiva. Se calculan los vectores de beamforming. Se verifica el criterio de parada. Como nota, el algoritmo termina cuando se cumple un número máximo de iteraciones o la diferencia entre el anterior y actual beamforming es muy pequeña. Se cuantifican los vectores de beamforming. El transmisor selecciona el índice del libro de códigos que corresponde al código que maximiza el SINR y así obtener el vector cuantizado. La cuantización se realiza por usuario. Se cancela la interferencia residual. Se envía el índice de libro de códigos, a través de un enlace de feedfordward limitado. El receptor recibe el índice, se extrae el vector del libro de códigos correspondiente al índice y se calcula el vector combining empleando MRC. Como parte final de las simulaciones realizadas se obtuvieron gráficas de desempeño SNR vs sumrate, las cuales permiten observar que entre mayor SNR exista, la transmisión de datos alcanza mayores velocidades en bits por segundo.


CONCLUSIONES

El objetivo principal de este verano científico, consistió en analizar y programar métodos eficientes para el cálculo de los vectores de beamforming y combinación en un sistema MIMO multiusuario involucrando CBF (Beamforming Coordinado), aplicando los métodos de inversión de matrices y descomposición de valores singulares. Los métodos revisados contemplan cuantización de baja complejidad y se desarrollaron en una plataforma de simulación a través del software Matlab. Al término de la estancia se puede concluir que es de vital importancia mantenerse actualizado en los diversos temas acerca de las telecomunicaciones, así como, conocer el proceso que se lleva a cabo en la transmisión de datos de las diversas tecnologías de uso diario que tienen un gran auge actualmente. Cabe destacar que parte de los términos empleados en esta investigación eran totalmente desconocidos para nosotros ya que no estábamos tan adentrados al área de telecomunicaciones.
Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Parra Reyes Angel Sahir, Instituto Tecnológico de Culiacán
Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional

DISEñO DE UN BUGGY


DISEñO DE UN BUGGY

Armenta Flores Miguel Antonio, Instituto Tecnológico de Culiacán. Flores Romero Jose Carlos, Instituto Tecnológico de Culiacán. Parra Reyes Angel Sahir, Instituto Tecnológico de Culiacán. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La idea de realizar un Buggy como parte de la linea de investigacion de sistemas automotrices fue para poder aprender a familiarizarnos con los diferentes aspectos que tiene un sistema automotriz haciendo analogia a un carro que es el perfecto ejemplo de tal sistema. Con este proyecto aplicariamos todos los conocimientos aprendidos de nuestra carrera, y en base a la experimentacion sabriamos en que ciertos campos de la ingenieria teniamos nuestras debilidades para poder trabajar en ellas y mejorarlas con ayuda del investigador.



METODOLOGÍA

La metodologia que utilizariamos era hacer el proyecto lo mas sencillo posible siguiendo las indicaciones de nuestro investigador, ya que hacer un proyecto mas complejo implicaria hacer un presupuesto con el cual no contabamos y conocimientos mas avanzados sobre el tema.  El proyecto seria con todas las partes que utiliza una cuatrimoto en sí, con la unica diferencia que seria el armazon o carroceria del Buggy, el motor con el cual contariamos seria un motor de moto de 250cc italika.


CONCLUSIONES

El proyecto se trabajó con todas las herramientas que se nos proporcionó en la escuela, lamentablemente no pudimos concluir el proyecto debido a que no se pudieron conseguir ciertas partes para el Buggy, pero en general aprendimos a como montar un direccion mecanica, como era el sistema de carburacion de un motor de moto, a como saber leer un diagrama electrico de una moto y a practicar con las herramientas de trabajo con las que contabamos. 
Parra Valdez Manuel, Universidad de Guadalajara
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO


DESARROLLO DE NUEVAS TéCNICAS DE DIAGNóSTICO NO INVASIVO

Cortes Martinez Amairani Yamileth, Instituto Politécnico Nacional. España García Isela Tsugey, Universidad de Guadalajara. Miranda Landeros Josue, Instituto Politécnico Nacional. Parra Valdez Manuel, Universidad de Guadalajara. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La diabetes es una enfermedad crónica que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce (OMS, 2016). En México y en el mundo, la diabetes es una de las enfermedades cuya tasa de mortalidad es de las más altas. De acuerdo con la Organización Mundial de la Salud (OMS), más del 80% de las muertes registradas, mayormente en países de ingreso mediano y bajo, son causadas por esta enfermedad, y asegura que estas cifras podrían duplicarse en los próximos 10 años, siendo para el año 2030 la séptima causa de mortalidad en el mundo. Entre algunas de las causas procedentes de esta enfermedad se encuentran: infarto al miocardio, accidentes cerebrovasculares, amputación de miembros inferiores, neuropatías, pérdida de agudeza visual e insuficiencia renal. Por lo anterior, en este verano de investigación científica se desarrolló un prototipo para dar pulsos de energía al pie, y otro para mano, que permite aumentar o disminuir la temperatura en el miembro y así, utilizando una cámara infrarroja poder visualizar la circulación sanguínea y su respuesta ante un choque térmico. Este prototipo está diseñado para pacientes diabéticos, ya que, de este modo, se podrán realizar pruebas constantemente para observar la circulación sanguínea y así tomar acciones que ayuden a prevenir o disminuir algunos de los padecimientos causados por la diabetes mencionados anteriormente.



METODOLOGÍA

Se construyó un prototipo para pie que consiste en un soporte hecho de aluminio y madera de tal manera que amolde a la forma del pie. Se colocó una placa de aluminio anodizado que abarca la región de las puntas de los dedos del pie a la región del metatarso, bajo esta placa de aluminio anodizado se colocaron cuatro celdas peltier TEC1-12706 a 12V y 3A conectadas en un arreglo en serie de dos celdas peltier que se encuentran en paralelo con el arreglo serie de otras dos celdas peltier. Las celdas peltier se calientan de un lado y enfrían del otro según sea el sentido de la corriente que circule a través de ellas. La temperatura de la cara inferior es regulada mediante dos disipadores de calor de cobre y dos ventiladores PAPST MULTIFAN 3314 S a 24V conectados en un arreglo en paralelo. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con un puente H IBT-2 con un voltaje de entrada de 6V-27V y una corriente máxima de 43A, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa de aluminio. El circuito se alimentó con una fuente de poder SORENSEN  XPF 60-20D con dos salidas a 60V-20A máximo. El prototipo para la mano se construyó de aluminio y madera. Se colocó una placa de aluminio anodizado amoldado para los dedos de la mano que abarcan las falanges media y distal. Bajo la placa de aluminio se colocó una celda peltier TEC1-12706 a 12V-3A. La celda peltier se colocó sobre un disipador de calor de cobre y se utilizaron 2 ventiladores SUNON a 12V en paralelo para regular la temperatura. El tiempo de enfriamiento y calentamiento se controló mediante un programa elaborado en el software de Arduino e implementado en un microcontrolador Arduino Nano y la dirección de la corriente con dos módulos relevadores alimentados a 5V, se colocaron dos sensores de temperatura LM35 para medir la temperatura de la placa. El circuito se alimentó con una fuente de poder SORENSEN XPF 60-20D con dos salidas a 60V-20A máximo. La prueba se realizó bajo condiciones de temperatura ambiente (25°C) y para esta, el paciente colocó la extremidad correspondiente en el soporte, se comenzó a enfriar la placa hasta una temperatura de 10 °C y se mantuvo a esa temperatura durante 30 segundos, posteriormente se calentó la placa hasta 40 °C para nuevamente mantener la temperatura durante 30 segundos. Durante este periodo de enfriamiento y calentamiento se utilizó una cámara infrarroja marca Xenics modelo Gobi 640ge controlada por software Xeneth versión 2.5, adquiriendo secuencias de imágenes en escala de grises de 8 bits cada segundo por diez o vente minutos, para observar la respuesta del cuerpo ante un choque térmico. Las imágenes se procesaron con un programa realizado en Matlab que consiste en analizar a cada uno de los píxeles que componen la imagen y obtener la transformada de Fourier que hace referencia a la variación que éstos tienen en un intervalo de tiempo.


CONCLUSIONES

Durante la estancia de verano se adquirieron conocimientos teóricos sobre la termografía y habilidades en el uso de una cámara infrarroja para la recolección de imágenes que permitieron observar la respuesta del organismo ante un choque térmico y con esto, conocer cualitativamente el deterioro vascular en pacientes diabéticos.
Parra Vazquez Aldair, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos

APLICACIóN DE HERRAMIENTAS DE MEJORA E INNOVACIóN EN EL DESARROLLO DE UN NUEVO PRODUCTO Y/O SERVICIO E IMPLEMENTACIóN Y DESARROLLO DE LOS SISTEMAS DE GESTIóN INTEGRAL Y AUDITORIAS.


APLICACIóN DE HERRAMIENTAS DE MEJORA E INNOVACIóN EN EL DESARROLLO DE UN NUEVO PRODUCTO Y/O SERVICIO E IMPLEMENTACIóN Y DESARROLLO DE LOS SISTEMAS DE GESTIóN INTEGRAL Y AUDITORIAS.

Parra Vazquez Aldair, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En un mercado como el de ahora, globalizado y competitivo, las empresas deben de enfocarse en estrategias que aseguran la calidad del servicio o producto que presentan a sus consumidores. En la empresa de S.A.S (sistemas de alarmas de sur) de S.A DE C.V. es una empresa que busca expandirse a la zana sureste de México para aumentar sus ventas del servicio y a la vez proveer una seguridad a los ciudadanos. En el sureste mexicano han ocurrido numerosos casos de robo como: robo de bienes, saqueo de empresas, rapiña, robo de vehículos, tráiler o cargas valiosas de empresas en las autopistas. También ocurren accidentes en hogar o empresas como incendios, cortocircuitos, etc. La empresa S.A.S DE S.A DE C.V busca reducir o erradicar los daños, implementado un servicio de alta calidad a los clientes y este ajustándose al precio de ellos, ya que esta empresa cuanta con sistema de seguridad y alamar para la asistencia del problema que surja ya está monitoreado las 24/7 bajo una central de vigilancia.



METODOLOGÍA

Elaboración de una base de datos en el programa Excel utilizando visual basic para programar la interfaz y los datos que esta llevara, se realizara una investigación de cuales posibles empresas podrían adquirir este servicio de seguridad en los estados de Tabasco, Campeche Y Yucatán con un promedio de 200 empresas por estado llegando a un total de 600 empresas.


CONCLUSIONES

Implementando esta base de datos que se plantea en el presente trabajo se espera aumentar las ventas en el sureste de mexicano, también se espera que la base de datos pueda utilizarse como un estudio de campo en cual pueda proyectar cual es el porcentaje de que este servicio se factible en esta zona y así tomar decisiones que favorezcan a la empresa.
Paternina Jiménez Melissa Carolina, Universidad de Pamplona (Colombia)
Asesor: M.C. Carlos Eduardo Cañedo Figueroa, Universidad Autónoma de Chihuahua

DETECCIóN DE EMOCIONES BáSICAS DE SEñALES EEG A TRAVéS DE UN DISPOSITIVO DE UN SOLO ELECTRODO CON ESTíMULOS AUDIO-VISUALES


DETECCIóN DE EMOCIONES BáSICAS DE SEñALES EEG A TRAVéS DE UN DISPOSITIVO DE UN SOLO ELECTRODO CON ESTíMULOS AUDIO-VISUALES

Paternina Jiménez Melissa Carolina, Universidad de Pamplona (Colombia). Asesor: M.C. Carlos Eduardo Cañedo Figueroa, Universidad Autónoma de Chihuahua



PLANTEAMIENTO DEL PROBLEMA

Las emociones hacen parte de la mente humana y juegan un papel importante en muchos aspectos de nuestra vida diaria, ya sea para la resolución de problemas, la toma de decisiones y la manera de percibir el entorno e interactuar con otros seres humanos, por tanto el reconocimiento de estas emociones durante la ejecución de diferentes actividades puede ofrecer una mayor compresión y mejor desempeño de los sistemas cerebro-computadoras a la hora de ofrecer soluciones que se adapten a las distintas situaciones cotidianas que se puedan presentar. El uso de la inteligencia artificial se ha venido introduciendo poco a poco en aplicaciones de uso cotidiano del hombre como lo son las plataformas de streaming, las redes sociales y los grandes sitios web de compras en línea, así como también un elemento indispensable para la creación de nuevas tecnologías y dispositivos para usos médicos, esto ha permitido comprender la necesidad e importancia de las emociones de los usuarios a la hora de utilizar tales herramientas al proporcionar información para fortalecer la toma de decisiones y la interacción de los sistemas hombre-máquina. Los sistemas de adquisición de señales EEG llamados interfaces cerebro-computador (BCI) fueron en un principio desarrollados como instrumentos para fines médicos, siendo utilizado por personas con discapacidad física para que pudieran controlar sus extremidades a través de las ondas cerebrales, sin embargo el alcance de estos sistemas abarca una amplia gama de posibilidades que incluye la identificación de emociones, estados emotivos y expresiones faciales dado la aplicabilidad del reconocimiento de estos patrones, no obstante la gran cantidad de electrodos utilizados en el cuero cabelludo y la complejidad para la autoaplicación limita el alcance de estos sistemas. Hoy en día se pretende disminuir los inconvenientes antes mencionados reduciendo la cantidad de canales y electrodos utilizados sin alterar significativamente la calidad de las señales obtenidas, por lo cual en la última década se ha popularizado de manera comercial diademas BCI para la adquisición de estas señales con el menor número de electrodos posible. Bajo esta premisa, se pretende realizar un software de reconocimiento de algunas emociones usando como estímulos elementos audiovisuales utilizando la diadema de un solo electrodo MindWave Mobile 2 de la compañía NeuroSky y el sistema embebido Raspberry Pi 3.



METODOLOGÍA

El experimento ha sido diseñado para investigar la relación emocional entre estímulos audiovisuales y la percepción humana. Para los estímulos se preseleccionaron diez trailers de películas del género de terror y otros diez de películas de comedia, lo anterior con el fin de evocar en el espectador dos estados emocionales, miedo y alegría. El dispositivo utilizado para la adquisición de las señales EEG fue la diadema MindWave Mobile 2 la cual posee un solo electrodo ubicado en la frente del usuario, lo que ayudaría a minimizar la fatiga mental y la carga física durante la colocación del electrodo, además de proporcionar comodidad y economizar tiempo con respecto a diademas que poseen múltiples electrodos. Las señales electroencefalográficas (EEG) utilizadas para formar la base de datos consistió en el registro de las reacciones de nueve sujetos sanos con un rango de edad comprendido entre 20 y 25 años. Los registros son pre-procesados y la señal EEG es descompuesta en las cinco bandas de frecuencia principales: delta (0.5 - 4 Hz), theta (4 - 8 Hz), alfa (8 - 12 Hz), beta (12 - 32 Hz) y gamma (32 - 64 Hz) con el uso de un filtro digital Buttersworth pasabanda de orden 9, el cual sirvió también como ayuda para la eliminación de ruido y artefactos oculares. La frecuencia de muestre es de 512 Hz. Posteriormente se extrajeron de cada banda de frecuencia las siguientes características: energía, entropía, desviación estándar, Kurtosis, Skewness y varianza. Luego se procedió a la construcción del modelo predictivo de emociones basado en Redes Neuronales Artificiales (RNA) de una capa oculta de nueve neuronas. De los nueve sujetos voluntarios, seis fueron utilizados como conjunto de entrenamiento para construir el modelo predictivo, siendo divididos en dos grupos de tres donde el primer grupo observó los diez trailers de terror y el segundo grupo observó los diez trailers de comedia. Los tres sujetos restantes fueron usados como conjunto de pruebas.


CONCLUSIONES

Los resultados obtenidos de la investigación realizada en la estancia fue una discriminación significativa entre una emoción positiva (alegría) y una negativa (miedo) dentro de las pruebas realizadas, sin embargo se plantea realizar pruebas adicionales para validar los resultados previamente obtenidos. La adquisición de las señales y la red neuronal que procesará la señal será implementada en el sistema embebido Raspberry Pi 3 ya que este dispositivo reduce significativamente los recursos a utilizar y lo hace de un sistema práctico y portátil de uso sencillo.
Patiño Avila Kevin Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo

MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.


MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.

Mendiola Luz Erica, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Avila Kevin Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Quiroz Cruz Erika Rubi, Instituto Tecnológico Superior de Ciudad Hidalgo. Romero Verdugo Steve, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La calidad es uno de los pilares fundamenntales para toda empresa ya que esta deja una gran marca en el mercado a competir.



METODOLOGÍA

Durante nuestra estancia de investigación científica, se llevó a cabo lo siguiente: Se nos hizo una capacitación al equipo de trabajo Nos presentarnos como equipo de trabajo ante la empresa Se realizó un diagnóstico de inicio en toda la empresa. Ya obtenido el diagnostico se prosiguió a realizar un FODA de la empresa. Seguido de una encuesta de satisfacción. Identificar los 7 desperdicios. Diseñar propuesta de mejora. Implementación de la propuesta de mejora Y como final  Presentar la información de los resultados  ante la empresa.


CONCLUSIONES

En el resumen anterior se muestra lo que se llevó a cabo en la estancia del programa delfín. A lo largo de la estadía hemos realizado un diagnóstico en base a la matriz F.O.D.A y los siete desperdicios, gracias a esto logramos conocer la situación en la que se encontraba la organización para posteriormente analizar los resultados obtenidos y establecer propuestas de herramientas Lean y mercadológicas, complementando con capacitaciones a todos los colaboradores para así ayudar a mejorar la calidad y productividad dentro de la empresa desde el departamento de calidad en el que fuimos residentes. El haber tenido la oportunidad de trabajar con compañeros de diferentes semestres, pertenecientes a la carrera de ingeniería industrial nos ayudó a conocer más herramientas de mejora continua, así como llevarlas a cabo en un ambiente laboral y no solo conocerlas de manera teórica.   Este verano científico nos deja una gran experiencia de aprendizaje al forjar nuestros conocimientos institucionales. Agradecemos el haber participado pues nos dio visión como futuros ingenieros.
Pavon Suarez Luis Alberto, Instituto Politécnico Nacional
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.


ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.

Fajardo Hernandez Irma Aslhey Isabel, Universidad de Guadalajara. Maya Velazquez Lidia Viviana, Universidad de Guadalajara. Pavon Suarez Luis Alberto, Instituto Politécnico Nacional. Rodríguez Gutiérrez Luisa Cecilia, Universidad de Guadalajara. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la  mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indican las normas. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma. 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó en el tiempo determinado por las normas.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a lo calculado por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró que no lo hace tan resistente como el convencional, pero por muy poco, pero ayuda a tener un revenimiento menor. El concreto con PET en escama, presenta un mayor rendimiento al convencional, y una menor resistencia a la compresión. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo
Payán Enríquez Valeria, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Oscar Augusto Peralta Rosales, Universidad Nacional Autónoma de México

CáLCULO DE CONCENTRACIóN DE CONTAMINANTES ATMOSFéRICOS CON FACTORES DE ALTITUD Y PRESIóN DE LA CDMX


CáLCULO DE CONCENTRACIóN DE CONTAMINANTES ATMOSFéRICOS CON FACTORES DE ALTITUD Y PRESIóN DE LA CDMX

Hernández Garay Frida Jaqueline, Universidad Autónoma de Ciudad Juárez. Payán Enríquez Valeria, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Oscar Augusto Peralta Rosales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la Ciudad de México se realizan diariamente actividades tanto a nivel doméstico como a nivel industrial. En estas actividades puede llevarse a cabo la quema de combustibles fósiles, biomasa o distintos procesos industriales como la molienda, los cuales son capaces de generar miles de toneladas de contaminantes, de los cuales una gran cantidad es transportada hacia la atmosfera a partir de sus interacciones con los parámetros meteorológicos presentes, lo que puede provocar un deterioro a la calidad del aire y tener efectos negativos en la población y el medio ambiente. Para llevar a cabo el monitoreo de los contaminantes que se encuentra en la Ciudad de México se utiliza el Sistema de Monitoreo Atmosférico, donde se encuentran varios subsistemas, entre ellos La Red Automática de Monitoreo Atmosférico (RAMA), la cual mide las concentraciones de distintos contaminantes en la región de la Ciudad de México mediante más de 30 sitios de monitoreo dispersos en puntos estratégicos. La problemática a resolver es el conocer la cantidad total de masa contaminante a la cual se encuentran expuestas las personas, tomando en cuenta el factor de altitud al llevar a cabo correcciones de volumen especificos para la Ciudad de México, ya que esta no se encuentra a condiciones estándar de presión o temperatura.



METODOLOGÍA

Por medio de la plataforma en línea del Sistema de Monitoreo Atmosférico se utilizó el subsistema de La Red Automática de Monitoreo Atmosférico (RAMA) para la recopilación de los datos meteorológicos y de las concentraciones de contaminantes atmosférico del periodo enero-mayo del año 2019 en las 36 estaciones que cuenta la red. Una vez obtenido los datos, se procedió a cambiar la unidad de medición de los contaminantes utilizando la ecuación 1, esto con el propósito de que los datos estén a las condiciones que se encuentra la Ciudad de México. Por medio de esta misma ecuación se modificaron las concentraciones de los contaminantes atmosféricos de la Organización Mundial de la Salud (OMS) y de las Normas Oficiales Mexicanas (NOM). pon a mg/m3 = (0.0409*[ppb]*peso molecular) * ([298.15 k/T] * [P/760 Torr]) ecuación 1 Posteriormente se realizó una evaluación de los datos que fueron modificados para eliminar posibles errores. Una vez hecho esto, se procedió a sacar el área bajo la curva a partir de la ecuación 2. A = A2 - A1 Ecuación 2


CONCLUSIONES

Durante la estancia de verano de investigación se logró modificar la unidad de los datos de las 36 estaciones de La Red Automática de Monitoreo Atmosférico (RAMA) y poder calcular el área bajo la curva de cada contaminante por hora, posteriormente se realizó la sumatoria de las áreas por mes del año 2019. Todo el trabajo realizado anteriormente tiene como objetivo de ser multiplicado por la tasa de respiración de la población en la Ciudad de México y así poder calcular la masa total de contaminantes que fue expuesta la persona en cierto tiempo. Sin embargo, debido a la extensa cantidad de datos de cada una de las estaciones de la RAMA aun no se cuenta con los datos obtenidos de la cantidad de masa que la población inhala.
Pedraza Arriola Lizeth Vanessa, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES


MANUFACTURA DE UN BANCO DE PRUEBAS AEROESPACIALES

González Cázares Héctor Iván, Instituto Tecnológico Superior de Uruapan. Morales Araujo Brenda, Instituto Tecnológico Superior de Uruapan. Pedraza Arriola Lizeth Vanessa, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

La fabricación de este banco es un elemento indispensable para el desarrollo del conjunto del motor y para la validación del material elaborado. Para el desarrollo del material compuesto laminar carbón-carbón, se requiere validarlo respecto a la aplicación para la cual se desarrolla. En este sentido, desde el punto de vista experimental debe contarse con un sistema físico que simule las condiciones de operación del motor para el que se ha desarrollado el material antes mencionado. Existen diferentes tipos de bancos de prueba acordes a las características de los motores que se desarrollan y a los parámetros de desempeño que se buscan medir. En general, los bancos de prueba más comunes cuentan con una cama de desplazamiento axial paralelo a la horizontal, lo que permite reducir los grados de libertad del motor. Este tipo de bancos son adecuados cuando se quieren medir variables térmicas y de flujo en el motor, como lo son las temperaturas de los componentes, las velocidades de descarga y el empuje axial resultante. En punto importante a considerar en el desarrollo de los bancos de pruebas es la potencia del motor, pues la estructura de soporte y los elementos de seguridad deben de ser acordes con las características de desempeño del mismo. De igual forma, la instrumentación debe ser planteada en términos de cada motor en específico.



METODOLOGÍA

La realización de este proyecto se llevó a cabo en la institución educativa UNAQ (Universidad Aeronáutica de Querétaro). El comienzo de esta investigación se debe a la búsqueda por realizar pruebas experimentales para la recopilación de información en sistemas de cohetes, así como para su post análisis. Es por ello que este estudio se presenta estructurado a manera de resumen, que contiene la información de la escuela hasta el avance final de dicha investigación.En este estudio lo primero que se llevó a cabo fue un análisis del diseño conceptual y de ingeniería así como de planos en CADâ de un banco de pruebas para el motor desarrollado en el proyecto Desarrollo de materiales compuestos laminados carbón- carbón para uso en componentes de sistemas de propulsión para lanzadores orbitales y suborbitales. Se tomaron en cuenta las consideraciones de diseño y el establecimiento de una configuración de prueba axial paralela a la horizontal, considerando las necesidades de la caracterización del comportamiento del motor acorde a lo proyectado por el diseño de la cámara, la tobera, además de la resistencia y desgaste del material desarrollado. El estudio de pruebas se ejecutó en el software de simulación ANSYS v8â Dichas simulaciones de pruebas fueron: Pruebas estructurales: Son una aproximación al diseño de casos en donde las pruebas se derivan a partir del conocimiento de la estructura de acuerdo a la carga. Pruebas Térmicas: Realizadas para aproximarse a las temperaturas soportadas en el material elegido. Pruebas Térmoestructurales: Pruebas efectuadas para conocer el valor cercano de deformación en la estructura de acuerdo a la temperatura. Gracias a esto nos permiten asegurar la resistencia del banco ante las condiciones de la prueba bajo los parámetros de operación esperados para el motor, así como la configuración en el plano general. Cabe resaltar que las pruebas fueron llevadas a cabo por compañeros de la institución señalados al final de este documento en la sección de agradecimientos. Una vez hechas las pruebas se comenzó con la manufactura del banco por lo cual se optó por utilizar Acero estructural A36 ya que debido a que es una aleación al carbono lo cual propicia una resistencia ultima a la tensión de 36,000 lb/pg2.  Además de la utilización de Acero inoxidable por sus características a la intemperie y su resistencia. Teniendo la materia prima era necesario fabricar las piezas para posteriormente ensamblarlas, las piezas se llevaron a cabo con diferentes maquinados CNC (Control Numérico Computarizado) tales como: Planeado: Para igualar y allanar las superficies o planos de la pieza. Barrenados: Para realizar agujeros. Cortes. Para ello se utilizaron los tratamientos antes mencionados con las correctas herramientas y con la capacitación de los profesores.


CONCLUSIONES

Las experiencias adquiridas en este verano durante la estancia en la UNAQ han sido inigualables, este trabajo nos sirvió para interiorizarnos y aprender de una manera más adecuada como se realiza un proyecto de investigación para en un futuro próximo tener una mejor visión y noción al momento de adentrarnos en un proyecto, así como el apoyo y entusiasmo que recibimos de nuestros asesores a lo largo del trabajo. La elección del tema expuesto tuvo origen en el interés que se nos presentó a todos los integrantes de este grupo al darnos cuenta que se necesitaba la fabricación de piezas bajo ciertas tolerancias y parámetros, por lo cual estaba relacionado con la carrera que actualmente estudiamos Ingeniería Industrial, a raíz de esto nos empezamos a informar sobre el tema de comprensión de planos en CAD, la Metrología de las instrumentos de medición y su correcta calibración, Medición de piezas, incluso indagamos en temas que desconocíamos pero que eran necesarios como Tipos de materiales, Características del Acero y sus aleaciones, Maquinados en CNC (para lo cual debimos leer un manual para su correcto funcionamiento además de recibir capacitación por parte de los profesores de la institución).  A partir de allí comenzamos a trabajar en el área de maquinados para fabricar las piezas necesarias para su ensamble posterior, todo esto nos ayudará para nuestra formación tanto profesional como personal ya que el hecho de trabajar en equipo fortalece la comunicación y las relaciones que uno genera para en un futuro crear las nuevas empresas mexicanas. AGRADECIMIENTOS No nos queda más que agradecer a todas las personas que estuvieron involucradas en este proyecto ya que sin ellos no hubiera sido posible esta investigación y por compartirnos todos sus conocimientos. Dr. Omar Aconeltzin Jiménez Arévalo Dr. Aris Iturbe Hernández Raúl Ramírez Reséndiz  Ingrid Astrid Orta Uribe Leonardo Guzmán Enríquez Gerardo Moreno González
Pedro Mota Bryan Daniel, Instituto Tecnológico de Tláhuac
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PROYECTO ROVER.


PROYECTO ROVER.

Pedro Mota Bryan Daniel, Instituto Tecnológico de Tláhuac. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro de las instalaciones del Centro de investigación en cómputo se cuenta con un prototipo de un mecanismo pan & til el cual esta echo de un material PLA es un material sumamente ligero y de poca resistencia es por ello que se ve en la necesidad de hacer la estructura de un material de tipo aluminio 6061-O que cuenta con una resistencia mucho mayor mejorando las características del prototipo.



METODOLOGÍA

Se analizó la estructura mecánica y se realizó la propuesta de cambiar el material PLA por aluminio 6061-0. dado que el material de aluminio cuenta con una densidad mucho mayor que la del PLA, se realizó el análisis de esfuerzos mecánicos en la estructura para calcular el par necesario para los servomotores esto con ayuda del software SolidWorks que proporciona datos como las masas de las piezas y el centro de gravedad con los datos obtenidos se realizó una lista de las piezas a maquinar con los datos de masa y longitud. Los cálculos muestran los siguientes resultados para el primer servomotor de la estructura: La fuerza Fay es de 0.05256178 Kg m La fuerza Fby es de 0.05576492 kg m En el análisis de fuerzas para el segundo servomotor de la estructura nos arroja una cantidad de 0.20752105 kg m cabe mencionar que estos resultados son temporales ya que se pretende reducir el peso de la estructura para reconsiderar el uso de los mismos servomotores. En base a los resultados obtenidos con el análisis de esfuerzos se buscó la forma de minimizar los pesos de las piezas para ver si se pueden conservar los servomotores antes utilizados, se realizaron los desbastes necesarios en dos piezas principalmente la base de parte baja de la estructura y la pieza izquierda del ensamble de igual manera se realizó en cálculo de esfuerzos con el nuevo peso de las piezas.


CONCLUSIONES

Cuando se finalizo la parte del caculo de la estructura ya con los desbastes a las piezas sin afectar la fuerza de la estructura se obtuvo la cantidad de 2 Nm para el par del servomotor principal y de 1.4 Nm para el primer servomotor de la parte superior del mecanismo. En conclusión, se cuenta con un mecanismo totalmente funcional y listo para trabajos posteriores que permitan para las prácticas de inteligencia artificial y redes neuronales.
Peláez Carrasco Jesse Sallem, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo

BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.


BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.

Morales Martinez Dorhelly Jetzabell, Instituto Tecnológico de Matamoros. Peláez Carrasco Jesse Sallem, Benemérita Universidad Autónoma de Puebla. Rangel Garcia Josue Arturo, Instituto Politécnico Nacional. Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Uno de los recursos naturales no renovables, como las minas de caolín empiezan a escasear y solamente van quedando minas de caolín contaminado con diferentes elementos como son: hierro, titanio, azufre, etc. Para esto es necesario darle tratamiento al caolín para poder utilizarlo efectivamente en cualquier industria. Esto representa un gran problema ya que con el podemos producir cosas como pintura, cerámica, papel hasta medicamentos es por esto que en  el presente trabajo se obtienen resultados para blanqueamiento electroquímico de caolín, se utiliza ácido oxálico y un sistema que armado principalmente con discos de latón que cumplen la función de cátodo placas de grafito que trabaja como el ánodo del sistema; para obligar a los iones de hierro (Fe) a salir y obtener caolín que pueda utilizarse industrialmente; además se considera un reciclado del ácido oxálico para retirar del mismo los iones Fe3+ y así hacer un reciclado continuo del sistema evitando contaminación y costos innecesarios.



METODOLOGÍA

Se empleó un prototipo el cual está conformado por placas de grafito (cátodo)   discos de latón (ánodo) y  aspas de plástico colocadas entre las placas y los discos para mantener en constante movimiento la solución; este sistema  está conectado a una fuente de CD a un potencial establecido, mientras los discos giran a una velocidad de 95 RPM. Dicho prototipo está sumergido en una solución con cantidades específicas de ácido oxálico, agua, dispersante y  caolín extraído de las minas del estado de Hidalgo. Primeramente, para comprobar que el método utilizado cumple con su objetivo, se realizaron dos prototipos uno en escala el cual después de realizar las pruebas correspondientes mostro resultados favorables, y el segundo prototipo tenia mayor capacidad en solución a nivel industrial por lo que este tenía que estar en constante agitación. La función del movimiento es tener una hidrodinámica en la solución y evitar el asentamiento del caolín. El equipo se probó por 4 horas en las cuales se pudo observar cambio en la corriente debido a la reducción de los iones de Fe+3 y un cambio en la coloración del caolín. Se obtuvieron muestras en intervalos de 30 minutos de la solución para posteriormente filtrarlos y, el oxalato obtenido fue analizado por medio de un análisis de absorción atómica. También se realizaron pruebas de conductividad a cada muestra y los resultados descendieron con lo cual sabemos que baja la concentración de  los sólidos. El oxalato presenta contaminantes como iones de hierro los cuales provocan que éste se sature, y en un aspecto industrial y económico se considera más viable poder recuperarlo para su reutilización. En el caso de los discos de latón se presentan contaminantes que se pueden observar a simple vista lo cual impide en un futuro uso, que tengan un desempeño favorable. Para esto, los discos pasan a ser pulidos hasta que recuperen su coloración y brillo original para eliminar los metales adsorbidos. El oxalato pasa a ser reciclado por dos métodos los cuales son el uso del reactor FM-01 y ser filtrado a través de carbón abierto. El reactor FM-01 se conectó a una bomba peristáltica (con variaciones en los rpm) y a una fuente de CD con un potencial establecido y fue sometido a prueba con la solución de oxalato obtenido del sistema, después de un lapso de tiempo se obtuvieron resultados favorables. Para el caso del carbón se realizaron diversas pruebas haciendo uso de carbón vegetal, el primero hecho a base de deshechos de cocina (cascaras de frutas, semillas, plantas) y el segundo era carbón comercial usualmente usado en actividades gastronómicas. Para la fabricación del carbón de desechos de cocina fue necesario comprimir la basura en una biela para  posteriormente probar diferentes tiempos y temperaturas de calentamiento que variaron desde los 650 0C hasta los 750 0C.  El carbón se sumergió en el oxalato. Gracias a sus estructuras que funcionan como un filtro se pudo observar una adsorción de hierro en el carbón y por ende un cambio en la coloración. En el caso de las pruebas con el carbón vegetal comercial los resultados no fueron tan satisfactorios como los anteriores debido a que no tenía la misma porosidad y estructura que se necesitan para poder realizar la absorción de los iones de Hierro.


CONCLUSIONES

Se lograron obtener blancuras de caolín desde un 80% hasta un 92% con el sistema electroquímico de latón y grafito, que son aceptables a nivel industrial. Con diferentes métodos usados para poder utilizar  el ácido oxálico nuevamente los cuales son: Reactor FM-01 Carbón abierto Se observaron mejores resultados al tratar el oxalato con carbón abierto, elaborado  de desechos orgánicos ya que retira, un gran porcentaje de los  iones de hierro que tenía el oxalato.
Peláez Hernández Georgina, Instituto Tecnológico Superior de Huauchinango
Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango

COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR


COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR

Carmona Conde Sarahi, Instituto Tecnológico Superior de Huauchinango. Martínez Salas Luis Adolfo, Instituto Tecnológico Superior de Huauchinango. Monroy Vite Mayte, Instituto Tecnológico Superior de Huauchinango. Peláez Hernández Georgina, Instituto Tecnológico Superior de Huauchinango. Asesor: Ing. Juan Fernando Hernandez Sánchez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El paradigma de las instalaciones solares fotovoltaicas ha cambiado mucho en los últimos años, pasando de sistemas con primas a la producción a instalaciones de autoconsumo sin primas. Por ello en muchas instalaciones no se busca la máxima producción energética en un periodo de tiempo, sino el máximo aprovechamiento energético de la energía solar producida. En los últimos años la creciente demanda de energía eléctrica para satisfacer el bienestar de las personas ha provocado daño en el planeta, es por esto que se han estudiado diversas formas de generación de energía para poder satisfacer el desarrollo de los países. La premisa principal por la cual se realizo este proyecto es para aprovechar al máximo la energía solar, día con día se busca sacar mayor eficiencia de los sistemas fotovoltaicos. Es por eso que el proyecto  tuvo como objetivo captar al máximo los rayos solares para obtener un aprovechamiento de esta energía. La estrategia consiste en realizar mediciones de voltaje y corriente de un sistema fijo y un seguidor solar, con los resultados se realizo una grafica de la respuesta de cada sistema.



METODOLOGÍA

El presente trabajo de investigación COMPARACIÓN DE LA FIABILIDAD DE UN SISTEMA SOLAR FIJO Y UN SEGUIDOR SOLAR, corresponde a un proyecto de investigación en el área de energías renovables el cual está encaminado a analizar la factibilidad de aprovechamiento de un seguidor solar respecto de los sistemas fotovoltaicos fijos instalados actualmente. Se realizó la construcción del prototipo del sistema con el propósito de tener un  fácil manejo en la inclinación del panel fotovoltaico desplazado por el servomotor en un giro de 180 grados, con ayuda de una estructura de metal formada por dos pilares los cuales unidos por una varilla del mismo material soportan el peso del panel solar de forma uniforme para poder así realizar los movimientos libres que manden las señales que son enviados por los sensores, para esto se hizo uso de 2  fotorresistencias (LDR) y una alimentación de 5 V para el sistema de control. Se realizó el código de programación en la plataforma Arduino, que contiene el micro controlador, el cual se encarga de medir la intensidad de los rayos luminosos, procesa el ángulo de incidencia y reenvía la señal de respuesta modificada en el sistema. El módulo de control mide constantemente la intensidad y el ángulo de los rayos solares recibidos y orienta la instalación con los módulos solares de forma óptima. Para ello, el sensor toma en cuenta la luz que el agua o las piedras claras, así como la irradiación difusa que traspasa las nubes. Adicionalmente se coloco un circuito de salida al panel para poder conocer el comportamiento referido al sistema de generación, para lo cual se conecto una carga en paralelo al panel y con ayuda de un voltmetro-ampermetro conectado en serie del panel a la carga, fue posible adquirir los datos de voltaje y corriente en función de la carga. Con estos datos fue posible la realización de una grafica que nos muestra el comportamiento a distintas horas del día, y la obtención de la comparativa del seguidor y el sistema fijo.


CONCLUSIONES

En este sentido, cuanto más podamos consumir en tiempo real la energía producida por los módulos solares más rentable será la inversión realizada. Los resultados obtenidos al realizar la comparación en cálculos energéticos, nos llevan a concluir que el seguidor solar es eficiente sin embargo aporto alimentación a los servomotores lo cual redujo la entrega final de energía por otro lado el sistema fotovoltaico fijo al no tener un mecanismo que le permita movilidad entrego el 100% de su energía para el consumo de la carga. La mejora propuesta para compensar el consumo de energía es realizar un periodo más amplio de mediciones y posicionar ambos sistemas al mismo tiempo.  Al realizar el estudio de tiempo-corriente, tiempo-voltaje y tiempo-potencia, observamos que el comportamiento del seguidor solar es lineal en cuanto al sistema fotovoltaico fijo se comporta de manera perpendicular al sol. El promedio de voltaje, corriente y potencia en el seguidor solar fue de 8.4 V, 0.16 A y 1.42 W; en el sistema fijo fue de 8.8 V, 0.24 A y 2.13 W.
Pelayo Soltero Diego, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

PELíCULAS DE PVA-SIO-NANOTUBOS DE CARBONO FUNCIONALIZADOS PARA SU APLICACIóN EN CELDAS FOTOVOLTAICAS


PELíCULAS DE PVA-SIO-NANOTUBOS DE CARBONO FUNCIONALIZADOS PARA SU APLICACIóN EN CELDAS FOTOVOLTAICAS

Pelayo Soltero Diego, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los materiales semiconductores juegan un papel muy importante en la actualidad, debido a que están presentes en un sin número de dispositivos. En la actualidad se están utilizando materiales flexibles semiconductores, en los cuales se busca mejorar su eficiencia. En este trabajo, se está desarrollando un material flexible basado en alcohol polivinílico con deposición de nanotubos de carbono (CNT) de pared simple, dopados con carga positivas para mejorar la deposición de electrones sobre su superficie.



METODOLOGÍA

Se preparó una solución de alcohol polivinilico al 5% con un 10% de ácido cítrico con respecto a éste, se adicionaron 5 mL en cajas petri para formar películas con aproximadamente 0.1 mm de espesor y se secaron en un horno durante 4 días. Después, se prepararon soluciones de acetona-agua-ácido nítrico-líquido iónico-PVA, etanol-agua-ácido nítrico-líquido iónico y PVA-SiO-THF con un pH de alrededor de 5 para depositar 0.4 y 0.8 mg de nanotubos de carbono a los primeros dos sistemas, al otro sistema se agregaron 0.6, 1.2 y 1.8 mg de CNT; luego, se llevaron a sonicar a 60°C durante 5 minutos. Se depositaron los nanotubos de carbonos contenidos en las soluciones en la parte superior de la película y se sonicaron a 60°C. Además, se realizó la medición del tiempo de dispersión de los nanotubos de carbono en el solvente, la cual se realizó mediante espectroscopía RAMAN, modelo EZRaman-xB. También, se realizó la medición de la resistencia eléctrica de las películas formadas en función de la temperatura, haciendo las lecturas cada 10 grados desde 30°C hasta 60°C, mediante el equipo de la serie 2400 Keithley de la Tektronix Company. Por último, se determinaron las propiedades térmicas de las películas formadas mediante calorímetria diferencial de barrido con el equipo PERKIN ELMER DSC6.


CONCLUSIONES

Durante la estancia se obtuvo que una mayor dispersión de los CNT en el solvente permite una mayor distribución en el polímero de PVA, lo cual se verá reflejado en las propiedades eléctricas. Además, que la conductividad eléctrica de las películas se mantiene en función de la temperatura, manteniéndose entre un material aislante y un material semiconductor, por tanto se buscará un material que permita la interacción química entre el nanotubo y la matriz. Por último, los CNT reducen totalmente las regiones cristalinas del PVA, formándose un polímero amorfo, lo que permite aumentar las propiedades eléctricas.
Peña Guardado Alejandra, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Avila Lozano María Itzel, Instituto Politécnico Nacional. Nepomuceno Gomez Rosa Iveth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Peña Guardado Alejandra, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

  Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos. Una vez culminada la investigación, se espera dar respuesta a las siguientes preguntas: ¿Qué importancia tiene diseñar concretos de altas prestaciones con diferentes materiales, como el PET, EPS y ceniza de bagazo de caña? ¿Qué tan factibles son las características mecánicas utilizando adiciones en el concreto y en qué estructuras se recomienda aplicar? ¿Qué impacto ambiental se genera realizando concreto de material orgánico e inorgánico?



METODOLOGÍA

  Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados que se obtuvieron en las pruebas, son interesantes en cuanto a los cilindros que se realizaron con adición de PET, en forma de tiras demostraron ser resistentes a los 14 días obtuvo un 80.33% de su resistencia que equivale a 200.8kg/cm²,el diseño que se tomó como referencia fueron las proporciones para 250kg/cm², los resultados que se muestran refleja el total de su resistencia ya que la mezcla tubo acelerante, por cada kilo de cemento se agregó 23 mm de aditivo, de igual forma se diseñó una viga de PET con proporciones de 250kg/cm², al realizar la prueba a flexión llego a tolerar 32.72kg/cm², estos fueron los concretos mezclados con PET y en cada mezcla se le agrego 2 grs por cada kilo de cemento. En una de las pruebas el agregado grueso fue totalmente sustituido por unicel, con la finalidad de hacer concreto ligero y en este diseño se usaron proporciones para una mezcla de 200kg.cm² y a los 28 días obtuvo una resistencia de 13.69% que equivale a 23.22kg/cm² como se puede notar es diez veces menos resistente que el concreto convencional, con este diseño se realizó una viga que tolero 11.17kg/cm² en prueba a flexión, como el concreto ligero demuestra ser poco apto para uso en compresión se realizaron placas de concreto donde también se sustituyó la grava por unicel que se puede usar para muros, para ello se realizaron pruebas de carga y descarga para flexión, se diseñó con proporciones de 250kg/cm² y al hacer varios ciclos tolera 30kg/cm².  Para el concreto con adición de ceniza resultado de los gabazos de caña, el diseño fue con proporciones de 200kg/cm² y al total de cemento se le agregó el 15% de ceniza y a los 28 días que se ensayó el ultimo espécimen alcanzo un 62.51% de la resistencia que equivale a 125.01kg/cm². Al final se hizo un concreto convencional para hacer una comparación en las placas ligeras y la diferencia de carga que tolera cada una, el diseño fue de 250kg.cm², se apreció que esta es tres veces más resistente que la que contiene polvo de poliestireno expandido (EPS). En cuanto a la mezcla que se elaboró para la realización de block con ceniza de gabazo de caña, la resistencia obtenida no fue la necesaria de acuerdo a la norma NMX-C-441-ONNCCE-2013, ya que esta dice que con respecto a las medidas y peso del  block a elaborar se tiene que obtener una resistencia a la compresión de 35 kg/cm2 y los obtenidos en laboratorio fueron d un promedio 11.8 Kg/cm². Atribuimos estos datos a que no se llevó a cabo a debida granulometría de la ceniza de gabazo de caña.  
Peña Torres Jose Angel, Instituto Politécnico Nacional
Asesor: Dr. Anabel López Ortiz, Universidad Nacional Autónoma de México

DISEñO Y CONSTRUCCIóN DE TECNOLOGíAS DE SECADO SOLAR


DISEñO Y CONSTRUCCIóN DE TECNOLOGíAS DE SECADO SOLAR

Peña Torres Jose Angel, Instituto Politécnico Nacional. Asesor: Dr. Anabel López Ortiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Asesor : Dra. López Ortiz Anabel, Instituto de Energías Renovables- U.N.A.M Temixco Estudiante: Peña Torres Jose Angel, Escuela Superior de Ingeniería Mecánica y Eléctrica- I.P.N - U. Culhuacan. Joseangelpena20@gmail.com Desde la antigüedad, el ser humano ha buscado la manera de conservar los alimentos por periodos largos, esto a que en ciertas temporadas hay algunos alimentos que no están disponibles como granos de cereal, por lo que es ideal conservar el alimento y posterior ser consumido, una de las maneras de la conservación de alimentos usada por el hombre, es la acción natural de suministrar calor (energía solar)  al  alimento que podían descomponerse. El secado es un proceso de conservación de alimentos que impide la actividad microbiana esto porque se elimina gran parte del agua, en México existen localidades donde sufren de este tipo de climas, donde el productor agrícola puede detener su cosecha debido a las condiciones climatológicas, existen varios tipos de secadores solares en el mercado, que implementan sistemas eléctricos, gas LP, o sistemas combinados (resistencia eléctrica y gas LP) y solares, estos últimos son los más usados debido a que la fuente de energía es la radiación solar, hay gran variedad y modelos de secadores solares, el que nos estamos basando es en el tipo invernadero, debido a sus capacidad de almacenamiento y fácil instalación. Para poder secar de manera correcta cualquier alimento es indispensable una correcta circulación del aire caliente que va secar a nuestro alimento, para ello se implementan sistemas de ventilación para poder hacer circular el aire de manera uniforme dentro de las cámaras de secado.  



METODOLOGÍA

  Para realizar la simulación del comportamiento del aire dentro de la cámara de secado usamos el software llamado  ANSYS en la versión Student, para realizar las geometrías actuales por ejemplo las mesas, el invernadero y los sistemas de circulación de aire ( toberas y ductos del aire) empleamos el software de diseño SOLIDWORKS, primero se comenzó haciendo nuestro secador solar tipo invernadero en ANSYS, una vez creado seguimos efectuando la simulación pero antes tenemos una sección del ANSYS -Fluent llamada Set up, aquí es donde nosotros establecemos todos los parámetros y las condiciones de trabajo. Para poder hacer la simulación de los sistemas de circulación de aire, la doctora Anabel López Ortiz, me propuso un sistema de circulación de aire en la cual consiste en poner una campana de succión y otra de expulsión en la parte superior, en la zona donde mayor concentración de aire estancado se presentaba,  se creo este sistema en SOLIDWORKS de lámina galvanizada,  además de calcular la potencia del motor para poder extraer nuestro volumen de la cámara de secado, una vez concluido la primer propuesta del sistema de circulación se importó nuestra geometría a ANSYS para poder hacer la simulación del comportamiento y ver si en verdad nuestra propuesta era buena. Además de la propuesta de la doctora, yo propuse otro sistema en el cual consiste en un sistema de extracción central con entrada de aire independiente es decir, los difusores de la entrada se diseñaron a tal manera que cada nivel de la mesa le de la misma cantidad de flujo que el ultimo nivel, esto lo llame sistema múltiple de salida de aire, al igual que el primer diseño se elaboró en SOLIDWORKS y posteriormente a ANSYS para efectuar la simulación.  


CONCLUSIONES

Los resultados mostrados en las simulaciones de todas nuestras propuestas de diseño fueron buenas, el objetivo principal era diseñar un sistema de circulación de aire dentro de la cámara de secado, que permitiera hacer homogéneo el aire dentro del mismo, para el primer diseño el sistema de extracción doble se observó que existe una zona en la parte superior del invernadero donde aún queda estancada, pero el sentido del flujo del aire era el que estábamos buscando mover el aire dentro de la cámara de secado en forma de caracol. Para nuestro segundo diseño los difusores individuales cumplen su función, distribuir de manera uniforme un flujo de aire para cada nivel de la mesa, pero el sistema de extracción del aire fue deficiente por que aún se concentraba aire en la zona central superior de la cámara de secado, entonces se pensó incorporar el sistema de extracción de la propuesta 1, con el sistema de difusores individuales de la propuesta 2, se creó un nuevo modelo en ANSYS y se precedió a simular, los resultados fueron favorables se observó como en la zona superior del toldo, el aire localizado ya no estaba presente, el sistema de circulación de aire cumplió su función y los difusores espaciados 10 cm por nivel de la mesa, es el adecuado para el flujo pueda atravesar la mesa (3.6m).
Peñaflor Ruiz Jessica Lizbeth, Instituto Politécnico Nacional
Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan

INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.


INVESTIGACIóN, CONTAMINACIóN Y WIX: UN TRINOMIO PARA DISEñAR UN ABANICO DE ALTERNATIVAS DE SOLUCIóN PARA EL PROCESO DE CULTIVO DE AGUACATE EN URUAPAN MICHOACáN, MéXICO.

Aguilar Apolinar Monserrat, Tecnológico de Estudios Superiores de Jocotitlán. Lázaro Buenrrostro José Luis, Instituto Tecnológico Superior de Apatzingán. Peñaflor Ruiz Jessica Lizbeth, Instituto Politécnico Nacional. Asesor: Dr. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Siendo Uruapan Michoacán, México la capital mundial del aguacate por la comercialización a nivel nacional e internacional, se identificó que la contaminación atmosférica, de agua y suelo son aspectos que generan un impacto negativo en el proceso de cultivo de la fruta por lo que, se requiere dar solución inmediata que asegure la calidad de la misma para el consumidor, usuario o cliente.



METODOLOGÍA

Se considera la investigación de tipo documental: Su objetivo es el desarrollo de las capacidades reflexivas y críticas a través del análisis, interpretación y confrontación de la información recogida. Para ello, se desarrollará la fundamentación teórica como apoyo al proceso de investigativo. La investigación tipo descriptivo: Constituyen una "mera descripción de algunos fenómenos", para lo cual, se identifica una problemática donde el fenómeno a investigar es el efecto negativo de la contaminación atmosférica, de agua y sobre todo en el proceso del cultivo de aguacate. El tipo de investigación de  campo: También conocida como investigación in situ ya que se realiza en el propio sitio donde se encuentra el objeto de estudio, el cual es el proceso del cultivo de aguacate en una huerta determinada en la ciudad de Uruapan, Mich. Desarrollo del protocolo de investigación. Diseño para  la presentación del protocolo de investigación y la Wix. Entrega del CD de la investigación.


CONCLUSIONES

Tomando como base la metodología de la investigación, se detectó la realidad que se vive en la ciudad de Uruapan, Michoacán respecto al impacto negativo en el medio ambiente. Así mismo, el manejo de los conocimientos adquiridos sobre la Ingeniería Ambiental respecto a la contaminación atmosférica, de agua y suelo que ayudó a identificar las causas por las que el proceso de cultivo de aguacate se ve afectado por este fenómeno que son: la quema descontrolada de árboles, la alteración del ciclo hidrológico y el abuso de  uso de agroquímicos. Por lo que, el desarrollo de un protocolo de investigación es el parte aguas para presentar un abanico de alternativas de solución que disminuya los niveles de contaminación para tener una tierra y frutos sanos.
Peralta Ortíz Jesús Armando, Universidad de Sonora
Asesor: Mtro. Diana Cristina López López, Universidad Católica de Pereira (Colombia)

RELACIONES CAUSALES ENTRE EL POSTULADO “REACCIóN EN CADENA” DE W. EDWARDS DEMING Y LA TEORíA DE LA ORGANIZACIóN INDUSTRIAL.


RELACIONES CAUSALES ENTRE EL POSTULADO “REACCIóN EN CADENA” DE W. EDWARDS DEMING Y LA TEORíA DE LA ORGANIZACIóN INDUSTRIAL.

Núñez Cárdenas José Félix, Instituto Tecnológico de Jiquilpan. Peralta Ortíz Jesús Armando, Universidad de Sonora. Asesor: Mtro. Diana Cristina López López, Universidad Católica de Pereira (Colombia)



PLANTEAMIENTO DEL PROBLEMA

W. Edwards Deming afirma que cuando una organización productora de bienes y servicios es gestionada con base en la calidad, se genera una Reacción en Cadena, en la cual, la calidad conduce a una mayor productividad dado que elimina algunos costos de producción asociados a reprocesos y pérdidas de materiales. Esto a la vez le permite a la empresa ingresar al mercado productos de mayor calidad y menor precio que sus competidores, aumentando así su propia competitividad. Ahora bien, en lo que respecta a la visibilidad y competitividad en el mercado tanto de las grandes empresas como de las MIPYMES, se evidencia que las segundas poseen menor capacidad de inversión que las primeras. Dicha diferencia se matiza en el hecho que las MIPYMES tienen mayores dificultades al momento de adquirir maquinaria que permita automatizar sus procesos, centrando entonces la atención en lo que refiere a la inversión en capital humano y dejando a un lado variables como calidad. El problema radica, en que las MIPYMES no disponen de capitales monetarios y que no tienen gran cantidad de personal capacitado académicamente para comprender las distintas teorías que surgen para ayudar a todas las empresas por igual.



METODOLOGÍA

Se partió de una lúdica previamente construida a partir del uso de fichas tipo lego que hace parte del trabajo previo de la investigación que se está apoyando, para luego desarrollar la simulación presentada haciendo uso del software FlexSim en su versión Demo, con el cual se presenta un micromundo productivo que produce tanques de guerra y dentro del cual se aplican herramientas de producción, calidad, logística y costos.


CONCLUSIONES

Durante la pasantía se generó un crecimiento en la parte teoría y práctica, con lo cual se han desarrollado nuevas habilidades en este campo. Se adquirió conocimiento sobre la Reacción en Cadena, y la relación que existe entre calidad, productividad y competitividad. Sin embargo, la simulación de la lúdica representó un reto para el manejo eficiente del software de simulación (FlexSim), en donde se aplicaron muchos conocimientos de la investigación principal y así mismo conocimientos aplicados de Ingeniería Industrial, logrando con ello que la simulación elaborada pueda dirigirse a cualquier persona, independientemente de su nivel académico, que desee comprender de una manera didáctica la relación que existe entre calidad, productividad y competitividad.
Pérez Arcos. Miguel Alejandro, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)


HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)

Morales Vazquez Samuel, Instituto Tecnológico de Tapachula. Pérez Arcos. Miguel Alejandro, Instituto Tecnológico Superior de Los Ríos. Rodas Cabrera Carlos Valentin, Instituto Tecnológico de Tapachula. Salazar Ruiz Miguel Ángel, Instituto Tecnológico de Tapachula. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

Actualmente los diseños de los sedimentadores de alta tasa se realizan con base en los criterios y ecuaciones recomendados en la literatura y la metodología descrita por los diversos autores es muy similar entre sí y data de varios años atrás. Los actuales diseños de tanques sedimentadores están sobredimensionados, esto hace que existan perturbaciones en el comportamiento del fluido y la presencia de corrientes preferenciales o flujos anómalos, provocando corto-circuitos y zonas muertas En este trabajo se va a realizar una revisión y evaluación exhaustiva, sobre cómo se encuentran actualmente diseñados los tanques sedimentadores de alta tasa que integran al proceso de clarificación convencional durante la potabilización, para desarrollar una metodología de diseño y recomendaciones, que permitan mejorar las condiciones de operación de las plantas potabilizadoras.



METODOLOGÍA

  Se realizó un análisis crítico de los procedimientos de diseño existentes de sedimentadores de alta tasa que se utilizan en plantas potabilizadoras, basado en una revisión bibliográfica, experiencias e investigación propia. De la revisión bibliográfica se observó que los diseños de las unidades de sedimentación se fundamentan en criterios, lineamientos, ecuaciones algebraicas, diagramas y ejemplos prácticos, que los ingenieros han transmitido desde hace varios años y que no han tenido modificaciones importantes en fechas recientes.  La metodología de cálculo propuesta por Romero J. (2000), donde utiliza ecuaciones algebraicas para determinar la carga superficial, el número de Reynolds, la velocidad de sedimentación y tiempo de residencia; sin embargo, no considera el tipo de entrada del flujo ni la posición de salida, por lo tanto, el diseño no garantiza eficiencia hidráulica del tanque sedimentador.                                                                                                                                         


CONCLUSIONES

El presente trabajo pretende sentar las bases para analizar la influencia que ejerce, la carga superficial, el ancho, el largo, la profundidad, el tipo y posición de la entrada y salida del agua en el sedimentador de alta tasa, sobre el comportamiento hidráulico- presencia de zonas muertas y cortos circuitos, para mejorar la eficiencia de la sedimentación. El objetivo principal de usar un software de Dinámica de Fluidos Computacional (CFD), es para realizar una evaluación hidrodinámica de los diferentes escenarios del sedimentador de alta tasa y encontrar las variables de respuesta y con ellos determinar la presencia de zonas de corto-circuito, así como de zonas muertas.
Perez Aviña Luis Fernando, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato

PROPUESTA DE UN PARQUE SOLAR EN EL MUNICIPIO DE TANGANCíCUARO, MICHOACáN, MéXICO.


PROPUESTA DE UN PARQUE SOLAR EN EL MUNICIPIO DE TANGANCíCUARO, MICHOACáN, MéXICO.

Perez Aviña Luis Fernando, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Entre las energías renovables, el aprovechamiento de la solar es una de las más viables para México, ya que su captación es posible durante prácticamente todo el año, debido al buen clima que impera en gran parte de su geografía y a la alta intensidad de la radiación solar que se puede obtener. El municipio de Tangancicuaro Michoacán cuenta con altas horas solares pico lo que garantiza una producción elevada y rentable. 



METODOLOGÍA

La estimación de la planta, es de una potencia de 500KW teniendo al año un aproximado de 1,069.45 MW/H y con una inversión de $738,571 USD. La energía generada será venida a CFE en la modalidad de venta total de energía. se hizo la proyección de la radiación solar para el municipio de Tangancicuaro, utilizando una aplicación de la nasa, tomando como referencia 15 años para estos llevarlos a una red neuronal artificial para proyectar hasta el año 2035 de radiación solar. Los resultados de la proyección de utilizaron para obtener las horas solares pico, para así poder dimensionar el parque solar. Para una potencia de KW se requerirán de 2132 paneles fotovoltaicos. con una vida útil del proyecto de 22 años de cálculo el Valor Actual Neto y la Tasa Interna de Retorno esto para ver si es factible que se lleve a cabo este proyecto.


CONCLUSIONES

A partir de la reforma energética, cualquier empresa del sector puede venderle a CFE la energía que genere en generación distribuida, a través de sistemas solares, la produccion de energia mediante paneles solares ayuda a disminuir el uso de recursos naturales para la produccion de energia mediante otros medios. Tras encontrar un VAN positivo se puede concluir que el proyecto es factible para invertir.De la misma manera el resultado del TIR  es del 17% lo que indica que tiene una alta rentabilidad ya que los bancos y negocios confiables te ofrecen un 8% de rentabilidad. La venta de energia en la modalidad de venta total de energia es un gran aporte a la generacion electrica del pais, el proyecto tiene a viavilidad y factibilidad para llevarse acabo por su pronto racuperacion de dinero y su larga vida del proyecto.
Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional
Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC

DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA:LOSETA DE TIERRA COMPACTADA (LTC)


DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA:LOSETA DE TIERRA COMPACTADA (LTC)

Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional. Velázquez Iñiguez Juan Pablo, Universidad de Guadalajara. Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos presentamos a una problemática frente a la industria constructiva convencional debido a que los procesos, materiales ocupados y sus ciclos de vida de las mismas, son contaminantes para el medio ambiente. Siendo un punto primordial en debates del cambio climático y la influencia de la rama constructiva. Por ende, las construcciones sustentables y autosuficientes son un desafío para los ingenieros y arquitectos en relación al área. Esto nos lleva a un punto de gran cuestión, durante el desarrollo constructivo de una vivienda, se ocupan diversos materiales y prefabricados con un consumo de energía embebida alto. Esta es la energía total consumida al momento de construir un proyecto. Involucra desde la extracción, fabricación de los materiales hasta la utilizada durante la mano de obra. Estos dos puntos, nos conlleva a la siguiente pregunta ¿Cómo realizar un proyecto arquitectónico que sea sustentable, donde se gaste el menor porcentaje de energía embebida posible? Debido a que las edificaciones actuales demandan el empleo de prácticas y materiales de bajo impacto ambiental, se realiza el análisis de Desarrollo Sostenible de un Elemento Constructivo Prefabricado de Tierra Cruda: Loseta de tierra compactada (LTC), bajo el estudio de Eficiencia Industrial como criterio de impacto económico.



METODOLOGÍA

El proyecto de investigación se desarrolló en 5 etapas, las cuales son: recolección, examinación, generación, proposición y representación.  La Loseta de Tierra Compactada (LTC), es un elemento constructivo que consiste en la elaboración de losetas 100% artesanales en forma hexagonal con arcilla como material base obteniendo su forma a través de un molde metálico prefabricado y un pisón de mano. El primer prototipo de loseta se realizó en el 2016 como iniciativa propia de la Arquitecta Selene López Cameras, posteriormente se dio seguimiento en el año 2017 por investigadores veraniegos. La función de estas losetas es ser parte de un panal fachaleta el cual tiene como funcionalidad recubrir un muro en sustitución de cualquier fachaleta ya prefabricado con procesos más complejos y de costos mayores. En la segunda etapa se determinaron las patologías y se realizaron estudios de la tierra, aplicando el método de Test Carazas con arcilla montmorillonita y arcilla roja.  Una patología es una enfermedad ya sea física, química o mecánica que se presenta desde los procesos de producción o en el transcurso de su ciclo de vida. Por otro lado, el Test Carazas es una herramienta didáctica para la obtención de 15 muestras sobre una tierra específica. En este caso se realizó con dos tipos de arcilla, montmorillonita y arcilla roja; para conocer sus propiedades y comportamientos al ser sometidas a distintos tipos de humedad y de empleo. La loseta es un elemento prefabricado que se compone de 3 capas compactadas una sobre otra, las cuales están compuestas por morteros estabilizados para lograr mejores resultados y características con relación a los objetivos de resistencia mecánica, resistencia a la abrasión, calidad visual y ligereza. Cada capa cuenta con una característica en específico, por ejemplo, la capa posterior es considerada como el área donde la loseta se pegará y tiene una textura ruda para ofrecer mejor adherencia, la capa intersticial o media es la encargada de ofrecer ligereza y termicidad pues cuenta con fibras vegetales en el mortero y la capa frontal es la encargada de ofrecer la calidad visual y resistencia a la abrasión. El conjunto de estas tres capas forma una loseta la cual dependiendo los morteros utilizados y sus características puede ser usada tanto en elementos verticales como una fachaleta, así como en espacios horizontal convirtiéndose en una loseta de piso. Considerado en la etapa de terminados, el sellado se aplica una vez que la loseta se encuentre seca, dependiendo el área de aplicación donde se colocará la loseta es el material que se usará, por ejemplo, si es solo en un muro interior, basta con aplicar aceite de linaza, pero si es al exterior necesita sellador. La aplicación de este aceite se logra con apoyo de una esponja después de haber humedecido la loseta, esto con el objetivo de eliminar o reducir la porosidad del material, llenando filtraciones y aislando la humedad del medio, así como mantener limpio el prefabricado. Una vez secadas y selladas las losetas se paso a la ejecución de morteros adherentes y morteros de junta, para su empleo. El mortero de adherencia es un conjunto de materiales primarios que mezclados entre sí y en combinación con un porcentaje especifico de agua, forman un mortero que ofrece características necesarias para permitir que una loseta tenga la capacidad de unirse a un área de aplicación. Mientras que, un mortero de junta es una pasta que por su composición está formada con varios materiales y agua además de que tiene la función de cubrir los espacios entre cada loseta, evitar cualquier filtración y ser parte esencial de la adhesión.


CONCLUSIONES

En conclusión, se logró estabilizar la arcilla Montmorillonita que en Tuxtla Gutiérrez no se considera apta en la rama de la construcción, y así poderla aplicar en un elemento constructivo, darle una utilidad, y a su vez a los materiales remanentes. La idea principal con los prototipos de prefabricados que se están trabajando es encapsular su esencia, aptitud, aspectos y atributos de estos materiales y así aplicarlos en la zona urbana. Es necesario darle vida a este prefabricado, además de funcionar como una loseta en elementos verticales, surgió la idea de aplicarlas en el piso recubiertas con un epóxico en un espacio de servicio como lo es una cocina, así como este ejemplo, puede tener más aplicaciones, el objetivo de todo esto es usar materiales de la ciudad que normalmente son remanentes como lo es el caso del aserrín o la viruta o toda la tierra que con facilidad se encuentra y aplicarlos en la misma ciudad interviniendo casas con materiales más comerciales.
Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO, MODELADO Y CONSTRUCCIóN DE UN ROBOT CARTESIANO DE 2 GDL.


DISEñO, MODELADO Y CONSTRUCCIóN DE UN ROBOT CARTESIANO DE 2 GDL.

Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla. Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El proceso de diseño juega un papel muy importante en la construcción de un prototipo, ya que este nos brinda una visión más clara del producto final además de que el modelo puede servir como guía al momento de la construcción pues cuenta como una documentación del proyecto. Una opción de modelado es el CAD (Diseño Asistido por Computadora, por sus siglas en inglés) pues a través de software CAD se nos permite realizar un conjunto de imágenes que al final serán el dibujo y/o los planos del proyecto, este nos permite realizar mejoras o corregir errores sin la necesidad de construir el prototipo físicamente. Esta técnica de diseño se utilizará para la construcción de un robot cartesiano (PPP) de 2 GDL, este es un tipo de robot industrial que cuenta con dos, tres o más ejes, según se requiera, estos tienen un desplazamiento lineal, y dependiendo de sus características sirven para crear dibujos, como sistemas de agarre y colocación (pick and place) o para cortar material como las fresadoras, entre otras aplicaciones.



METODOLOGÍA

Con el objetivo de realizar el análisis y síntesis del robot cartesiano de dos ejes (x,y) se consultaron diversas fuentes acerca de estos robots. Este análisis nos permitió la realización del bosquejo del robot, el cual tiene como característica que sus ejes forman un sistema de coordenadas ortogonales. Posteriormente se comenzó con el modelado de este para lo cual se empleó el software de CAD Lego Digital Designer, pues al utilizar materiales de esta marca, este programa nos brinda una exactitud mayor de la que se conseguiría con otros programas, facilitando la manufactura de las piezas a utilizar. Una vez que se analizó el modelo y se realizaron las correcciones necesarias para brindar una mayor estabilidad al prototipo, se procedió con la adquisición de materiales para el armado de la estructura del robot. Al finalizar, con el fin de comprobar que el diseño y su construcción son correctas, se realizaron pruebas de repetibilidad, para comprobar todas las posiciones de ambos ejes por separado y del mecanismo completo, esto con el fin de poder efectuar las correcciones pertinentes. Ya que el mecanismo fue revisado y corregido, se procedió con las pruebas mediante el software de Lego EV3 SOFTWARE en el que se emplea programación por bloques, nuevamente se realizaron pruebas de repetibilidad, al finalizar estas se realizaron las últimas correcciones, mismas que se pusieron a prueba para corroborar los resultados esperados con los obtenidos.


CONCLUSIONES

Durante esta estancia se logró adquirir y mejorar los conocimientos y habilidades relacionadas con el análisis y síntesis de mecanismos y el CAD. Al poner en práctica dichos conocimientos se logró el objetivo principal de la investigación: Diseñar y construir un robot cartesiano de 2 GDL, el cual tiene un correcto funcionamiento por lo que también se puede decir que el modelo que se obtuvo para este tipo de robot es confiable puesto que se logró obtener un modelo óptimo y repetible. Se pretende continuar con una etapa más del proyecto en la cual el robot pueda ser controlado vía Bluetooth y/o Wi-Fi a través de una interfaz en un dispositivo electrónico, para esto se requiere de la elaboración de un código en Matlab, el cual se podrá enlazar con los Software de Arduino y LabView, así como adquirir conocimientos de comunicación para poder realizar la interfaz y la comunicación entre esta y el mecanismo.
Pérez Calvillo Teodoro Alejandro, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE FLUIDOS FISIOLóGICOS SIMULADOS PARA PRUEBAS DE BIOACTIVIDAD Y BIODEGRADACIóN.


SíNTESIS DE FLUIDOS FISIOLóGICOS SIMULADOS PARA PRUEBAS DE BIOACTIVIDAD Y BIODEGRADACIóN.

Pérez Calvillo Teodoro Alejandro, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Ana Beatriz Martinez Valencia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El objetivo de  llevar a cabo las pruebas de bioactividad y biodegradación a compuestos utilizados para la creación de prótesis humanas, es saber qué consecuencias van a tener en el cuerpo del portador de dicha prótesis. Para ello se sintetizaron también  fluidos que asimilan a fluidos humanos y que es a lo que estaría expuesto el material.   



METODOLOGÍA

SÍNTESIS DE FLUIDO FISIOLÓGICO PARA PRUEBAS DE BIOACTIVIDAD 1.- Para poder comenzar reunimos los materiales y reactivos que se van a necesitar para la creación del fluido. 2.- Ya con todo listo, ponemos un vaso de precipitados con un agitador magnético y agregamos agua desionizada(Con un termometro). 3.- Agregamos los reactivos señalados en el protocolo exceptuando el último de la lista, porque antes debemos agregar más agua. 4.- Ya echo lo anterior vamos agregando el último reactivo poco a poco cuidando que el PH y la temperatura se mantengan entre el rango descrito en el protocolo ya que si se agrega todo rápidamente el PH se dispara y arruinar el fluido. 5.- Por último ya que se agregó el último reactivo por completo, se espera a que tenga la temperatura y el PH requerido. 6.- Ya con todo lo anterior cumplido, se vierte el fluido obtenido a un matraz aforado y se afora, se deja enfriar por un rato ya que en veces disminuye el volumen. SÍNTESIS DE FLUIDO FISIOLÓGICO PARA PRUEBAS DE BIODEGRADACIÓN 1.-Para poder comenzar reunimos los materiales y reactivos que se van a necesitar para la creación del fluido. 2.-Ya con todo listo, se pone agua desionizada (lo señalado en el protocolo) en un vaso de precipitados y dicho vaso en un agitador magnético. 3.-Ya con el agitador en función se le agrega el reactivo indicado y se espera a que se disuelva. 4.- Ya disuelto el reactivo sólo se espera a que llegue a la temperatura deseada. ANALISIS DE BIOACTIVIDAD Y BIODEGRADACION Después de obtener los fluidos deseados se llevaron a cabo las pruebas en las muestras dejandolos en un recipiente dentro de un horno a la temperatura indicada y cuidando que su PH no cambie para poder llevar a cabo el proceso adecuadamente. Para llevar a cabo las pruebas primero se debe de pesar las muestras, poniendolas en un frasco y luego vertir el fluido cuidadosamente (Para no maltratar las muestras) Debe de estar a 37 grados centigrados el fluido para que pueda actuar correctamente, un PH entre 7.25 y 7.45  para que todo ocurra correctamente.


CONCLUSIONES

Para la prueba  de bioactividad se esperaba que las muestras aumentaran de peso, pero ocurrió todo lo contrario, así que ya no se podrá seguir el análisis  por este método y se tendrá que ver con microscopía electrónica. Para el fluido de biodegradación no se obtuvieron resultados en las muestras ya que para este fluido el tiempo requerido es de un año, así que sólo se realizó el fluido exitosamente y la investigadora dará continuidad.
Pérez Corona Orlando, Universidad Tecnológica de Nayarit
Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes

DISEñO DE ARQUITECTURA TUI PARA LA IMPLEMENTACIóN DE TRANSPORTE INTELIGENTE Y VALIDACIóN MEDIANTE SERIES DE TIEMPO


DISEñO DE ARQUITECTURA TUI PARA LA IMPLEMENTACIóN DE TRANSPORTE INTELIGENTE Y VALIDACIóN MEDIANTE SERIES DE TIEMPO

Monrreal Salazar Birzavit, Instituto Tecnológico de Reynosa. Pérez Corona Orlando, Universidad Tecnológica de Nayarit. Asesor: Dr. Francisco Javier Alvarez Rodríguez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas a los que se enfrentan las ciudades actualmente es el ofrecer los servicios básicos debido al urbanismo acelerado. Como menciona (Arroub Y Cols., 2017), la urbanización provoca la aparición de riesgos, problema y preocupaciones en ofrecer servicios, lo que lleva a las autoridades a buscar propuestas de solución optimas, que según los investigadores solo se encentran en las estructuras de ciudades inteligentes. Según la jornada de Aguascalientes (Aguascalientes, 2018), Poco mas del 40% de la población hace uso del transporte publico, lo que crea un problema de abastecimiento de las 500 unidades de camión distribuidas en las 47 rutas, para cumplir con los términos de puntualidad y frecuencia.  



METODOLOGÍA

Metodología Para esta investigación se utilizará la arquitectura TUI para la optimización de las redes de transporte urbano de la ciudad de Aguascalientes, con el objetivo de que esta pueda ser implementada en otras ciudades. Esta metodología consiste en la transformación del transporte público hacia un sistema inteligente el cual relacionara diversas áreas a definir en la metodología TUI. La arquitectura presenta novedades organizadas en cuatro módulos los cuales interactúan de tal manera que se despliega una conversión firme dentro del transporte y la misma agencia que lo provee. Además de la comprobación de los tiempos de llegada y salida, así como la demanda obtenida de la experimentación con el uso de la serie de tiempos y su relación con la estructura TUI. Metodología TUI La arquitectura TUI se basó en las actuales arquitecturas de ciudades inteligentes y los tres factores que determinan un transporte inteligente; la optimización del servicio, personalización del servicio, y la aceptación social. La optimización del servicio se logrará con el uso de la tecnología móvil y el registro de datos bajo el estándar GTFS, la personalización del servicio se realiza por me-dio de un servicio en la nube que ofrecerá la información que el usuario solicite y la aceptación social una vez que el proyecto es implementado se busca la adaptación de este con la sociedad y mejora para el fácil uso de la sociedad. Por lo tanto, se buscó crear una arquitectura que facilite la creación del transporte urbano inteligente que abarque y se acople a la perfección con los factores del transporte urbano inteligente. Una vez realizada la fusión de las arquitecturas mencionadas se puede apreciar el comportamiento que se divide en dos grupos, el primer grupo de características. En seguida hay un segundo nivel que encaja al desarrollo de la arquitectura de OBA los cuales son servicio de alertas y estimaciones, Servidor OBA, GTFS y Servidor de la agencia de movilidad. Para la interacción entre cada uno de ellos debe generar los resultados en específico para el origen del transporte urbano inteligente. El primer módulo, seguimiento y servicios de alertar y notificaciones, estos dos interactúan de tal manera que las diferentes alertas de la aplicación se reflejen en el sistema. El segundo módulo, aseguramiento de la calidad y servidor OBA para la peticiones y respuestas dadas entre la aplicación y el servidor deben sincronizarse de tal manera que se puedan resolver la comunicación con el usuario. El tercer módulo es la estandarización que propone la arquitectura es el módulo GTFS, un modelo para el nacimiento de un sistema urbano inteligente y que logra satisfacer la demanda que solicitada por parte del usuario. El cuarto modulo es la accesibilidad de datos el cuan se conjuga con la agencia o concesionaria, los datos GTFS, así como información del sistema de transporte Esta arquitectura se origina a partir de las siguientes arquitecturas Framework de Smart Cities y Framework de Cloud Computing. Esta arquitectura es la base la para todo transporte inteligente que esté basado en el estándar GTFS y se muestra a continuación.  


CONCLUSIONES

Durante la estancia del verano se propuso la implementación y adaptación de la arquitectura TUI, con la finalidad de poder crear un entorno de movilidad inteligente, enfocándonos en el área de transporte urbano, siendo una necesidad el poder crear un servicio que no solo mejore la manera de trasladarse de la sociedad, sino que haga crecer a la ciudad misma. Para validar el primer modulo de la arquitectura TUI, referente al servicio de alertas y estimaciones, se decidió por utilizar el esquema estadístico de series de tiempo, esto debido a la facilidad de extracción de información estadística útil, en este caso, comprobar y justificar un correcto muestreo de los tiempos de cada parada y la confiabilidad de los datos proporcionados con la finalidad de obtener tiempos precisos dentro de las alertas que la aplicación ejecuta hacia los usuarios.  Si bien parte de la arquitectura en un primer modulo ha sido justificada, el trabajo a futuro pretende realizar una abstracción a fondo de esta y de sus diferentes módulos. Así mismo en la construcción de métodos de optimización de tiempos, logrando un enfoque que proporcione alertas aun mas precisas para los usuarios dentro del uso de la aplicación a desarrollar. Con un primer modulo definido, se logra visualizar un entendimiento claro del uso de la arquitectura y su necesidad de implantación.
Pérez Coronel Javier David, Universidad Autónoma de Occidente
Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente

SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4


SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4

García Ramírez Alicia, Universidad Autónoma de Occidente. Pérez Coronel Javier David, Universidad Autónoma de Occidente. Verdugo Barraza Oscar Eduardo, Universidad Autónoma de Occidente. Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Calcular subredes es un tema con cierto nivel de complejidad debido a su base matemática en sistema binario, por lo tanto, un sistema para apoyar el aprendizaje de este tema puede resultar de mucha utilidad. Un sistema de software es básicamente una herramienta tecnológica creada con el mismo propósito que cualquier herramienta, sirve como apoyo para facilitar la realización de una tarea, en nuestro caso la herramienta que desarrollamos es una calculadora de subredes.



METODOLOGÍA

Una metodología de desarrollo de sistemas se refiere a un entorno de trabajo usado para estructurar, planear y controlar el proceso de desarrollo de un sistema. Una gran cantidad de entornos de trabajo han evolucionado a través de los años, cada uno con sus fortalezas y debilidades. Una metodología de desarrollo de sistemas no es adecuada para todos los proyectos. (CMS, 2008). Se decidió desarrollar este proyecto de software utilizando una metodología ágil ya que esta se apega más a las necesidades del mismo; el desarrollo ágil establece sus prioridades de acuerdo a las siguientes afirmaciones: "Individuos e interacciones sobre procesos y herramientas. Software funcionando, sobre documentación extensiva. Colaboración con el cliente sobre negociación contractual. Respuesta ante el cambio sobre seguir un plan."(Beck, et al., 2001). Entre las metodologías agiles más utilizadas se encuentran Scrum, Extreme programming(XP) y Kanban, se decidió trabajar con XP, ya que, en general comparado con otras metodologías tradicionales es más rápida, ya que conlleva menos protocolo, lo que evita que existan jerarquías dentro del grupo, lo cual permite que cada integrante dentro del grupo pueda hacer aportaciones en cualquier momento, esta metodología está enfocada en resultados a corto plazo. Valores de XP Comunicación: "Prevalece en todas las prácticas de Extreme Programming. Comunicación cara a cara es la mejor forma de comunicación, entre los desarrolladores y el cliente. Método muy ágil. Gracias a esto el equipo esta pude realizar cambios que al cliente no le gustaron."(Borja, s.f, VALORES DE XP, par. 1) Simplicidad: "La simplicidad ayuda a que los desarrolladores de software encuentren soluciones más simples problemas, según el cliente lo estipula. Los desarrolladores también crean características en el diseño que pudieran ayudar a resolver problemas en un futuro."(Borja, s.f, VALORES DE XP, par. 2) Retroalimentación: "La retroalimentación continua del cliente permite a los desarrolladores llevar y dirigir el proyecto en una dirección correcta hacia donde el cliente quiera."(Borja, s.f, VALORES DE XP, par. 3) Valentía: "Requiere que los desarrolladores vayan a la par con el cambio, porque sabemos que este cambio es inevitable, pero el estar preparado con una metodología ayuda a ese cambio. Programa para hoy y no para mañana."(Borja, s.f, VALORES DE XP, par. 4) Respeto: "El equipo debe trabajar como uno, sin hacer decisiones repentinas. Extreme Programming promueve el trabajo del equipo. Cada integrante del proyecto (cliente, desarrolladores, etc.) forman parte integral del equipo encargado de desarrollar software de calidad. El equipo debe trabajar como uno, sin hacer decisiones repentinas."(Borja, s.f, VALORES DE XP, par. 5) Proceso XP El ciclo de vida ideal de XP consiste de seis fases: Beck(1999)"Exploración, Planificación de la Entrega (Release), Iteraciones, Producción, Mantenimiento y Muerte del Proyecto."(citado en Letelier, 2006, PROCESO XP, par. 3) Exploración: En esta fase, los clientes plantean a grandes rasgos las historias de usuario que son de interés para la primera entrega del producto. Al mismo tiempo el equipo de desarrollo se familiariza con las herramientas, tecnologías y prácticas que se utilizarán en el proyecto. Planificación de la Entrega: En esta fase el cliente establece la prioridad de cada historia de usuario, y correspondientemente, los programadores realizan una estimación del esfuerzo necesario de cada una de ellas. La planificación se puede realizar basándose en el tiempo o el alcance. La velocidad del proyecto es utilizada para establecer cuántas historias se pueden implementar antes de una fecha determinada o cuánto tiempo tomará implementar un conjunto de historias. Iteraciones: Está fase incluye varias iteraciones sobre el sistema antes de ser entregado. En la primera iteración se puede intentar establecer una arquitectura del sistema que pueda ser utilizada durante el resto del proyecto. Producción: La fase de producción requiere de pruebas adicionales y revisiones de rendimiento antes de que el sistema sea trasladado al entorno del cliente. Al mismo tiempo, se deben tomar decisiones sobre la inclusión de nuevas características a la versión actual, debido a cambios durante esta fase. Mantenimiento: Mientras la primera versión se encuentra en producción, el proyecto XP debe mantener el sistema en funcionamiento al mismo tiempo que desarrolla nuevas iteraciones. Para realizar esto se requiere de tareas de soporte para el cliente. Muerte del Proyecto: Es cuando el cliente no tiene más historias para ser incluidas en el sistema. Esto requiere que se satisfagan las necesidades del cliente en otros aspectos como rendimiento y confiabilidad del sistema..


CONCLUSIONES

Los resultados demuestran que una calculadora de subredes es de utilidad para el aprendizaje y la comprensión de los estudiantes interesados en el tema. En este primer prototipo funcional se alcanzaron lograr los objetivos previstos y como una mejora para posteriores versiones se prevé agregar VLSM(Mascaras de longitud variable) como otro método para calcular subredes. También se desarrolló una aplicación para dispositivos móviles que actualmente se encuentra en la fase de pruebas y mantenimiento.
Pérez Cortés Antonio, Universidad Autónoma de Zacatecas
Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío

DISEñO DE UN FILTRO PARA ESTERILIZACIóN DE AIRE POR MEDIO DE NANOPARTíCULAS DE PLATA Y óXIDO DE ZINC


DISEñO DE UN FILTRO PARA ESTERILIZACIóN DE AIRE POR MEDIO DE NANOPARTíCULAS DE PLATA Y óXIDO DE ZINC

Campos Valdés Leonel, Universidad Autónoma del Estado de México. Pérez Cortés Antonio, Universidad Autónoma de Zacatecas. Asesor: Dr. Solange Ivette Rivera Manrique, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

En el trabajo realizado, se sintetizaron nanopartículas de plata a partir de nitrato de plata, ácido ascórbico, ácido cítrico y hidróxido de sodio, mientras que las partículas de óxido de zinc se obtuvieron mediante el método de coprecipitación utilizando como precursores nitrato de sodio y nitrato de zinc. El proceso fue por reducción química, donde el ácido ascórbico se encargó de dotar de electrones a al ion Ag+. Una vez sintetizadas las nanopartículas se caracterizaron por medio de difracción de rayos X y se procedió a crear la cerámica porosa. Una vez obtenida la muestra de cerámica, en estado semiacuoso se vertieron las nanopartículas de óxido de zinc y plata y se sometió a secado en horno y finalmente a tratado térmico para ser posteriormente evaluado con un caldo contaminado de bacterias para finalmente hacer un arrastre del embudo donde se cultivarán las bacterias resultantes en un agar y verificar la eficacia del filtro.



METODOLOGÍA

Síntesis de las nanopartículas de plata: Se prepararon soluciones de ácido cítrico a 3x10^-2 M, ácido ascórbico a 6x10^-3 M, nitrato de plata a 1 M y de hidróxido de sodio a 2M Se vertieron 4ml de ácido ascórbico y ácido cítrico en otro recipiente y se sometieron a una agitación de 200 rpm durante 15 min. Ajustamos el ph con el hidróxido de sodio hasta 12.12 y simultáneamente en agitación. Vertimos 1 ml de nuestra solución de nitrato de plata y sometemos a agitación a 200 rpm por otros 15 min Vertiendo en tubos de ensayo los colocamos en la centrífuga a 4500 rpm por 5 min Hacemos un lavado con etanol Secado en el horno a una temperatura de 120 °C por 1 hora 35 min Se obtendrá un polvo oscuro, que son nuestras nanopartículas de plata   Síntesis de nanopartículas de óxido de zinc:   Se disolvieron 7.40 g de nitrato de zinc y 2.00 g de nitrato de sodio en 50 ml de agua desionizada cada uno en vasos de precipitado, sometiéndose a agitación de 200 rpm durante 15 min.  El nitrato de sodio se mantuvo a una temperatura de 25°C y bajo constante agitación el nitrato de zinc fue agregado lentamente por goteo alrededor de 20 min. Se mantiene la solución en agitación a 300 rpm durante dos horas. El precipitado color blanco fue recolectado y lavado 2 veces con agua desionizada y 2 veces con etanol a 4500 rpm por 5 min cada una. Se procedió al secado a 120° C por 2 horas Recolectar y moler las nanopartículas color blanco con mortero y pistilo.   Síntesis del cerámico poroso:   Se preparó una mezcla de arcilla roja y aserrín, nanopartículas de plata y de óxido de zinc de la siguiente manera: Arcilla: 294 g; Aserrín:  31.5 g, Ag: 0.0342 g; ZnO: 0.2637 g Mezclamos a mano en seco durante 15 min Agregamos 210 ml de agua Mezclamos durante otros 15 min Metimos a secado al horno a 120 °C por min. Tratamiento térmico a la mufla a 900 °C durante 6 hrs. Evaluación del filtro:             Preparar el agar: El tipo de agar más fácil de usar para este experimento es el agar nutritivo que viene en forma de polvo. Se necesito 1,2 g (aproximadamente 1/2 cucharada) de polvo de agar para cada placa de Petri de 10 cm (4 pulgadas) que se desea usar. En un plato o bol resistente al calor, mezclar 1/2 cucharadita de agar nutritivo en polvo con 60 ml (aproximadamente 1/4 taza) de agua caliente. Multiplicar estas cantidades por la cantidad de placas de Petri que planeas usar. Colocar el bol o plato en el microondas y ponlo a hervir durante 1 minuto, vigilándolo para asegurarte de que la solución de agar no hierva en exceso. Una vez que la solución esté lista, el polvo de agar debe estar disuelto por completo y el líquido debe ser claro. Dejar enfriar la solución de agar durante varios minutos antes de proseguir. Prepara las placas de Petri: Esterilizar las placas de Petri  para que puedan cultivarse adecuadamente las bacterias. Volver a colocar rápido la mitad superior de la placa de Petri para evitar que las bacterias transmitidas por el aire contaminen el experimento. Reservar la placa de Petri durante 30 minutos a 2 horas, hasta que la solución de agar se enfríe y se endurezca. Crear el caldo contaminado que se utilizará sobre el filtro Depositarlo por el filtro para que escura por el lado contrario.   Cultivar las bacterias Recolección de muestras donde se tomó un hisopo y pasarlo sobre el lado del filtro contrario a donde se depositó la sustancia. Luego pasar por la superficie del agar (sin rasgarla). Etiquetar y sellar las placas de Petri. Una vez que se haya introducido las bacterias, volver a colocar la tapa en la placa de Petri y sellarla con un poco de cinta adhesiva. Colocar las placas de Petri en un lugar oscuro y cálido. Dejar las placas de Petri en un lugar oscuro y cálido donde las bacterias puedan desarrollarse sin perturbaciones, durante varios días. Almacenarlas boca abajo, de modo que las gotas de agua no interrumpan el crecimiento de las bacterias. La temperatura ideal para el crecimiento de las bacterias es entre 20 y 37 °C (70 y 98 °F).


CONCLUSIONES

Se espera que el cultivo de bacterias que se obtuvieron del lado donde el filtro tuvo que haber hecho efecto no crezcan o se desarrollen muy pocas, ya que teóricamente las nanopartículas de plata y oxido de zinc tuvieron que haber actuado cada una respectivamente con sus efectos antibacteriales.
Pérez Lima Ponce Miguel Ángel, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE


DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE

Henández López William, Benemérita Universidad Autónoma de Puebla. Pérez Lima Ponce Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Velazco Castillo Dania Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseñar una suspensión automotriz para un vehículo todo terreno tipo Baja SAE. Esta suspensión será sometida a distintas pruebas de funcionamiento, tales como absorción de impacto, tiempo de respuesta y resistencia de fuerzas de curvatura, tracción, par motor y de frenada. Así mismo, esta suspensión debe conservar el paralelismo en los ejes y la perpendicularidad de la llanta.



METODOLOGÍA

La absorción de las reacciones generadas por la irregularidad del terreno se consigue gracias al funcionamiento conjunto de los neumáticos, el resorte o muelle y el amortiguador, así como la geometría de los brazos superior e inferior. Para este caso, el efecto del neumático será despreciado. Para diseñar un sistema de suspensión, se modela mediante un sistema Masa-Resorte-Amortiguador. Así mismo, mediante software CAD se miden las reacciones y fuerzas resultantes del modelo. De igual manera, para comprobar la importancia del sistema de suspensión en un automóvil, se fabricó una maqueta con dos autos, uno con suspensión y otro sin ella. De esta manera se puede apreciar la respuesta en ambos escenarios simultáneamente.


CONCLUSIONES

La competencia del baja SAE exige un alto desempeño en la suspención del automóvil. En el diseño se tomó en cuenta el recorrido, la rigidez y la suavidad, aspectos clave para un buen desempeño en todas las pruebas que se imponen a los vehículos antes de la carrera final. Intrínsecamente la geometría y el material de elaboración son aspectos relevantes, puesto que debemos de conseguir una buena rigidez en los brazos, así como también el no permitir que la rueda se despegue del piso, aspecto principal en el diseño. La evaluación de nuestro modelo a través del análisis de elemento finito y ensamblaje en CAD nos permitió la aprobación, contrucción del prototipo y armado de una suspención real Finalmente, se espera que (al igual que en los resultados de las simulaciones en CAD) la suspención ya manufacturada, ensamblada y montada en el vehículo, cumpla con los requerimientos y las exigencias necesarias para el óptimo desempeño del vehículo Baja SAE durante el desarrollo de la carrera.
Pérez López Francisco Domingo, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

DISEñO E IMPLEMENTACIóN, DE UN SISTEMA DE AUTO-CAPACITACIóN EN "AMADA LáSER"


DISEñO E IMPLEMENTACIóN, DE UN SISTEMA DE AUTO-CAPACITACIóN EN "AMADA LáSER"

Pérez López Francisco Domingo, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La empresa Vertiv, ha ido adoptando Sistemas Tecnológicos de Manufactura Avanzada para maximizar la productividad y mejorar la calidad en sus procesos, con la finalidad de satisfacer sus necesidades de producción, mismas que se presentan de acuerdo al giro industrial y sus innovaciones, por ello es que Vertiv busca estar a la vanguardia y siempre a un nivel competitivo en el mercado, razón por la que se dio a la tarea de adquirir equipos con lo más avanzado en la industria metal mecánica, pero esto a su vez abre una oportunidad en cuanto a la capacitación de los mismos.  Misma que se traduce en la ausencia de un método de capacitación para la nueva tecnología con la que ya en este momento se cuenta, en este caso en la tecnología de corte Láser.



METODOLOGÍA

En la etapa de desarrollo se implanto la metodologia A3,  de acuerdo a la oportunidad de mejora. Las etapas de la metodologia son las siguientes: Background. Como problema principal, la tendencia de las nuevas tecnologías de semi-automatizacion e automatización en los procesos de producción, genera nuevos cambios en la operatividad y conocimiento del manejo y uso por ende, esto genera incertidumbre es decir falta de seguridad y de confianza en el manejo de los sistemas de Manufactura Avanzada en los operarios de igual manera, en los nuevos empleados. Contaiment Se establece la posible solución antes de realizar un análisis con la herramienta 5W+1H y la matriz FODA y como se lograría la solución, en este caso se estipula un plan de acción en base a un modelo de un sistema de auto entrenamiento directamente en la estación de trabajo, mediante un modelo generando la técnica Audiovisual utilizando así la tecnología (Laptop y Tv para su auto. Entrenamiento), bajo la supervisión de ingeniería de acuerdo al responsable de la estación. Generando así una mayor comprensión de aprendizaje y facilidad de las operaciones cada que halla una duda la persona consultara el procedimiento, relacionado con la operación. Current Conditions. Falta de estrategias para eliminar la incertidumbre Falta de respaldo de personal para rotación en la estación Amada Láser Falta de Disponibilidad por parte de Ingenieria.   Goals. Minimizar los lapsos de tiempos de entrenamiento. Eficazia en el proceso de entrenamiento en la persona. Desarrollar el modelo propuesto. Root Cause Análisis. Para analizar la situación se diseñó un Análisis en base 5w+1h y FODA para identificar, las Fortalezas, Oportunidades, Debilidades y Amenazas enfocado al sistema de manufactura avanzada Amada Láser. Para desarrollar un plan de acción de acuerdo al método de entrenamiento.      


CONCLUSIONES

El método de entrenamiento corresponde a un sistema de autocapacitación donde estará el contenido para operación de la Amada Láser mediante la técnica audiovisual, directamente en la estación de trabajo facilitando así el aprendizaje y conocimiento de la persona, de una manera auto didacta, con el apoyo de la tecnología para su proyección y consulta en cada momento que tenga dudas en los pasos a ejecutar. En el periodo de entrenamiento, se estima a una semaana con esta estrategia mediante el modelo propuesto de igual forma se tendrá a una persona asignada del área de Ingeniería para asesorar en lo más mínimo y evaluar el desempeño de la persona correspondiente, adquirido con este nuevo método facilitando y haciendo mas amigable  la capacitación  y entrenamiento.
Pérez López Ricardo, Universidad de Guanajuato
Asesor: Dr. Carlos Rodríguez Doñate, Universidad de Guanajuato

POSICIONAMIENTO DE UN BALANCíN UTILIZANDO LEYES DE CONTROL


POSICIONAMIENTO DE UN BALANCíN UTILIZANDO LEYES DE CONTROL

Pérez López Ricardo, Universidad de Guanajuato. Asesor: Dr. Carlos Rodríguez Doñate, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad se utilizan diversas máquinas autónomas para cumplir tareas específicas, desde brazos robóticos que siguen movimientos con trayectorias definidas hasta balancines con posiciones de alta precisión; una forma de controlar su comportamiento es mediante las leyes de control clásico, donde el modelo del sistema se puede estimar de forma experimental. Este método de identificación consiste en adquirir la señal de respuesta del sistema ante una entrada conocida y con el modelo estimado se puede proponer un controlador proporcional (P), integral (I) o derivativo (D), con lo cual se mejorará la respuesta en estado transitorio y en estado estable del sistema a controlar. Estas leyes de control siguen siendo las más utilizadas debido a su gran eficiencia, por lo que se puede ver implementado para controlar impresoras 3D, sistemas de regulación y protección de equipos especializados, motores, robots, drones, estabilización de grúas y en las mayorías de las líneas de investigación. En este trabajo se muestra un balancín impulsado por una hélice de dron, el cual puede tomar cualquier posición y mantenerse fijo dentro del rango de 0 a 90° y si existe una fuerza externa que perturbe el sistema, este recupera de forma casi inmediata su posición original gracias al controlador PID implementado.



METODOLOGÍA

Para el desarrollo del proyecto se comenzó armando la estructura física del balancín, para ello se utilizó el software Fusion 360 que permite hacer modelados virtuales para impresión 3D, mediante este programa se hicieron las piezas de soporte para sostener la hélice, y una vez impresas, se prosiguió con el mecanismo de movimiento donde se utilizó un tornillo, un balero y un par de tuercas, esto con el propósito de tener la menor fricción posible, por último, se ensamblaron todas las piezas y se montaron sobre una base de madera. Después de realizar la estructura física del balancín, se diseñó un circuito regulador de voltaje con un LM317, esto debido a que el motor de la hélice tenía como tensión máxima 3.7v y la fuente de alimentación empleada suministraba 12v, luego de comprobar su correcto funcionamiento se montó en la base de madera y se prosiguió con el diseño de un circuito con un transistor 2N2222 para controlar la velocidad del motor por medio de PWM, ya que esto es necesario para el funcionamiento del controlador. De igual forma se implementó el sensor MPU6050 en la estructura del balancín, este sensor es una combinación entre acelerómetro y giroscopio, y es utilizado para conocer la inclinación en grados de un objeto en los tres diferentes ejes X, Y y Z. Para poder obtener los grados de inclinación del balancín utilizando este sensor, fue necesario crear un código en Arduino en el cual se emplearon las librerías existentes para la comunicación I2C, por medio de la siguiente formula los datos generados por el sensor fueron convertidos a grados: ángulo=0.98(ángulo+wgiroscopiodt)+0.02(ánguloacelerómetro) Una vez que la estructura fue terminada, se identificó la planta del sistema, para ello se utilizó el sensor MPU6050, una placa de Arduino y el software de Matlab, debido a que el sensor necesita tres segundos de calibración y es relativamente lento a comparación con el motor de la hélice, fue necesario bajar los baudios a 2400 y sumar un offset a los datos adquiridos, por último, se utilizó el ident de Matlab para tener la ecuación característica frente al impulso PWM de entrada, la cual se muestra a continuación: G(s)=1.7027/(69.8379s+1) Después de tener la ecuación de la planta, se continuo con la sintonización del controlador PID utilizando el método en frecuencia, de esta manera se propusieron diferentes valores de forma experimental para el tiempo de respuesta, el marguen de fase y el cero propuesto del mismo. La ecuación del controlador con los mejores resultados obtenidos para las ganancias kp, ki y kd fueron los siguientes: Gc(s)=0.19725((s2+33.3166s+207.9043)/s) Luego de tener la expresión matemática del controlador, se discretizo utilizando la tercera aproximación (trapezoidal) para tener una mejor resolución, con un periodo de muestreo de 3ms, tal como se muestra a continuación: Gc(z)=6.5719+(0.061515(1+z-1)/(1-z-1))+65.733(1-z-1) Finalmente se obtuvieron los coeficientes para el control digital y se implementó al balancín mediante la ecuación de y(k): y(k)=y(k-1)+72.333e(k)-137.917e(k-1)+65.7065e(k-2)


CONCLUSIONES

Se diseño un balancín impulsado con una hélice de dron, que fue controlado por medio de las leyes de control clásico implementando un controlador PID, cabe mencionar que los resultados obtenidos fueron satisfactorios ya que el error fue de tan solo 1 grados en estado estable. Respecto a las perturbaciones externas, el sistema desarrollado rápidamente alcanzaba la referencia indicada, por lo que se puede concluir que el balancín funciono correctamente.
Perez Meza Gerardo Ezequiel, Universidad Autónoma de Tamaulipas
Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas

DISEñO DE UNA ONTOLOGíA PARA REPRESENTAR LUGARES DE HOSPEDAJE EN CIUDAD VICTORIA TAMAULIPAS.


DISEñO DE UNA ONTOLOGíA PARA REPRESENTAR LUGARES DE HOSPEDAJE EN CIUDAD VICTORIA TAMAULIPAS.

Perez Meza Gerardo Ezequiel, Universidad Autónoma de Tamaulipas. Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Se eligió modelar una ontología acerca del área comercial de hospedaje de esta ciudad ya que en la actualidad no se encuentra una base de conocimientos de este tipo la cuales está orientada para ser utilizada por otros sistemas, de forma que pueda ser consultada de manera autónoma por estos últimos.



METODOLOGÍA

La metodología cascada para para cumplir como los pasos para un diseño de software, este es un ejemplo de la estructura básica al usar esta metodología: Análisis de requisitos. Diseño del sistema. Diseño del programa. Codificación. Pruebas. Implementación o verificación del programa. Mantenimiento. cabe mencionar que dependiendo las necesidades del proyecto pueden ser menos o más pasos.


CONCLUSIONES

A lo largo de este trabajo se ha aprendido a construir una base de conocimiento, a conocer sus elementos, conceptos y algunas utilidades. Todo esto a partir del software PROTEGE en el cual se modelo la ontología que se presenta en este documento donde presentamos un dominio el cual será de utilidad en futuros sistemas que se desarrollaran más adelante. Gracias a esto se podrá hacer uso de información y propiedades de este dominio en particular.
Perez Miramar Yareli Jaqueline, Universidad Politécnica de Tecámac
Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac

ANÁLISIS DE DESGASTE DE MATERIAL POR EROSIÓN DE PARTÍCULAS SÓLIDAS


ANÁLISIS DE DESGASTE DE MATERIAL POR EROSIÓN DE PARTÍCULAS SÓLIDAS

Aguirre Marín Francisco Javier, Instituto Tecnológico Superior de Huauchinango. Perez Miramar Yareli Jaqueline, Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

PLANTEAMIENTO DEL PROBLEMA Los álabes de un motor de turbina aeronáutica son equipos en diversos casos del mundo aeronáutico ha contribuido a estos buenos resultados, la alta exigencia técnica a los equipos que componen una aeronave, contribuye positivamente la estrategia de mantenimiento en este tipo de equipos, que se basa en una parada periódica para sustituir muchos de sus componentes de desgaste, las turbinas sufren averías, unas de poca importancia y frecuentes, y otras de carácter catastrófico que destruyen completamente el equipo. El contaminante de los álabes del compresor se produce por la entrada de partículas, cuanto menor sea la suciedad ambiental en la superficie en los álabes provoca pequeñas turbulencias en el aire de admisión que hacen que éste no avance. La mayor parte de los fallos en turbinas están relacionados debido a la presencia de polvos industriales, óxidos, arenas, cenizas volcánicas llamadas partículas abrasivas. El impacto constante y repetitivo de dichas partículas, provoca un desgaste de erosión ocasionando daños superficiales, cuando es más severa conduce un adelgazamiento de material, bordes irregulares y deterioro, en otros casos puede hacer un recubrimiento en el material ocasionando aumento de masa y dureza. Por ende, es importante realizar trabajos experimentales que proporcione información acerca del comportamiento. JUSTIFICACIÓN El presente trabajo pretende aportar información con relación al desgaste de materiales por erosión de partículas sólidas. Las referencias descritas en los siguientes párrafos y el estudio sobre el desgaste en materiales férricos, así como darán sustento al planteamiento del problema de la investigación.



METODOLOGÍA

METODOLOGÍA Se realizó un estudio de investigación previa sobre la erosión, partículas abrasivas, corrosión y metales; La mayor parte de la cual suponen un peligro para estructuras o materiales que a paso del tiempo, fuerza, temperatura o distancia se realiza un desgaste sobre este, haciendo que disminuya o gane masa según sea el caso. Por ende, es importante la realización experimental acerca del comportamiento en diferentes materiales y recubrimientos con fin de evaluar su resistencia a este comportamiento. Llevando a cabo un análisis de tasa de desgaste en la probeta de material, para la obtención de resultados estadísticos. Posteriormente las piezas a estudiar son partes de un alabe de turbina de un motor de avión, se enumerarán para realizarse varias pruebas a cada una y obtener resultados diferentes, estas se limpiaron con paño para remover polvo contaminante que contenían para después colocarle la etiqueta enumerada estas fueron del 1-6, se realizó la preparación del material. A dos de las piezas de prueba se le efectuaron un pulido como acabado final para realizarle un estudio de dureza en el Durómetro. El análisis realizado en la pieza fue en una escala Rockwell C que efectuó una carga de 150 kg, tomando en cuenta puntos que se le aplicaron a la pieza, obteniendo un promedio de dureza. Como consiguiente se realizó un diseño en el software SolidWorks donde se realizó la demostración y simulación del flujo de partículas desde la entrada de aire, el conducto que llega a la arena hasta donde sale disparadas contra el material. Posteriormente se pesaron las piezas para saber su masa y obtener datos exactos se utilizó una báscula. Se asumió que este recubrimiento que se hallaba en la parte superficial del material tenía un incremento mínimo de masa y dureza. La primera pieza expuesta a un desgaste por erosión fue la pieza #6 y fue erosionada con recubrimiento utilizando arena cerámica como partícula abrasiva, con una presión de aire aproximadamente de 80 psi durante 1 minuto. Como subsiguiente a esta se le realizó un corte transversal con un esmeril para someterla a una espectrometría de rayos x y ver la caracterización del material. Con base a la pieza erosionada se pudo obtener resultados y realizando una tabulación para diferenciar entre las demas piez,  se asintió que la pieza con recubrimiento después de ser erosionada disminuye su dureza al igual que su masa, esto dado que la pieza fue sometida al desgaste con el abrasivo en polvo. Existe una probabilidad de que este fenómeno repercuta en sus propiedades, para ratificar se necesitará la ayuda del espectrómetro de rayos x para comprender los elementos que conforman este material, observando sus propiedades por las cuales este conformado.


CONCLUSIONES

CONCLUSIONES La mayor parte de estos análisis que se llevaron a cabo en esta investigación, son enfocados a la experimentación las cuales tienen un sustento teórico Acertando que concurren variaciones que arrojaron los datos experimentales se declara que la pérdida de masa y dureza se debe a que la pieza es erosionada con las partículas abrasivas. Se comprobó que hay pérdida de dureza así mismo como su masa, en un periodo de corto tiempo (1minuto aprox), con esto se puede deducir que, incrementando el tiempo, la abrasión del material será mayor y severo haciendo que este afecté sus propiedades físicas disminuyendo su grosor.
Pérez Monzón David, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla

DESARROLLO DE TECNOLOGíA PARA MONITOREO VOLCáNICO Y AMBIENTAL


DESARROLLO DE TECNOLOGíA PARA MONITOREO VOLCáNICO Y AMBIENTAL

Deniz Hernandez Yael Armando, Universidad de Colima. Pérez Monzón David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

El estado de Puebla es atravesado por cinco fallas, de las cuales las más importantes son: Popocatépetl-Chignahuapan, Malinche y Atoyac-Minas. De acuerdo con lo antes mencionado es evidente que la actividad sísmica en la zona es debido a movimientos tectónicos, acomodamiento de la corteza y vulcanismo. Debido esto y con la intención de monitorear los distintos volcanes activos en la república mexicana, la Universidad Popular Autónoma del Estado de Puebla (UPAEP) en conjunto con el Centro Nacional De Prevención De Desastres (CENAPRED) ha comenzado diversos proyectos enfocados al desarrollar nuevas tecnologías que mejoren los procesos de monitoreo volcánico con los objetivos de la prevención de desastres naturales, entender mejor esta clase de fenómenos y en un futuro desarrollar tecnología espacial para este ámbito.



METODOLOGÍA

Para el desarrollo de estas tecnologías, la estancia realizada este verano en la UPAEP tuvo como principal objetivo el programar equipos de medición y sensores que se utilizan en sistemas aeronáuticos para la recolección de datos ambientales o como sistema de localización. En la primera etapa de la estancia se trabajó con el lenguaje de programación Arduino. Con él se escribió el código para dos instrumentos de monitoreo ambiental, el sensor de Presión ASD2511 y el de humedad/temperatura ASD2511, instalados como carga útil en una sonda meteorológico lanzado el pasado 26 de junio del presente año. El software fue modificado para que la recolección de datos se realizara cada milisegundo y su almacenamiento fuese en archivos compatibles con Excel, Python ó Matemathica para su posterior manejo. El tercer instrumento programado en esta etapa fue una unidad de medición inercial o IMU (del inglés inertial measurement unit) que se encargó de monitorear la orientación y aceleración de la sonda en cada milisegundo del lanzamiento. A estos tres dispositivos se les agregó un reloj RTC. Y se sincronizaron con el tiempo universal coordinado. El archivo que contiene la información recolectada por los sensores indica fecha, hora y la medición tomada. Posteriormente se trabajó en la programación de un sistema GPS piloto que fue instalado en la sonda metrológica para registrar los datos de localización, altura y fecha durante el vuelo. Para esto se utilizó una placa Arduino Nano que fue conectado a un GPS XA1110 y SD shield. Los datos se almacenaron para su lectura en Excel. El archivo indica fecha, hora, coordenadas, altura y número de satélites conectados. Como etapa secundaria del proyecto se diseñó un sistema de detección sísmica básico utilizando un Acelerómetro tipo 10 DOF MEMS y el microprocesador Raspberry Pi 3. El sistema se programó utilizando el lenguaje Python 3. El código del sistema fue configurado para obtener y graficar en tiempo real los valores de aceleración en un sistema coordenado de tres ejes indicando fecha, hora y la magnitud de la aceleración obtenida en cada dirección. Este dispositivo de monitoreo se probó durante el lanzamiento del dron entrenador y se planea ser instalado en los próximos campamentos de monitoreo vulcanológico para la detección y medición de sismos. También se programó una estación climatológica básica utilizando nuevamente el lenguaje Arduino. Agregando un sistema GPS NEO-M8P-2 de localización. La información recolectada por la estación (Fecha, hora, coordenadas, altitud, dirección y velocidad del viento) será utilizada para planificar los próximos lanzamientos y predecir las trayectorias de las sondas meteorológicas encargadas del monitoreo del Popocatépetl. Por último, se realizó el ensamblaje de un Dron Skywalker Falcon que posteriormente pasó a pruebas de vuelo. El objetivo de aprender a pilotear este sistema es implementar vehículos aéreos no tripulados para el estudio científico del comportamiento de los volcanes activos en el país. Los dispositivos que se obtenga durante el desarrollo estas tecnologías de monitoreo ambiental se planean implementar en estados donde hay gran actividad volcánica y sísmica pero que aún no cuentan con las herramientas necesarias para el constante análisis del fenómeno.


CONCLUSIONES

A lo largo de esta estancia de investigación adquirimos conocimientos teóricos de varias ramas de la ingeniería y ciencias exactas, además de ponerlos en práctica con el desarrollo de los diferentes dispositivos realizados. La tecnología desarrollada será de gran ayuda gracias que es de bajo costo y puede ser replicada fácilmente. Los valores registrados por todos estos instrumentos se usarán para la predicción y planificación de trayectorias en futuros lanzamientos de sondas meteorológicos y vuelos de drones para monitoreo ambiental, además de facilitar el monitoreo volcánico y ambiental. Al ser un extenso trabajo aún se encuentran en la fase de prototipos y no se pueden mostrar los datos obtenidos debido a que hacen falta correcciones.
Pérez Navarrete Sandra de Jesús, Instituto Tecnológico de Pachuca
Asesor: M.C. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios (Colombia)

RECONOCIMIENTO DE LA GUADUA EN PACHO- CUNDINAMARCA COMO FUENTE IMPORTANTE EN LA CONSTRUCCIóN DE VIVIENDA DE INTERéS RURAL.


RECONOCIMIENTO DE LA GUADUA EN PACHO- CUNDINAMARCA COMO FUENTE IMPORTANTE EN LA CONSTRUCCIóN DE VIVIENDA DE INTERéS RURAL.

Pérez Navarrete Sandra de Jesús, Instituto Tecnológico de Pachuca. Asesor: M.C. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las comunidades de la región de Rionegro en Cundinamarca poseen núcleos forestales de Guadua Angustifolia Kunth que no se han aprovechado potencialmente, por lo que se requieren de investigaciones que fortalezcan la cadena de valor y el desarrollo de la planta en esta región. De esta manera la pregunta a formular es: ¿Cuáles son las condiciones favorables de la Guadua Angustifolia Kunth como fuente de aprovechamiento en construcción rural en la vereda Guayacán de Pacho Cundinamarca?



METODOLOGÍA

Metodología Mixta (cualitativa y cuantitativa) Definida por fases: I. Conocer la propuesta de investigación de UNIMINUTO con el fin de aportar a ella, conocimiento y experiencia como estudiante de arquitectura. (Caracterización Ambiental de la Guadua en la Provincia de Rio Negro) II. Adquirir información secundaria - Estado del arte, recopilación de información -Visitas: Industria, casa Bioclimática, puente de guadua. III. Acercamiento a las autoridades competentes y a la comunidad de la vereda Guayacán en Pacho- Cundinamarca.  - Entrevistas y encuestas IV. Adquisición de material vegetal. -Selección de espacios y especies de la planta. -Corte de material V. Pruebas de laboratorio - Inmunización - Pruebas físico- mecánicas según la NTC.5525 VI. Análisis y conclusiones - Resultado de investigación - Propuesta arquitectónica de diseño espacial de vivienda rural


CONCLUSIONES

Al analizar las condiciones de la planta y al realizar las pruebas de laboratorio se reconoce la viabilidad que tiene la Guadua como material vegetal para su aprovechamiento en construcción rural. Adquirir información primaria y secundaria de la guadua Angustifolia Kunth tanto de Colombia y México para ampliar el conocimiento personal. Desarrollo de la propuesta arquitectónica espacial para implementar en la región de Rio Negro.
Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Pérez Rodríguez Laura Georgina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Donato Hernández Fusilier, Universidad de Guanajuato

DETECCCIóN DE OPINIONES SPAM CON DE N-GRAMAS DE PALABRAS Y CARACTERES


DETECCCIóN DE OPINIONES SPAM CON DE N-GRAMAS DE PALABRAS Y CARACTERES

Pérez Rodríguez Laura Georgina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Donato Hernández Fusilier, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Actualmente generamos grandes cantidades de información en la web, de la cual una fracción importante son opiniones acerca de servicios o productos consumidos a través de internet, estas opiniones pueden ser tanto positivas, negativas o falsas (spam), siendo estas ultimas perjudiciales ya que la mayoría de los usuarios toman la decisión de adquirir bienes y/o servicios basados en los comentarios en línea, comentarios que pueden ser a favor o en contra. A Simple vista resulta difícil distinguir una opinión verdadera de una spam lo que repercute de manera negativa en la toma de decisiones de los usuarios a la hora de adquirir o consultar recomendaciones sobre algún servicio o producto a través de internet.



METODOLOGÍA

usó como muestra un corpus de datos de 1600 opiniones de hoteles del centro de Chicago consideradas tanto positivas como negativas, así como verdaderas y falsas (spam), con estas opiniones se generaron archivos .arff (Attribute-Relation File Format) con composiciones diferentes de n-gramas de palabras: unigramas, bigramas, trigramas y  archivos de n-gramas de 3,4 y 5 caracteres, también  con esto se formaron  combinaciones de n-gramas de palabras con n-gramas de 3,4,y 5 caracteres e.j. unigramas-bigramas-trigramas-5 caracteres, posteriormente cada uno estos archivos fueron procesados con 5 diferentes métodos de clasificación: • El algoritmo Naïve-Bayes Classifier • El algoritmo Multinominal Naïve-Bayes Classifier • El algoritmo SMO (Sequential Minimal Optimization para SVM) • El algoritmo IBK (K-Nearest Neighbors) • Uso de Neural Networks (multilayer perceptron) Con el uso de Weka (software para aprendizaje automático y minería de datos). Una vez obtenidos los resultados de los algoritmos de clasificación se procedió a tabular dichos resultados para identificar con que algoritmos de  se obtuvieron  mejores resultados para las diferentes combinaciones de n-gramas y tipos de opiniones.


CONCLUSIONES

Resultados Obtenidos para opiniones positivas y negativas deceptve Para este trabajo se empleo un corpus de datos de 800 opiniones: 400 Deceptive-Positive 400 Deceptive-Negative En este caso el mejor resultado obtenido se obtuvo con Trigramas- bigramas y 4 caracteres utilizando el algoritmo SMO (Sequential Minimal Optimization para SVM) para opiniones negativas. Se obtuvo una f- meshure de 0.976. Resultados obtenidos para opiniones polaridad positiva Para este trabajo se empleó un corpus de datos de 800 opiniones: 400 Positive- Deceptive 400 Positive- Truthful En este caso el mejor resultado obtenido se obtuvo con Trigramas- bigramas y caracteres utilizando el algoritmo IBK (K-Nearest Neighbors). Se obtuvo una f- meshure de 0.985. Resultados obtenidos para opiniones positivas y negativas ( truthful y deceptive) El corpus de datos empleado en este trabajo contiene 1600 opiniones: 400 Positive- Deceptive 400 Positive- Truthful 400 Negative- Deceptive 400 Negative- Truthful En este caso el mejor resultado obtenido se obtuvo con bigramas y 5 caracteres utilizando el algoritmo Multinominal Naïve-Bayes Classifier. Se obtuvo una f- meshure de 0.884.
Picazo Medina Paola Yamileth, Instituto Politécnico Nacional
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DISEñO DE UN BAñO SECO EN LA UNAM


DISEñO DE UN BAñO SECO EN LA UNAM

Concha Ramirez Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Picazo Medina Paola Yamileth, Instituto Politécnico Nacional. Sánchez Méndez Martin, Universidad Autónoma del Estado de México. Tinajero Franco Diana Laura, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El problema de escasez de agua en la Ciudad de México se debe al uso ineficiente de los diversos servicios de agua y saneamientos. Dada la problemática de agua en la ciudad, cobra importancia la visión previsora en su cuidado y manejo, es por ello que el proyecto busca incorporar el uso de baños secos en una de las instalaciones del campus central de la Universidad Nacional Autónoma de México (UNAM). Un hecho notable es que en el campus debe abastecer una demanda de agua de 80 litros por segundo y, en promedio, el consumo diario total es de 8 050 metros cúbicos. De acuerdo con la Dirección General de Obras de la UNAM durante la última década el consumo anual promedio se ha mantenido en 3 millones de m3 de agua. El sistema de agua potable para el consumo en las distintas dependencias de Ciudad Universitaria (CU) se compone de tres subsistemas: el de suministro, el de almacenamiento y el de la red de distribución de agua. Este último lleva más de 30 años en servicio, por lo cual su mantenimiento se vuelve complicado. Con la finalidad de disminuir el consumo, desde hace más de diez años se ha modernizado el inmobiliario de los sanitarios en las distintas dependencias. En los últimos años, la Facultad de Ingeniería y el Centro de Investigación Avanzada (CIA) han desarrollado como propuesta alterna y visionaria un núcleo sanitario que reduzca el consumo de agua mediante sanitarios secos suficientes para abastecer la demanda de dicho edificio donde los  desechos se tratan mediante un sistema de compostaje adecuado para hacer uso de la materia fecal de una forma segura y eficaz para el usuario y el medio ambiente. El desarrollo de este producto también conlleva una seria problemática social debido al prejuicio que se tiene de los baños secos donde el rechazo hacia los olores y la suciedad es evidente por parte de los usuarios, a diferencia de casos análogos ya desarrollados cercanos a la ciudad. Se busca combatir este tipo de problemas desde el desarrollo mecánico y estético del cuerpo del producto propuesto. El mismo deberá responder a estándares de sustentabilidad, higiene, calidad y pretende obtener la aceptación de los distintos usuarios presentes y futuros, que utilicen el baño en la Facultad de Ingeniería, buscando ofrecer una buena experiencia en su uso. cantidades considerables de compostaje y el traslado del desecho.



METODOLOGÍA

Para desarrollar la propuesta del baño seco se realizaron una serie de pasos que nos han permitido tener un correcto desarrollo del proyecto. En principio revisamos los antecedentes respecto a los baños secos existentes y también analizamos el espacio donde se adaptará, el lugar se encuentra en el edificio I de la facultad de ingeniería, dentro de CU. Esto nos permitió tener noción de su estado para identificar su problemática, conocer sus magnitudes y características. Se hizo una investigación de campo en la cual se analizaron baños públicos de diferentes establecimientos, esto nos permitió realizar una tabla comparativa en donde se observaron cuáles eran los detalles que le generan una mejor experiencia al usuario, las cuales se tuvieron en cuenta a la hora de tomar decisiones en el diseño. De la misma manera se analizaron a los usuarios que participan en este proyecto y se determinaron que existían dos tipos (Estudiantes y conserjes). Siguiendo la metodología de Karl Ulrich se realizaron evaluaciones para determinar, entre todos los conceptos de solución,  el mejor diseño enfocado en el usuario. Durante estas evaluaciones simulamos Escenarios para entender mejor el contexto en el cual se desenvuelven los personajes, y del mismo modo a estos se les dotaron características que se vieron reflejadas en los diagramas de rutas de los usuarios. En conclusión durante este análisis se nos brindó una visión más amplia de los individuos que estarán en contacto directo con el producto final, así como sus rutinas y su metodología a la hora de estar dentro de los baños. Las propuestas de solución se evaluaron con diagramas de polaridad y matrices morfológicas para valorar las características, las funciones, los materiales y/u objetos que serían indispensables para la funcionalidad del proyecto. El proyecto se dividió en áreas de especialidad, dependiendo del perfil de cada integrante del equipo, de este modo la información se incorporaba y todo el equipo añadía un panorama más amplio acerca de los problemas ecológicos que se encontraron en la universidad. Con este sistema se facilitó la generación de alternativas de solución con rasgos ambientales que nos permiten disminuir la huella ecológica que actualmente estamos generando. Para concluir, los resultados se elaboraron virtualmente con el modelado de en 2D utilizando AutoCAD y en 3D utilizando Revit con la finalidad de compartir de manera gráfica los resultados y nuestra visión del baño del futuro.


CONCLUSIONES

La escasez de agua en todo el mundo es un problema que cada vez se vuelve más preocupante. Un sistema que ayude a evitar que las aguas residuales de las ciudades contengan heces fecales, tendrá beneficios en los ámbitos ambientales, sociales, agrícola y económico ya que serán únicamente aguas grises    Es importante mejorar la funcionalidad de los baños públicos con una nuevo diseño y mantener la sostenibilidad a medida que se van descubriendo vulnerabilidades. El proceso que se llevó a cabo para diseñar permitió desarrollar una propuesta la cual cumple con las necesidades del usuario. Más adelante se planea trabajar con otras disciplinas médicas, agrícolas y salud para garantizar la seguridad de los estudiantes interesados en la conservación del ambiente. Así mismo, validar la propuesta a través de prototipos funcionales que nos permitan tener un baño público favorable según los requerimientos establecidos.
Piña Urquiza Gustavo Adolfo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Luis Gerardo Arriaga Hurtado, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)

CONSTRUCCIóN Y EVALUACIóN DE UNA CELDA DE COMBUSTIBLE MICROFLUíDICA PARA LA OBTENCIóN DE ELECTRICIDAD A PARTIR DE LA OXIDACIóN DE UREA


CONSTRUCCIóN Y EVALUACIóN DE UNA CELDA DE COMBUSTIBLE MICROFLUíDICA PARA LA OBTENCIóN DE ELECTRICIDAD A PARTIR DE LA OXIDACIóN DE UREA

Piña Urquiza Gustavo Adolfo, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Luis Gerardo Arriaga Hurtado, Centro de Investigación y Desarrollo Tecnológico en Electroquímica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la contaminación y el daño ambiental causado por el ser humano es uno de los mayores problemas, las industrias generan anualmente toneladas de desechos que son arrojados al medio ambiente, afectando de ésta manera los ecosistemas y la vida animal, debido a esto se han realizado esfuerzos en el desarrollo de técnicas que permitan la eliminación de muchos tipos de desechos tóxicos. Por otro lado, para satisfacer las crecientes demandas globales de energía, se deben desarrollar fuentes alternativas de energía limpia, independientes de los combustibles fósiles. El uso de aguas residuales abundantemente disponibles para la producción de hidrógeno ha estado recibiendo atención reciente como una fuente alternativa de energía. El agua residual rica en urea se ha identificado como una buena fuente para la producción de hidrógeno en medio alcalino. El componente principal de los desechos humanos o animales en la tierra es la orina, que contiene aproximadamente 2-2,5% en peso de urea, lo que sugiere la disponibilidad de una cantidad considerable de urea en las aguas residuales municipales (Vedasri V.; Gerardine G.; 2012)   La electro-oxidación de la urea es una alternativa económica, eficiente y además amigable con el medio ambiente. Una celda de combustible es un dispositivo electroquímico que convierte la energía química en energía eléctrica, y consta de dos electrodos: un ánodo y un cátodo, separados por un electrólito. Debido a la necesidad de buscar energías alternativas sustentables que no sean contaminantes, se están investigando procesos para utilizar las aguas residuales como alternativa, destacando el hecho que en el proceso de oxidación electroquímica de urea se obtendría energía, se produciría hidrógeno y se remediaría el efluente municipal. La electrólisis de la urea de aguas residuales ha tenido gran importancia debido a que la remediación del agua se puede acoplar con sistemas de almacenamiento del hidrógeno producido en la reacción secundaria, el cual se puede aprovechar como vector de energía para alimentar de combustible transportable a otros procesos. Es por ello, que aportar conocimiento teórico y experimental sobre dicha tecnología resulta un tema de prioridad.



METODOLOGÍA

Basados en la literatura, se diseñó una celda de combustible microfluídica (CCµ) en un software especializado de modelado mecánico (SolidWorks) teniendo en cuenta los orificios de entrada para los combustibles, la salida para los desechos y para fijar la celda (tornillería). Una vez teniendo el diseño se realizó en acrílico mediante una máquina controlada por una computadora, que realiza cortes de forma automatizada (Router CNC) mediante un sistema denominado de control numérico, mismo que envía desde el ordenador las coordenadas del corte con una precisión milimétrica. Fabricada la celda de combustible, se prosigue a realizar los electrodos que esta lleva, estos se realizaron con Toray Carbon Paper® se cortaron a la medida propuesta, realizando se dos (ánodo y cátodo). Para el ánodo se realizó una tinta catalítica de 5mg de Paladio/Grafeno (Pd/G), 35 µL de Nafion (al 5%) y 365 µL de alcohol isopropílico (C3H8O) y se depositó por medio del método HotsPray. Para el cátodo se realizó una tinta catalítica de 5mg de Platino/Carbono (Pt/C), 35 µL de Nafion (al 5%) y 365 µL de alcohol isopropílico (C3H8O) y se depositó por medio del método HotsPray. Para poder sellar la celda se cortó un empaque de Silastic® con la forma del canal propuesto. Los colectores fueron construidos a partir de tiras de aluminio. Una vez con todas las partes de la celda se prosiguió a montar todo el sistema de la celda de combustible. Una vez lista la celda físicamente se prosiguió a realizar las evaluaciones para ello se evaluó:  La concentración del combustible, 3 M de Hidróxido de Potasio (KOH) Con los parámetros de Urea (CON2H4) : 0.33 M, 1 M, 3 M, 5 M en el anolito y para el catolito 1 M de ácido Sulfúrico (H2SO4). La concentración del electrolito soporte del anolito, 5 M de Urea (CON2H4) optima con los parámetros de Hidróxido de Potasio (KOH): 0.1 M, 0.33 M, 0.5 M, 0.7 M, 1 M, 2 M, 3 M en el anolito y para el catolito 1 M de ácido Sulfúrico (H2SO4). La concentración del electrolito soporte del catolito, 5M de Urea (CON2H4) 3 M de Hidróxido de Potasio (KOH) optima en el anolito y para el catolito con los parámetros de ácido Sulfúrico (H2SO4): 0.5 M, 1 M, 1.5 M y 2 M.  Estos parámetros se evaluaron con la inyección de los combustibles propuestos anteriormente, con las pruebas de circuito abierto (PCA) y Cronoamperometría (CA) mediante un Potenciostato/Galvanostato (Biologic VSP). Para la evaluación de la velocidad de flujo del anolito y catolito se utilizó una bomba de inyección (kdScientific) y se evalúo a la velocidad de fluido de 1 mL/h, 3 mL/h, 6 mL/h, 9 mL/h, y 12 mL/h.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos sobre el funcionamiento de una celda de combustible microfluídica (CCµ), diferentes componentes, caracterización, parámetros importantes en su funcionamiento, diferentes catalizadores y combustibles utilizados, técnicas electroquímicas de caracterización, perspectivas en su aplicación. Se obtuvo un diseño y su respectiva fabricación de una celda microfluídica de flujo a través de los catalizadores con ventanas para el flujo continuo de oxígeno utilizando un controlador numérico CNC. Se logró encontrar las condiciones óptimas de operación CCµ a partir de la evaluación de diferentes concentraciones del combustible de 0.1 a 5 M de urea, diferentes concentraciones del anolito de 0.5 a 5 M de KOH, así como del catolito de 0.5 a 1.5 M a partir de curvas de polarización y potencia. Finalmente, se evaluaron las velocidades de flujo inyectada a través de una bomba de 1 a 12 mL h-1y su efecto en presencia de gases como O2 y N2 ya que por estudio se conocido que pudiera beneficiar o afectar la ruta catalítica de los catalizadores utilizados de Pd soportado sobre rGO. Como perspectiva se platea utilizar a la par etanol como un doble combustible en oxidación. 
Pinchao Villota Diana Carolina, Universidad Católica de Pereira (Colombia)
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN


OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN

Garcia Muchacho Leonardo, Instituto Tecnológico de Iguala. Pinchao Villota Diana Carolina, Universidad Católica de Pereira (Colombia). Rios Hernández Karla Greta, Instituto Tecnológico de Iguala. Vazquez Castrejón Cynthia Itzel, Instituto Tecnológico de Iguala. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Guerrero es uno de los estados más importantes de México en cuanto a la explotación de minerales, ya que este estado es una zona rica en oro y plata por estar ubicado en el Cinturón de oro del pacifico (región que más facilidades ofrece en términos geológicos para extraer metales como oro y la plata). Esta idea surge de la necesidad que tienen las personas de este estado en querer explotar estos minerales en sus hogares para suplir sus necesidades básicas, el 60 % del territorio nacional tienen dueño, por tal motivo los microempresarios buscan asesoramiento para extraer el mineral en cuanto al contenido de minerales valiosos y de esta forma proseguir con la explotación de sus terrenos. Se requiere obtener minerales con contenido valioso (oro o plata), mediante la implementación de un proceso de optimización basado en dilución de valores y flotación de minerales.



METODOLOGÍA

Diseño y preparación de materiales y equipos Se eligió el tipo de muestras mineralógicas para su molienda y análisis metalúrgico, se realizó la rotulación de frascos para poder identificar las diferentes muestras de minerales con las cuales se va a trabajar. Para la trituración de las rocas se utilizaron herramientas como el marro y una plancha de acero como base, se hizo el proceso de molienda en el molino de mano. Teniendo la muestra reducida de tamaño (molida), se depositan en los frascos rotulados, se ordenó en números de muestras que se tuvo para procesar. Los minerales identificados son: Caliza, Andesita y Azurita. Reducción de tamaños Se redujo el tamaño de las muestras usando el molino de bolas (molienda 15 min) este proceso se lo hizo con las muestras de los minerales identificados. Se procedió al proceso de recuperación de valores metálicos, si la muestra es un oxido ésta debe diluirse en ácido nítrico al 10% para saber si tiene plata y si tiene oro se hace la lixiviación con cianuro al 10% y si es un sulfuro se somete al mineral al proceso de flotación (BULK). Ensaye por fusión (fundición) El proceso a seguir con las muestras que pasaron por dilución (cianuración) se le preparó un fundente, como resultado de la fundición de las tres muestras se obtuvo residuos de la fundición del mineral andesita y de la azurita se obtuvo algo de residuo. Además, se trabajó con una nueva muestra (concentrado I) se tienen 182.5 gr, se cuartea la muestra de concentrado alemán, por ende, 91.25 gramos pasan por dilución de valores y el resto de la muestra pasan por fundición. Por el método de dilución de valores este mineral no tuvo plata, pero al hacer el proceso de fundición se obtuvo un pequeño botón de plata. Copelación Se realiza el proceso de copelación para las muestras de las que se han obtenido pequeños residuos de algún metal valioso después de la fundición (azurita, andesita y concentrado I), para ello se necesitó: una mufla u horno eléctrico a una temperatura de 800 °C.  De la muestra concentrado alemán se obtuvo oro, su peso fue de: 0.046 gr. Apartado Se llevó a cabo: LA TEORIA DE LA ELECTRONEGATIVIDAD,ESTUDIADA POR PAULING, para ello se tuvo en cuenta la electronegatividad del cobre y plata (los dos son de 1.9) ambos elementos tienen la misma capacidad de atraer electrones hacia sí, si se los deja juntos. Se comprobó esta teoría y se fundió lo que se obtuvo. El diámetro del cobre disminuyó y se obtuvo 0.05 gr de plata después de la fundición, es decir, que se recuperó el 42% de este metal. Se comprobó la teoría de la electronegatividad de Pauling con respecto a la fuerza de electronegatividad sobre transferencias iónicas, tal es así, que también el cobre se disuelve en el ácido y forman nitrato de cobre color azul, es decir, así como deposición de la plata metálica en el cobre, en función del resultado obtenido se hizo el mismo proceso con un mineral de los que se han venido estudiando (andesita). Se hicieron cálculos para determinar el volumen de la varilla de cobre que se perdió después de la reacción con el ácido, y se concluye que se pierde un 43.4176% de su volumen. Procedimiento de flotación Se llevó a cabo la Pruebas Batch de laboratorio: se diseñó un sistema el cual consta de un taladro de columna, una celda metálica y un compresor, una vez se puso en funcionamiento el sistema  en la celda metálica se colocó agua, mineral andesita (muestra n.6), reactivo Xantato AERO 343-22%, Espumante CC-580-7p (alcohol alifático), Aerofloat 242 el tiempo de acondicionamiento fue de 10 min, se hizo control del pH, el paleteo se lo hizo cada 2 segundos (en un recipiente se colocó la espuma que resultó de la flotación). Cuando el proceso terminó se procedió a pasar el concentrado a un filtro de vacío, con el fin de obtener el mineral concentrado seco y pasarlo posteriormente a fundición, se obtuvieron 117 gramos de mineral concentrado. Se hizo la fundición y se obtuvo un botón de plomo con plata, se realizó la copelación para determinar si posee algún mineral valioso, como resultado se obtuvo un pequeño botón de plata el cual tuvo un peso de: 0.3062 gramos. Se concluye que de 1 kilo de mineral se pueden obtener 117 gr de concentrado de este mineral y de 30gr de concentrado de mineral se obtuvieron 0.3062 gr de plata. Por lo tanto, de 1000 gr (1 kilo) = 10.203 gr de plata,1 ton (1000 kg) = 10,203.3 gr de plata = 10.203 kg de plata.


CONCLUSIONES

Durante la estancia de verano científico se lograron adquirir conocimientos teóricos y prácticos en el proceso de la obtención de minerales valiosos. Se hicieron diseños de los métodos para determinar cuál proceso era el más óptimo en la obtención de metales como oro o plata de los minerales que fueron objeto de estudio, los métodos utilizados del proceso fueron: dilución de valores, la teoria de la electronegatividad estudiada por Pauling y flotación. Siendo el ultimo el más eficaz cumpliendo así el objetivo del proyecto de Optimizar el proceso en la obtención de minerales valiosos, en los procesos ya mencionados la recuperación de mineral fue mínima y en la flotación el índice de recuperación fue mayor.
Pineda Diaz Joshmara Mildred, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

DECODIFICACIÓN DE INTENCIÓN DE MOVIMIENTO A PARTIR DE SEÑALES ELECTROENCEFALOGRÁFICAS


DECODIFICACIÓN DE INTENCIÓN DE MOVIMIENTO A PARTIR DE SEÑALES ELECTROENCEFALOGRÁFICAS

Pineda Diaz Joshmara Mildred, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En la mayoria de las acciones realizadas por una mano humana se utilizan tres movimientos principales: palmar, de pellizco y lateral. En este estudio se intenta conocer las caracteristicas de la intencion de movimiento del ser humano ante la muestra de un estímulo, al igual que  discriminar las tres acciones mencionadas mediante el uso de señales  electroencefalográficas (EEG). Estos estudios proveeran la informacion necesaria para comprender la respuesta cerebral ante el movimiento de una extremidad, permitiendo que eventualmente esta informacion sea aplicada para el uso de neuroprotesis  de una manera natural e intuitiva, teniendo como objetivo mejorar el estilo de vida de usuarios con problemas motrices.



METODOLOGÍA

Este experimento fue realizado en un área libre de ruidos a 15 participantes de edades entre los 20 y 45 años. Cada experimento constó de 10 runs,  cada run contiene 24 trials con un tiempo individual de 6.5 min, tomando un tiempo total de 65 min por experimento. En cada trial se presentan 3 imágenes distintas: Atención: Imágen en blanco que le indica al participante que debe permanecer tranquilo y atento a la indicación siguiente. Acción: Estímulo que indica el brazo a utilizar o la acción a realizar (presionar o agarrar), si el programa le indicó que brazo utilizar, el participante escogerá que acción realizar y visceversa.  Relajación: La imagen indica que el participante puede moverse y relajarse para la imagen de atención siguiente. Cada participante fue colocado en una silla con un botón debajo de cada antebrazo,  frente a el se colocó un escritorio con una pantalla (para mostrar las imágenes de cada trial) y un contenedor con dos botones más, uno para presionar en la parte superior y otro para sujetar o agarrar al costado de éste, con el fin de cuantificar el tiempo de cada movimiento realizado. Se le colocó en la cabeza un gorro con 64 electrodos, en donde a cada uno de estos se le inserta la cantidad de gel conductor necesaria para lograr el paso de las señales neuronales. Después de cada run el participante tiene la oportunidad de moverse libremente, sin levantarse del asiento, con el fin de relajarse totalmente para el comienzo del run siguiente. A lo largo del experimento las señales del EEG son adquiridas y procesadas por equipo de g.Tec y el programa BCI2000. Al terminar el experimento estas señales son procesadas a lenguaje de MATLAB, en donde se limpia la señal, eliminando canales y trials con problemas y se analiza el tipo de respuesta de las señales al momento de la atención, intención de movimiento y estímulo.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos necesarios para la experimentación con señales EEG y para el análisis de estas, utilizando distintos programas como MATLAB, R, BCI2000 y los otorgados por g.Tec. Mediante el análisis de las señales obtenidas se identificó en los canales motores, que al momento del estímulo, el cerebro envía señales de preparación para que el movimiento sea llevado a cabo (intención de movimiento), siendo estadísticamente significativo al momento de compararlo con el tiempo de descanso, en donde la actividad cerebral es mínima. 
Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero
Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato

ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO


ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO

Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero. Gómez Briceño Marco Favio, Universidad de Guadalajara. Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero. Ramirez Herrera Onel, Instituto Tecnológico de Tepic. Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de toda la riqueza  arquitectónica de Guanajuato,  no existen investigaciones publicadas que expongan de forma detallada los sistemas constructivos empleados en sus edificaciones, por lo tanto, se desconocen ciertos elementos de su estructura y funcionamiento  que son necesarios para conservar su identidad cultural. Por lo cual, la presente investigación apoyará a identificar los elementos que forman parte de estos sistemas constructivos tradicionales y contemporáneos, entendiendo su transformación relacionada a los mismos, en cuanto a materiales, tamaño y ubicación de predios, características de las viviendas, valor histórico, así como la normatividad en contextos patrimoniales; por ello, es necesario hacer una serie de comparaciones en los procesos de construcción de las edificaciones y su diferente aplicación de los materiales que estos conllevan. Al mismo tiempo, se logrará adquirir conocimiento de la arquitectura local y nacional compartiéndolo con la sociedad propiciando a generar una cultura de apreciación, mantenimiento y cuidado de la misma. 



METODOLOGÍA

Se realizó una extensiva investigación documental por medio en tesis, enciclopedias, libros y revistas, así como páginas web, relacionadas con los antecedentes históricos de la ciudad de Guanajuato para entrar en contexto con la situación urbanística y arquitectónica de la zona, aspectos legales y de reglamentación constructiva así como todo lo relacionado arquitectónicamente con la vivienda tradicional y contemporánea, tomando en cuenta el entorno y contexto en el que se encuentran. Una vez en contexto, se comenzó a estructurar el marco teórico con el que se fundamenta la investigación Este se estructura de un referente histórico en el que se profundiza en el origen de la ciudad de Guanajuato, actividades y estilos de vida que se llevaban a cabo, situaciones y condiciones que sufrió la sociedad y el cómo se fue constituyendo urbanística y arquitectónicamente para conformar lo que hoy en día corresponde al centro histórico. Además un referente legal en el que se hace mención de las primeras leyes que se proclamaron con el fin de proteger este tipo de edificaciones así como las que actualmente se toman en cuenta promoviendo su cuidado y conservación. Otro de los referentes que conforman este marco teórico es el conceptual, aquí se definen los conceptos que rigen esta investigación como que es el patrimonio cultural, un centro histórico, como se define una vivienda tradicional y una contemporánea, estilos arquitectónicos así como elementos de construcción utilizados en cada uno de los procesos constructivos. Por ultimo un referente contextual en el que se describe las condiciones topográficas, climatológicas, arquitectónicas y sociales en las que se encuentran estas viviendas Una vez establecido el marco teórico se realizaron cuatro visitas de campo, estas a los inmuebles a analizar, las tres primeras visitas se realizaron al Hostal BARATHI (vivienda tradicional). La primera se hizo para solicitar permiso a los dueños y realizar un recorrido para conocer las inmediaciones e irnos familiarizando. En la segunda se hizo un levantamiento fotográfico, captando cada uno de los espacios que conformaban el Hostal, circulaciones y accesos, así como elementos arquitectónicos (escaleras, puertas y ventanas), aplicación de materiales y acabados. Y la tercera visita fue para realizar un levantamiento constructivo, con ayuda de un distanciómetro, cintas métricas y fluxómetro con el fin de elaborar planearía digital y un modelo virtual. La cuarta visita se hizo pero al fraccionamiento Real de la Mancha Residencial, para hacer un levantamiento fotográfico, de igual manera de todo las estructura arquitectónicamente hablando, fachadas, acabados. Los datos acerca de la cimentación, proceso constructivo y aplicación de materiales, etc... fueron proporcionados por parte de la empresa Una vez con todos los datos recabados se comenzó con el análisis de cada una de las viviendas y posteriormente con su comparación la cual se elaboró a manera de tabla para una mayor comprensión de las diferencias presentes entre ellas


CONCLUSIONES

De acuerdo a la investigación documental y de campo que se llevó a cabo, el análisis comparativo realizado en cada una de las viviendas, tanto tradicional como contemporánea; concluimos que la vivienda tanto a nivel espacial como constructivo, ha evolucionado en todos los aspectos a lo largo de la historia, esto como producto fundamental de los nuevos estilos de vida, cambios en la forma de relacionarse con el entorno  y sobre todo la adaptación por parte de la sociedad a los nuevos materiales, procesos constructivos y tecnológicos. Sin embargo, esta evolución se da de manera diferente en distintos lugares del mundo, debido principalmente a la topografía, tipos de suelos y condiciones del clima, además de los estilos de vida, valores sociales y religiosos, al igual que costos y tiempos de construcción, entre otros aspectos; los cuales han determinado tanto la forma y distribución de los espacios , acabados y el dimensionamiento de las viviendas, así como el uso de propuestas para la  conservación ambiental como de materiales industrializados, apegándose a los reglamentos, normas de construcción y la configuración general de las edificaciones. Esto se puede ver reflejado en todos y cada uno de los puntos anteriormente mencionados en los tipos de viviendas analizadas, desde cimentación hasta el último detalle en los acabados, debido a la utilización de materiales propios de la región y materiales ya industrializados por lo que sus procesos constructivos son diferentes.
Pineda Nieto Adriana, Instituto Tecnológico de Tapachula
Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa

BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTóBAL DE LAS CASAS, CHIAPAS


BENCHMARKING EN LA INDUSTRIA LLANTERA DE SAN CRISTóBAL DE LAS CASAS, CHIAPAS

Lopez Ortiz Laura Tatiana, Universidad Antonio Nariño (Colombia). Pineda Nieto Adriana, Instituto Tecnológico de Tapachula. Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa



PLANTEAMIENTO DEL PROBLEMA

En San Cristóbal de las Casas, Chiapas se identificaron 7 socios del sector llantero los cuales se determinaron como los más competitivos de dicha ciudad, para realizar un estudio con el objetivo de conocer las prácticas de gestión de calidad y procesos   que cada uno realiza, además de los productos y marcas que manejan con el fin de establecer las estrategias que les ayudan a colocarse como los más competitivos en este sector.



METODOLOGÍA

El análisis bibliométrico inicia con la primera fase donde se realiza la técnica del estado del arte con criterios de selección de artículos centrando su temática en Benchmarking, negocio llantero, y metodología benchmarking esto plasmado en una matriz de revisión bibliográfica donde se podrá visualizar cada característica de la información encontrada en cada artículo y dando cumplimiento a la temática ya establecida en la investigación. Dentro de esta primera fase también se encuentra la caracterización de socios del benchmarking empresas llanteras de la ciudad de San Cristóbal de las casas, Chiapas, como criterio que cumplan con el mínimo de especificaciones como venta e instalación de llantas y otros servicios, sin tener en cuenta las microempresas, esto por medio de una entrevista estructurada dirigida al gerente de cada empresa. Después de lo anterior se procedió a agrupar la información de las llanteras y realizando una matriz donde se visualiza los servicios, productos, marcas de llantas y otros aspectos que manejan las mencionadas anteriormente. Posteriormente se define los indicadores de desempeño a evaluar para realizar comparación entre empresas y de acuerdo con los investigadores se establecerá los datos como nivel de confianza y margen de error, para definir el tamaño de la muestra con respecto a una población finita de la cual se realizará las prácticas necesarias para medir el nivel en que se encuentra cada empresa. Para una segunda fase se estructura una serie de encuestas dirigidas a empleados y clientes para evaluar los indicadores a medir, y se aplica el cálculo de fidelidad de las encuestas; además de esto se realizar una identificación de las prácticas de gestión de calidad en cada una de ellas. Como tercera fase se realiza una serie de recomendaciones y mejoras para subir el nivel de competencia entre los socios del Benchmarking y mostrar las fallas actuales en la organización, con esto se establece el alcance de la investigación.


CONCLUSIONES

Durante la estancia se logró poner en práctica los conocimientos del Benchmarking a los 7 socios de la industria llantera de la ciudad de San Cristóbal de las Casas. Obteniendo un promedio general de 80.17% , superando el mínimo esperado del 70%, reflejando este promedio en los indicadores de satisfacción del cliente, calidad del servicio, mejora del proceso, instalaciones y ubicación. Sin embargo, al ser un estudio que se hace un poco extenso de parte de los socios participantes y resistencia al cambio de estos mismos, se queda inconcluso en la fase 3 dando las respectivas recomendaciones para cada socio participante.
Piñon Ramos Ileana Monserrat, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

CONSECUENCIA DEL USO DESMEDIDO DE LAS REDES SOCIALES EN EL RENDIMIENTO ACADéMICO DE LOS JóVENES UNIVERSITARIOS.


CONSECUENCIA DEL USO DESMEDIDO DE LAS REDES SOCIALES EN EL RENDIMIENTO ACADéMICO DE LOS JóVENES UNIVERSITARIOS.

Piñon Ramos Ileana Monserrat, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las redes sociales pueden ser una gran herramienta para poder comunicar algo masivamente y rápidamente, y de hecho, para esto se han desarrollado. Si no se usan las redes sociales con criterio, pueden alterar a la sociedad, causando muchos efectos colaterales. Cabe destacar que las redes sociales han surgido en este siglo, pero han tomado mucha popularidad recién entre los años 2005 y 2010, teniendo su auge precisamente en los años 2013-2014. Consecuencias de las redes sociales: >Incentiva a la comunicación virtual, cuando en realidad el humano se caracteriza por hablar, sentirse, verse, usando los sentidos propios. El chat o una videollamada quiebra las raíces prácticas de la socialización. >Devaluación de la intimidad. Esto significa que en los últimos años, el factor personal e interior de la persona se ha ido perdiendo. Ya todos publican lo más privado de cada uno. >Nos adentramos a un mundo completamente incomunicado en donde la virtualidad lo camufla pareciendo que estamos en un sistema socializado, cuando en realidad predomina el aislamiento personal. >Se produce una pérdida de privacidad aunque no nos demos cuenta. Esto es porque estamos constantemente publicando nuestros datos personales en Internet. Toda persona puede saber quienes somos si tenemos perfiles en las redes sociales.  >Sensación de inseguridad en las redes sociales. Obviamente no solo se traduce en esta percepción, porque de hecho, puede resultar muy inseguro compartir datos en la Web. >Te aleja de diversas actividades tanto familares como escolares. >No se rinde al cien por ciento. Debido al estar todo el dia en redes sociales, te desprende del mundo real y te lleva a perder tiempo en hacer nada. 



METODOLOGÍA

Por medio de una encuesta se desea conocer la importancia de las redes sociales en la vida de los jovenes universiarios.


CONCLUSIONES

Las redes sociales son la principal  causa de desconcentración  en los jóvenes durante las clases y debido a ello propicia un bajo rendimiento académico; con la implementación de estrategias por parte de los profesores se pretende reducir el uso de los dispositivos electrónicos durante las clases.
Pinto Diaz de Leon Patrick, Universidad Autónoma de Baja California
Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA


FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA

Cebreros Arellano Kenya Fernanda, Instituto Tecnológico de Sonora. Pinto Diaz de Leon Patrick, Universidad Autónoma de Baja California. Rincon Herce Jackelyne, Instituto Tecnológico de Querétaro. Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El cáncer infantil es la principal causa de muerte por enfermedad en mexicanos entre 5 y 14 años de edad, conforme a las cifras preliminares en 2013 reportadas en el Sistema Estadístico Epidemiológico de las defunciones (SEED). Entre estas cifras se encuentra el osteosarcoma que es el cáncer más común" que afecta a personas jóvenes de entre 10 y 30 años, donde se detectan entre 100 y 150 nuevos casos al año en México. Se desarrolla principalmente en los huesos largos, con mayor frecuencia en los de las piernas, pero a veces también se presenta en los huesos de los brazos o en la pelvis. Este cáncer suele desarrollarse a partir de los osteoblastos (son las células del hueso encargadas de sintetizar la matriz ósea, por lo que están involucradas en el desarrollo y crecimiento de los huesos), por esto existe una mayor incidencia de este cáncer en los niños que están en el proceso de crecimiento y como la mayoría de los casos de osteosarcoma afecta a los huesos largos como el fémur, genera un problema en el funcionamiento de la rodilla, creando la necesidad de una prótesis. Se tienen datos de que en México se presentan 3 casos por cada 100 mil habitantes de reemplazo de rodilla al año, esto comparado con los 125 nuevos casos promedio que se suman anualmente es muy poco. Esto se debe a que la operación es muy costosa y que la mayoría se van al extranjero a realizarse la operación. Cabe mencionar que el costo de la operación dentro del país es menor comparado con otros. En México no existe la producción de prótesis, al tener que importar la prótesis desde otro país encarece el costo final de la operación.  Por esto nace el interés y la necesidad de crear una infraestructura para la fabricación de prótesis, reduciendo el costo de la prótesis, y poder recurrir a los hospitales mexicanos donde se hacen estas operaciones ayudando a la economía del país desde ambos sectores. Otra inquietud es que estas prótesis importadas solo se pueden conseguir en los tamaños de: grande, mediano y chico. La manufactura aditiva es una opción viable para la fabricación de piezas de geometrías complejas y personalizadas, como lo es la prótesis. Por este motivo se propone como buena opción para la fabricación de la prótesis, permitiéndonos desarrollar una prótesis adaptada a la medida que requiera nuestro cliente.



METODOLOGÍA

El proyecto en el que colaboramos se divide por tareas y actividades específicas estas son: en el primer año tenemos el diseño, modelado, análisis, simulación, optimización de procesos y fabricación, funcionalidad de la superficie y prueba biológica; en el segundo año tenemos las pruebas mecánicas y su implementación en el mercado y por último en el tercer año se trabajará en el rediseño y optimización de la prótesis. Nosotros estuvimos colaborando en las etapas de: diseño, modelado, análisis, simulación, optimización de proceso y fabricación. En la parte de diseño y modelado, se tomó como base del diseño una prótesis fabricada en titanio que ya es implantado en niños con cáncer en México, por reingeniería se escaneo en 3D para dimensionar la geometría exacta y a partir de esto se hizo el modelado en 3D en el software CAD (SOLIDWORKS). Posteriormente se procedió a la parametrización en SOLIDWORKS, donde se crearon tablas con diferentes datos de altura y peso de los niños que determina las dimensiones óptimas para cada rango de edad para la prótesis. El análisis FEA es una simulación mecánica de los elementos antes de su fabricación, mediante un software CAE que nos permite evaluar y simular el diseño de la prótesis. En este software llamado ANSYS podemos escoger cualquier material que este en su librería o bien buscar las propiedades físicas y químicas del material y agregarlo, se buscaron diferentes materiales y se procedió a agregarlos a una librería nueva, esto con el fin de definir el material más adecuado para la prótesis. También se puede hacer un análisis con varios materiales en un mismo proyecto, y así encontrar la mejor combinación de materiales para la prótesis. Antes de pasar a la fabricación se elige el proceso adecuado y para piezas metálicas, actualmente se utiliza la tecnología de cama de polvos (DMLM), estuvimos específicamente trabajando con un equipo de la empresa Concep Laser, con el modelo M2. Nos familiarizamos con el proceso que esta tecnología usa en la fabricación de piezas, donde se tienen varias etapas: preparación de datos, operación del equipo, post-proceso (varias opciones del post-proceso.). En la parte de preparación de datos se utilizaron softwares tales como materialise (MAGICS) para orientar y añadir los soportes necesarios para lograr la mejor impresión de la prótesis, buscando optimizar el uso del material y evitando un post-proceso largo y complejo. Hablando del post-proceso tenemos varias formas de remover las piezas creadas por MDLM de su plato de impresión, la más sencilla es con herramientas de trabajo manual, pero cuando están muy adheridas al plato se tiene que proceder a cortarlas con un equipo maquinado convencional. Cuando estuvimos involucrados en la parte del proceso de la máquina, tuvimos que tener medidas de seguridad, se debe usar un equipo de seguridad conformado por mascarilla facial, bata y botas de seguridad, teniendo el mayor cuidado con el polvo metálico con el que se trabaja, cuando se trabaja con titanio, este tiene un alto grado de inflamabilidad.


CONCLUSIONES

Nos enfrentamos con diferentes problemas en el desarrollo de este proyecto, pero estos problemas nos hicieron reforzar los conocimientos que teníamos respecto a los temas con los que se trabajaron. A lo largo de esta estancia tuvimos tareas grupales e individuales, en todas trabajamos en la realización o mejoramiento tanto de los manuales de operación de la M2 como de los software que utiliza para la preparación de datos, modelado y el análisis FEA. También presentamos una propuesta de optimización de la prótesis y creamos una placa de probetas que evalúa las capacidades de impresión del equipo M2 que se ubica en el consorcio CONACYT en manufactura aditiva.
Pinzón Reséndez Yendy Fernanda, Universidad Autónoma de Tamaulipas
Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas

ONTOLOGíA DEL DOMINIO DE LOCALES DE COMIDA.


ONTOLOGíA DEL DOMINIO DE LOCALES DE COMIDA.

Pinzón Reséndez Yendy Fernanda, Universidad Autónoma de Tamaulipas. Asesor: Dr. Ana Bertha Rios Alvarado, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En 1998, Tim Bernes-Lee propuso la WWW (World Wide Web) de tal forma que es comprendida por el ser humano, pero carece de la posibilidad de procesar la información de forma automática, por ello existe la web semántica, la cual se define como una extensión de web actual dotada de significado, esto permite a una maquina aprender de un tema, responder preguntas planteadas en lenguaje natural e inferir conocimiento. La web semántica se basa en reglas lógicas y ontologías también llamadas bases de conocimiento, que son vocabularios ordenados jerárquicamente de tal forma que sirven para ordenar, representar y no tener ambigüedad con los datos, sin embargo, debido a su alto costo y laboriosidad no es común su práctica. Por esa razón se tiene como objetivo elaborar un vocabulario del dominio de locales de comida ubicados en cd. Victoria, Tamaulipas con 70 comercios por medio de la herramienta de software libre protégé, para así aportar información fidedigna a esta parte de la web.



METODOLOGÍA

Para crear la base de conocimiento se realizó un análisis del dominio desde el punto de vista de un turista teniendo en cuenta que le interesaría conocer de un local de comida, en base a esto establecemos el alcance, las clases, las propiedades y las preguntas a responder. La metodología se seleccionó por prevenir la confusión de los datos y el tener que volver a evaluar alguna característica del vocabulario, cuenta con los siguientes pasos: 1.- Ingresamos las clases. 2.- Asignamos las propiedades de objetos (Object Properties) que enlazan a las instancias de las clases. 3.- Asignamos las propiedades de datos (Data Properties) que agregan peculiaridades a las instancias. 4.- Poblamos con individuos que son las características de los comercios. 5.- Formulamos y validamos reglas SWRL, mediante las cuales se infiere conocimiento. 6.- Formulamos y validamos consultas SPARQL, las cuales responden las preguntas.   Llevando a cabo lo anterior, se concibió una ontología completa y funcional que cuenta con siete clases de las cuales tres cuentan con subclases y de estas dos tienen otra subclase, nueve propiedades de objetos, tres propiedades de datos, ciento cincuenta individuos, doce reglas y cinco consultas.


CONCLUSIONES

Las bases de conocimiento son una gran forma de trabajar con la información, debido a que tienen un enfoque directo al lenguaje natural lo cual facilita su procesamiento y entendimiento, no obstante, no hay una forma correcta de analizar los dominios, puesto que depende de la manera de pensar de la persona. Al emplear herramientas como protégé que brindan varias maneras de enlazar la información suele haber errores, por ejemplo, al momento de correr las reglas, ya que agregan nuevos tipos a los individuos dependiendo del dominio y rango que tengan las propiedades de objetos y propiedades de datos relacionadas en las mismas, también si se cargan más de una vez generan uniones erróneas e incluso no elaboradas, por ello se sebe reiniciar el programa para que se funcionen apropiadamente. A esta ontología se le pueden agregar más comercios y volverla aun mas completa, lo que se requiere es tiempo.
Pioquinto Perez Gustavo Angel, Universidad Autónoma del Estado de México
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

TECNOLOGíA RFID


TECNOLOGíA RFID

Pioquinto Perez Gustavo Angel, Universidad Autónoma del Estado de México. Vargas Ortiz Fernando, Universidad Autónoma del Estado de México. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La tecnología RFID (Radio Frequency Identification) es una forma de comunicación inalámbrica que incorpora el uso de acoplamiento electromagnético o electroestático en una frecuencia determinada del espectro electromagnético, para identificar únicamente un objeto, animal o persona. Esta tecnología tiene la característica de ser de lectura rápida y de bajo costo. Es ampliamente utilizada con fines de control de inventario y control de personal. En la Universidad Politécnica de Sinaloa (UPSIN) se cuenta con la necesidad de desarrollar un sistema el cual permita llevar el control de los equipos de cómputo en los diferentes laboratorios con los que cuenta el plantel.



METODOLOGÍA

Un sistema RFID ésta compuesto de 2 elementos principales: Tarjeta RFID, la cual contiene la información en una memoria gobernada por un microchip. Un escáner o lector el cual se encarga de extraer la información de las tarjetas. Estas tarjetas operan bajo cuatro principales ondas de frecuencia, siendo estas: Baja frecuencia (Low Frequency):  Utilizan una frecuencia comprendida desde 120 a 140 kHz, por lo cual pueden ser aplicados en lecturas de pequeñas cantidades de datos y a distancias pequeñas, ya que sólo pueden ser leídos a una distancia máxima de 0.5 metros; esta distancia es recomendable para aplicaciones usuales, tales como control de acceso, identificación de animales, o incluso control antirrobo en vehículos. Alta frecuencia (High Frequency): Trabaja con una frecuencia de 13.56 MHz, teniendo un rango de lectura menor a un metro de distancia, y a igual que las tarjetas de baja frecuencia, son utilizadas para una lectura de datos pequeña, por lo cual, las aplicaciones más comunes de este tipo de frecuencia van desde control de bibliotecas, servicios de alquiler, hasta seguimiento de paquetes y gestión de maletas en aeropuertos. Ultra alta frecuencia (Ultra High Frequency): Tiene un rango de trabajo, siendo de 860 a 960 MHz, esta frecuencia tiene una zona de cobertura que llega a alcanzar los 4 metros de distancia, aunque algunas tarjetas pueden legar a tener un rango de lectura de hasta 10 metros. Un inconveniente con esta frecuencia es que depende del lugar de uso, existen regulaciones para el uso de algunas frecuencias. Esta radio frecuencia abarca ciertas aplicaciones tales como pago de peaje en autopistas, y trazabilidad de bienes y artículos, así como logística de cadena de suministros. Microondas: Actúa en frecuencias de 2.4 GHz hasta 5.8GHz, alcanzando distancias de lectura que van desde 1 metro hasta los 15 metros. Algunas aplicaciones relevantes para esta frecuencia son la automatización de procesos en la fabricación, pago de peaje en carreteras, entre otras. Otra característica de las tarjetas RFID es la forma en que estas son alimentadas para su posterior lectura por medio de un lector RFID, estos medios son: Tarjetas pasivas: Cuando el lector RFID está cerca de la tarjeta, alimenta los circuitos de la tarjeta, iniciando la transmisión de los datos inmersos dentro del chip Tarjetas activas: Necesitan de una batería externa para poder transmitir la información contenidas en estas, pero una ventaja con este modo de alimentación es que puede aumentar la señar de transmisión de los datos. El lector RFID, el cual es un dispositivo conectado a una red, el cual puede estar conectado permanentemente o ser portable. Utiliza ondas de radiofrecuencia que activan la tarjeta. Una vez la tarjeta está activada emite una onda de regreso al lector, posteriormente dicha onda es traducida en información. El modo de operación de un lector puede llevarse a cabo de tres formas distintas: Buscando dentro de su zona de cobertura de forma continua, en espera de leer varias tarjetas a la vez Examinando periódicamente en busca de nuevas etiquetas que quieran comunicarse con el lector Actuando inmediatamente después de haber detectado una nueva señal


CONCLUSIONES

Las frecuencias de la tecnología RFID trabajan bajo ciertas restricciones de los materiales a los cuales son adheridos, tal es el caso de LF, ya que no funciona correctamente con materiales conductores, ya que son susceptibles a interferencias. Incluso algunas frecuencias, como UHF y microondas son absorbidas estando en contacto con agua, o HF, que presenta problemas con materiales metálicos, ya que reflejan la señal. Las tarjetas RFID son capaces de guardar información respecto a varios factores de un producto, tales como fecha de producción, fecha de caducidad, dirección de entrega, a diferencia de otras tecnologías, como el código de barras, que sólo guardan una asociación a la base de datos de los productos. Un punto en contra de las tarjetas RFID es la unión del chip a la antena de datos, ya que, de tener un daño, por mínimo que sea, le será imposible seguir emitiendo datos al lector.
Plumeda Garcia Bryan Alberto, Universidad Vizcaya de las Américas
Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

METABOLOMICACHILE: ELABORACIóN DE UNA GALLETA CON RELLENO DE CHILE HABANERO(CAPSICUM CHINENSE), REDUCIDA EN GRASA SABOR CHOCOLATE A NIVEL PLANTA PILOTO


METABOLOMICACHILE: ELABORACIóN DE UNA GALLETA CON RELLENO DE CHILE HABANERO(CAPSICUM CHINENSE), REDUCIDA EN GRASA SABOR CHOCOLATE A NIVEL PLANTA PILOTO

Plumeda Garcia Bryan Alberto, Universidad Vizcaya de las Américas. Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Yucatán es un estado el cual la producción del Chile Habanero aporta bastante a la economía del mismo, es encargado de producir el 50 por ciento del Chile Habanero que es distribuido, es por ello que es importante conocer que factores afectan a la producción, así como también que componentes benefician a la planta y al fruto, este proyecto tiene como objetivo el poder obtener un producto el cual sea benéfico para el consumo, así como también conseguir que el Chile Habanero esté presente en el mismo. La secretaria de salud federal revelo que en Yucatán el problema de sobrepeso va en aumento, fueron diagnosticados más de 22 mil casos de obesidad, de los cuales el 65 por ciento de los casos se presentaron en mujeres y el otro 35 por ciento en hombres, es por ello que nos dimos a la tarea de crear un producto el cual fuera bajo en grasa y sin azucares añadidas. Comúnmente el Chile Habanero es utilizado en productos como salsas y encurtidos, sin embargo, nosotros le dimos un giro al querer crear una galleta sin azúcar añadida con relleno cremoso picante, es por ello que utilizamos harina de Chile Habanero liofilizado para dar ese picor que lo caracteriza, así como también Miel de abeja de la península yucateca para agregar ese toque dulce que tiene la galleta.



METODOLOGÍA

Para la elaboración de la galleta de chocolate con relleno cremoso picante se utilizaron distintos ingredientes para su elaboración, estos fueron 100 por ciento endémicos de la región ya que se utilizó Miel de Abeja yucateca y harina liofilizada de Chile Habanero con Denominación de origen, nuestra idea fue simular una galleta oreo, pero con un giro totalmente distinto debido a que este es un producto saludable ya que cuenta con menos contenido de grasa y una concentración de chile aceptable. El chile habanero posee 7 capsaicinoides, entre ellos estan los 2 principales que son la capsaicina y la dihidrocapsaicina, estos son beneficos para la salud debido ya que poseen características anticancerigenas, la base de la galleta fue de chocolate amargo con un relleno de crema sabor vainilla y habanero, se hicieron pruebas reometricas al centro cremoso de la galleta oreo para saber qué nivel de viscosidad tiene, así como también se hicieron TPA (Texture profile analysis) a galletas de distintas marcas para poder así comparar los resultados con nuestro producto. La elaboración de la galleta con relleno picante se hizo a nivel planta piloto, esto para poder así llevar a cabo la elaboración de un producto el cual pueda salir al mercado sin ningún problema.  


CONCLUSIONES

El estudio arrojo que el centro de la galleta oreo tiene una viscosidad de 123 Pa.s, nuestra galleta con relleno cremoso tiene una viscosidad parecida ya que tiene 133 Pa.s la cual no es una diferencia tan notable a pesar de que los ingredientes que se utilizaron son completamente distintos al de la galleta control. Se hicieron pruebas de textura para determinar cuanta fuerza se debe ejercer para quebrar la galleta y una vez concluidas las pruebas se realizó una prueba sensorial con 40 personas para poder asi determinar cuál era la aceptación respecto a las galletas con relleno cremoso picante, la prueba arrojo resultados favorables debido a que fue agradable al paladar, sobre todo las galletas con mayor nivel de picor.
Polanco Mayorquin Ulises Guillermo, Universidad Tecnológica de Nayarit
Asesor: Dr. Gema Karina Ibarra Torua, Universidad de Sonora

PROCESADO DE SEñALES DE RUIDO SíSMICO AMBIENTAL CON LA TéCNICA DE NAKAMURA PARA LA GENERACIóN DE UN MAPA DE PERIODOS DOMINANTES EN LA CIUDAD DE HERMOSILLO, MéXICO.


PROCESADO DE SEñALES DE RUIDO SíSMICO AMBIENTAL CON LA TéCNICA DE NAKAMURA PARA LA GENERACIóN DE UN MAPA DE PERIODOS DOMINANTES EN LA CIUDAD DE HERMOSILLO, MéXICO.

Cruz González Stephanie Saraí, Universidad Tecnológica de Nayarit. Polanco Mayorquin Ulises Guillermo, Universidad Tecnológica de Nayarit. Asesor: Dr. Gema Karina Ibarra Torua, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Cuando el valor del periodo dominante del suelo es igual al periodo con el que vibra la estructura, estas pueden sufrir daños catastróficos al momento de sismo, uno de los reglamentos más utilizados para este cálculo, es el Manual de Obras Civiles de la CFE, en el cual se toma un valor de periodo dominante calculado con base a datos teóricos, los cuales, en ciudades como Hermosillo, pueden tener bastante incertidumbre por los pocos estudios geofísicos que existen en la región. En esta investigación se medirá ruido sísmico ambiental (microtremores) en sitios con distintos contactos geológicos, para realizar un primer mapa de periodos dominantes para la ciudad. Se utilizará un acelerómetro el cual mide las tres componentes del suelo que son Norte-Sur, Este-Oeste y Vertical, aplicando la técnica de Cocientes Espectrales. Esta investigación se encamina en el procesado de datos que se obtuvieron a partir de los registros de microtremores, los cuales se pueden representar mediante la convolución de las funciones que lo generan: fuente, trayectoria, sitio y el instrumento de registro. El efecto de sitio se aísla a partir del análisis de datos empíricos obtenidos sobre la superficie del terreno, se puede sustentar por medio de la eliminación de los efectos de la fuente, la trayectoria y el aislamiento de efectos producidos por la litología somera en el sitio de registro y se estimará el periodo dominante (PD) del movimiento del suelo, en algunos sitios de Hermosillo, cabe mencionar que un PD es de suma importancia en la aplicación directa en el diseño de estructuras sismo-resistentes y este se obtiene con base a la técnica Nakamura que relaciona las componentes horizontal y vertical del movimiento del suelo.  OBJETIVOS -Obtener un mapa con valores de periodos dominantes en distintas geologías de suelo en la ciudad de Hermosillo, aplicando la Técnica de Nakamura a mediciones de ruido sísmico ambiental (microtremores) capturadas mediante el uso de un acelerómetro (sismómetro). -Obtener un espectro de Fourier, promedio de los tres canales de cada sitio, para generar los cocientes horizontales entre vertical de cada punto de medición a fin de recabar las gráficas de periodos dominantes del suelo de cada punto.



METODOLOGÍA

Inicialmente se mide el ruido sísmico ambiental con el sismómetro ETNA de Kinemetrics, en donde se obtiene un archivo con extensión EVT convertido por el programa QuickTalk, el cual es un archivo en cuentas digitales. Seguidamente se utiliza el programa DEER5, para transformar el archivo en unidades graficables de los tres canales: Norte-Sur, Este-Oeste y Vertical. Se trabaja con el paquete de procesado de acelerogramas en donde como primer paso se deben seleccionar ventanas de ruido sísmico de 40 segundos, en las partes de la señal donde se muestre el ruido lo más estacionario posible, esto es con la finalidad de eliminar picos falsos de fuentes de antenas, o alguna otra señal que no corresponda al suelo. Después se generan espectros de Fourier de cada una de las ventanas seleccionadas del ruido de cada punto de medición del suelo, de los tres canales con el programa ESPECTRO. Se hace un promediado de los espectros de Fourier con el programa PROESP por medio del emulador DOSBox de todas las ventanas en cada sitio, separados en los tres canales, es decir se tienen 3 espectros de Fourier, dos de las componentes horizontales y uno del vertical. Se aplica la técnica de Nakamura con el programa COCIEN la cual se basa en realizar el cociente de cada canal horizontal, entre la vertical. (NS/V y EO/V). Posteriormente, se procede a graficar los archivos obtenidos de los cocientes con el programa Excel; teniendo en el eje de las ordenadas la amplitud, y en el eje de las abscisas los segundos. Aquel valor con una amplitud mayor, es considerado el "Periodo Dominante" representado en segundos. Una vez recabados los periodos dominantes, se procede a ubicarlos geográficamente en el mapa "Geológico - Minero" de la Ciudad de Hermosillo, Sonora, obtenido del Servicio Geológico Mexicano (SGM). Finalmente se procede a realizar un análisis comparativo de la relación existente entre el valor de periodo dominante de la ubicación donde se obtuvo el parámetro y la geología del suelo del mismo.


CONCLUSIONES

El periodo dominante depende directamente del tipo de geología sobre la que se encuentre posicionado, así como de otros factores externos como lo pueden ser los cauces de ríos. Aquellas zonas en las que el suelo era de tipo Aluvión (suelo blando) presentaron un periodo dominante más alto a comparación de aquellas zonas en las que el suelo era de tipo Granito (suelo rocoso), que presentaron un periodo dominante más bajo.
Politron Rangel Jesus Daniel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

RESUMEN DE ESTANCIA: PROGRAMA DELFíN 2019


RESUMEN DE ESTANCIA: PROGRAMA DELFíN 2019

Politron Rangel Jesus Daniel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El internet no para de crecer, y día a día se implementa en nuevas soluciones que simplifican la interacción con los objetos más cotidianos, desde simples controles remotos hasta sensores automatizados de todo tipo. Para la educación, estas conexiones representan ahorro de tiempos e interrupciones minimizadas. Suelen implementarse a forma de sistemas embebidos (sistema de computación diseñado para realizar una o algunas pocas funciones dedicadas) dada su alta flexibilidad para realizar tareas de tipos variados. Para el centro universitario de los valles (C.U.Valles) existe la necesidad de aplicar estos sistemas y conexiones para desplegar y almacenar una serie de informaciones que ahorran tiempo y trabajo al personal respectivo.



METODOLOGÍA

Dividiendo a los acudientes de este programa delfín 2019 para el centro universitario de los valles en equipos equilibrados se llevaron a cabo 2 proyectos, los cuales, después de la capacitación de los acudientes se asignaron como: Ambiente; el cual implementando sistemas embebidos tiene como objetivos registrar y desplegar la información de: Fecha/hora Temperatura en grados centígrados °c Humedad Luz CO2 Velocidad del viento Humedad de la tierra Gas Precipitación pluvial SITE; el cual implementando sistemas embebidos tiene como objetivos registrar y desplegar la información de: Fecha/hora Temperatura humedad Los equipos que desarrollaron los sistemas físicos, con independencia a su equipo de trabajo asignado, trabajaron en conjunto con el equipo de desarrollo web encargado a las partes no tangibles del sistema y parte de las conexiones a bases de datos.


CONCLUSIONES

A la fecha de redacción de este resumen, los proyectos están por concluir en su totalidad, y a lo largo de esta estancia he aprendido y/o descubierto que el área de conocimientos que aplica a mi carrera es más grande de lo que pensaba, aprendí lo que es un ambiente laboral profesional, con equipo y espacios asignados, además de totalmente equipados para las necesidades de los proyectos, he recibido clases por parte de personal con el grado de doctor. Generalizando un poco es una experiencia que conforme va avanzando más se disfruta. Esperando pronto a difundir mi experiencia entre mi comunidad estudiantil, aplicar los conocimientos que adquirí de forma práctica e influyente, además de seguir por el camino del buen conocimiento que aquí se me ha mostrado.
Ponce Ávila Jonatan Sahian, Instituto Tecnológico del Valle de Morelia
Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco

EVALUACIóN DE UN TREN DE TRATAMIENTO DE HUMEDALES ARTIFICIALES DE FLUJO SUBSUPERFICIAL Y LIBRE CON VEGETACIóN NATIVA DEL ESTADO DE TABASCO (CLADIUM JAMAICENSE)


EVALUACIóN DE UN TREN DE TRATAMIENTO DE HUMEDALES ARTIFICIALES DE FLUJO SUBSUPERFICIAL Y LIBRE CON VEGETACIóN NATIVA DEL ESTADO DE TABASCO (CLADIUM JAMAICENSE)

Ponce Ávila Jonatan Sahian, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco



PLANTEAMIENTO DEL PROBLEMA

El vertimiento de aguas residuales a cuerpos de agua sin ningún tipo de tratamiento previo trae como consecuencia que la disponibilidad de este recurso se haga cada vez menor y se agoten las fuentes de suministro; sin mencionar los problemas graves de contaminación que ocasiona a los ecosistemas y los posibles focos de infección que representan riesgos en la salud del ser humano. El estado de Tabasco está situado en una zona tropical que favorece la implementación de humedales artificiales (HA) para el tratamiento de aguas residuales y además ofrece vegetación nativa que ha demostrado tener la capacidad de remoción de contaminantes básicos. Se presentan resultados sobre la evaluación de dos sistemas de humedales artificiales de flujo libre (HAFL) y flujo subsuperficial (HAFS) implementados en la División Académica de Ciencias Biológicas (DACBiol)-Universidad Juárez Autónoma de Tabasco (UJAT) ubicada en Villahermosa-Tabasco, con el objeto de estudiar la eficiencia de remoción de contaminantes básicos con vegetación nativa del Estado de Tabasco.



METODOLOGÍA

Se implementaron dos sistemas de Humedales artificiales (HA) con vegetación Cladium Jamaicense HAFL y HAFS; para esto se usaron tanques con una capacidad de 2.3 m3, los cuales fueron empacados con un lecho de grava con una altura de 10 y 40 cm para HAFL y HAFS respectivamente. Se evaluó la fase de operación de los HA mediante el cálculo de las eficiencias de remoción de los contaminantes básicos, comparando la capacidad de ambos para llevar a cabo la degradación de las aguas residuales; para esto se tomaron en cuenta los resultados obtenidos en los monitoreos de los parámetros fisicoquímicos (pH, temperatura, conductividad eléctrica, turbiedad, color y sólidos disueltos totales) en influente y efluente de las unidades de proceso durante un periodo de cuatro semanas. Además se realizaran pruebas de caracterización del medio de soporte de los HA, para la obtención del tiempo de retención hidráulica (TRH), porosidad, densidad aparente y real y el diámetro por unidad de material del medio de soporte. Se realizó también un análisis comparativo del tipo de reactor y vegetación evaluada mediante pruebas de eficiencia.


CONCLUSIONES

Los TRH fueron de 6.3 y 5.5 días para HAFS y HAFL respectivamente; presentando una porosidad de 0.53 ±DE 0.01, densidad aparente de 1400 Kg/m3, densidad real de 2400 Kg/m3 y diámetro de 19.5 ±DE 6.8 cm. Los resultados sugieren que la eficiencia de remoción de contaminantes básicos en los Humedales artificiales con vegetación Cladium Jamaicense es más favorable para el reactor de HAFS, debido a que presenta mayor porcentaje de remoción de color y turbiedad con un 70.9% (con entrada de 934 y salida de 13.8 UC) y 84% (con entrada de 86.7 y salida de 129.5 NTU), en comparación al HAFL que obtuvo eficiencias negativas de -192.8% (con entrada de 934 y salida de 2735 UC) y -49.5% (con entrada de 86.7 y salida de 129.5 NTU), presentando este último micro algas. Se observó que en el humedal HAFS aumenta los SDT por la erosión y atrición del medio de soporte; el HAFL no presenta este fenómeno. La vegetación se adapta y es más eficiente en el HAFS. 
Ponce Montiel Ines Alicia, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional

RUMBO A UNA ENCUESTA ANUIES TIC TE


RUMBO A UNA ENCUESTA ANUIES TIC TE

Ponce Montiel Ines Alicia, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En la actualidad México cuenta con más de 5,000 escuelas de nivel superior que ocupan a una población escolar aproximada a más de 3.8 millones de alumnos ( Dirección General de Planeación, Programación y Estadística Educativa , 2018). Existen diversos retos en innovación educativa actualmente en México. Todo este cambio conlleva a que las instituciones de educación superior enfrenten hoy en día grandes retos para incorporar las TIC en sus procesos académicos y con ello mantenerse en un alto grado de competitividad dentro de la dinámica que impone los principales paradigmas tecno-educativos de este siglo enmarcados por la revolución industrial 4.0  (ANUIES TIC, 2019). En México, la educación superior se debe alinear mejor con las necesidades cambiantes de la economía. Casi la mitad de los empleadores alertan de una falta de competencias en su sector y consideran que la educación y formación de los solicitantes de empleo no es adecuada para sus necesidades. (OECD, 2019) El presente trabajo se divide en un artículo que revela el marco conceptual de los inicios de un proceso de una encuesta nacional sobre el aprovechamiento y uso de tecnologías educativas que se realizará por el comité ANUIES TIC TE tratando de seguir ejemplos de obras realizadas con temas similares a los que se esperan realizar en México y un capítulo donde en la primera sección se presentará todo lo relevante en cuestión a la industria de la tecnología educativa a nivel mundial, presentando en el primer apartado la numeralia en México sobre las instituciones de nivel superior, en el siguiente tema se presentarán las tendencias que ANUIES TIC TE estudiará en la encuesta programada para el 2020, en el apartado siguiente se expone un resumen de las tendencias educativas que se presentan en los próximos años presentadas en el reporte Horizon y en el más reciente estudio de ANUIES TIC, en el subsecuente contenido se mostrará a los gigantes de dicha industria entre los que se encuentran Google, Intel, Microsoft, etc., por consiguiente se exterioriza el reto de crear un macro indicador según Red Late México y finalmente se da la presentación del Comité ANUIES TIC TE.



METODOLOGÍA

La metodología se basa en la inestigación puramente documental donde se realiza la presentación del comité ANUIES TIC TE y como tendrá relevancia en la tecnología educativa en las IES en México por medio de una encuesta nacional programada para el 2020 teniendo sus principales comienzos en el 2019. Se investigó sobre la relevancia que una encuesta como macro indicador debe tener y los  beneficios que se tendrán como un estado de conocimiento más acertado sobre las nuevas herramientas que ofrecen las tecnologías educativas y hacia dónde van encaminadas, las futuras tendencias que deparan en México los próximos años y principalmente crear estrategias que disminuyan los déficits de utilización de estas herramientas todo esto ayuda finalmente a conocer los resultados que arrojan lo que en la industria de la tecnología educativa se esperan en los próximos años. Además se realizaron documentos adicionales como un calendario de líderes, subgrupos y general para conocer el historial de las reuniones programadas que tendrán los organizadores del proyecto de ANUIES TIC TE. Se realizó de igual manera una agenda diaria sobre los eventos que se tendrán acabo en el congreso anual de ANUIES TIC para poder tener una preparación a fondo de las actividades a realizar. Y finalmente se realizaron las minutas programadas para las reuniones más importantes que tendrán los organizadores y así poder analizar y ejecutar los planes que se tengan pendientes.


CONCLUSIONES

La tecnología educativa es un gran impulsor de la educación superior para lograr ser un sector educativo competitivo a nivel mundial, además da herramientas al docente que permitan que el estudiante sea más responsable de su propio aprendizaje ofreciendo diferentes instrumentos para investigar, conocer, producir, innovar, etc. En México el aprendizaje a lo largo de la vida no está bien desarrollado y las nuevas formas flexibles de provisión de programas educativos facilitan la participación de aquellas personas que quieren o necesitan obtener cualificaciones, reciclarse y mejorar sus competencias a lo largo de sus vidas laborales para estar al día con las cambiantes demandas del mercado laboral. (OECD, 2019) La encuesta ANUIES TIC TE permitirá conocer los recursos y servicios tecno-educativos actualmente presentes, así como tecnología educativa a distancia o a nivel virtual y de esta manera conocer la manera en qué se adoptan estos paradigmas en las instituciones, todo esto nos dará una clara idea de lo que se depara como tendencias en los próximos años y tener herramientas mejores para poder adecuarnos hacia el futuro. Finalmente, ANUIES TIC TE llegará a más docentes y unidades académicas, para reconocer el impacto del uso de estos espacios a mayor escala, describir los beneficios en la comunidad universitaria, así como identificar las oportunidades de mejora. Mostrará con su estudio la capacitación en el uso y manejo de las TIC, así como en el uso de herramientas educativas digitales específicas y las posibilidades que ofrecen, el fomento del autoaprendizaje por parte del docente, así como sensibilizar a los docentes en cuanto al uso de la tecnología como apoyo a las clases presenciales. (Red de Innovación Educativa , 2018)
Ponce Rodríguez Josías, Instituto Tecnológico del Sur de Nayarit
Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara

REDUCCIóN DE DIMENSIONES CON EL ALGORITMO NO SUPERVISADO PCA JUNTO CON LA AYUDA DE SVD


REDUCCIóN DE DIMENSIONES CON EL ALGORITMO NO SUPERVISADO PCA JUNTO CON LA AYUDA DE SVD

Ponce Rodríguez Josías, Instituto Tecnológico del Sur de Nayarit. Asesor: Dr. Emilio Barocio Espejo, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se sabe que hoy en día existe una gran cantidad de datos generados por aquellos dispositivos que se encuentran conectados en tiempo real a terminales remotas de almacenamiento conocidos como servidores, dicha información aumenta a pasos agigantados y muchas de las veces se encuentra expresada en una gran cantidad de variables con una cantidad de observaciones en constante crecimiento para su estudio. El principal problema de esto es que, al ser muchas las variables observadas, su estudio por el hombre se vuelve complicado sino es que imposible, pues hacerlo simultáneamente en caso de ser necesario, es difícil visualizarlos gráficamente o aun matemáticamente es complicado, es por ello que se busca simplificar la información a estudiar reduciendo la cantidad de variables implicadas, procurando siempre retener la mayor cantidad de datos en las variables que sean capaces de representar la información original.



METODOLOGÍA

Primeramente en la investigación se procedió a dar lectura a tres artículos referentes a las líneas de investigación del análisis de datos, del aprendizaje automático y del monitoreo de sistemas de poder, cabe mencionar que de los tres artículos uno de ellos trata una problemática más similar a las líneas de investigación. Después de dar lectura a dichos artículos, se realizó una búsqueda del algoritmo para la reducción de dimensiones y representación simplificada de datos llamado PCA que se utiliza para la problemática del estudio de datos expresados en mucha variables que finalmente se convierten en las dimensiones en las que se estudiará la información. Durante la búsqueda e investigación del algoritmo PCA se procuró entender la lógica pero sobre todo la formulación matemática junto con la representación gráfica que conlleva el proceso del algoritmo. Primeramente se buscó en distintas fuentes documentales el procedimiento del algoritmo, en dicha búsqueda se utilizó como fuente un documento procedente de la Universidad de Alicante en el que se explica el proceso de PCA desde un perspectiva más gráfica en el que por medio de un ejemplo de 2 y 3 dimensiones se explica su proceso a grandes rasgos sin entrar en el trasfondo matemático. Sin embargo, un documento de un proyecto de fin de carrera de la Universidad Carlos III de Madrid toma un enfoque más matemático desde el que explica dos funciones de PCA, el primero en el que el algoritmo se encarga de representar la máxima información del espacio original en el menor número de dimensiones posibles haciendo más fácil su posterior estudio, este enfoque es el que más se encuentra en las distintas fuentes de información pues parece ser el principal propósito de PCA y la segunda función se enfoca en minimizar el error de reconstrucción, es decir, que una vez se han reducido las dimensiones en el nuevo espacio de variables al tratar de reconstruir los datos originales en el espacio inicial el margen de error que haya entre los datos iniciales y el resultado de reconstrucción del algoritmo sea mínimo, o sea, lo más pequeño posible. Estas dos funciones aunque al principio parezcan tener enfoques distintos solucionan el mismo problema que es el de representar la información inicial en un número reducido de dimensiones. Durante el proceso de búsqueda e investigación se procedió a realizar un reporte donde se plasmara el funcionamiento de PCA con la formulación matemática y los ejemplos de tres y dos dimensiones del algoritmo, en dicho reporte se explicó detalladamente el procedimiento de ACP (por sus siglas en español) en el que se definen matrices del espacio inicial, el nuevo espacio a partir del inicial y la transformación lineal de ambos espacios, además de explicar los dos enfoques del algoritmo ya mencionados. Una vez culminada la investigación se procedió a buscar un ejemplo de PCA en Python en el que el algoritmo efectuara su proceso de reducción de la cantidad de variables y que graficara el resultado, para lo anterior se utilizó un editor de textos llamado Sublime Text 3 (el editor de textos para este fin es indiferente) en el que por medio de una gráfica fue posible ver el resultado de PCA. Cuando el ejemplo en Python fue terminado y aplicado, se prosiguió a juntar el código con el de otros dos algoritmos llamados K-means utilizado para la agrupación de datos y SVM para la clasificación de los datos, lo anterior para cumplir con el objetivo del proyecto de investigación del verano, dado que se requería que con PCA se redujeran los datos de una red eléctrica a un número de dimensiones óptima de tal manera que se pudieran representar la mayor parte de la varianza de los datos iniciales y enseguida los datos de variables reducidas fueran pasados al algoritmo de agrupación K-means para que los agrupara por medio de centroides definidos por un índice de validación de Silhouette y así, una vez agrupados, SVM clasificara dichos grupos etiquetándolos por medio de hiperplanos.


CONCLUSIONES

El objetivo del verano se cumplió por medio de un ejemplo con una base de datos CSV de 16 variables con 2000 observaciones solo con el inconveniente de que el proceso de ejecución del código era algo tardado más de lo esperado, sin embargo el resultado de la fusión de los tres algoritmos para lograr analizar los datos se cumplió faltando aplicarlo en un red eléctrica y en tiempo real.
Ponce Vásquez Jenifer, Universidad Autónoma de Sinaloa
Asesor: M.C. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIÓN DEL SARGAZO PARA SU APROVECHAMIENTO EN LA FORMULACIÓN DE FIBRAS REFORZADAS.


CARACTERIZACIÓN DEL SARGAZO PARA SU APROVECHAMIENTO EN LA FORMULACIÓN DE FIBRAS REFORZADAS.

Ponce Vásquez Jenifer, Universidad Autónoma de Sinaloa. Sánchez Flores Luis Fernando, Universidad Autónoma de Sinaloa. Asesor: M.C. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el sargazo es una de las principales problemáticas que presentan las costas del Caribe mexicano especialmente la costa del estado de Quintana Roo. El sargazo es un alga que flota libremente en el océano y nunca se adhiere al fondo del océano. Es un hábitat de cría muy importante que provee refugio y alimento para especies en peligro de extinción como las tortugas marinas y para especies comerciales importantes de peces. Hay dos especies de sargazo involucrados en la afluencia de sargazo: Sargassum natans y Sargassum fluitans. (Doyle, 2015). Esta alga presente en cantidades pequeñas juega un papel importante en el equilibrio del ecosistema marino, sin embargo, en cantidades mayores se convierte en una problemática ambiental, teniendo repercusiones en el ecosistema a mediano y largo plazo. Una de las principales problemáticas radica en la percepción social que estas masas de sargazo generan afectando a la industria turística, otra de ellas es la alteración de los ecosistemas costeros, causando mortalidad de fauna y mortandad de pastos marinos.



METODOLOGÍA

La metodología fue tanto cualitativa como cuantitativa, para ello se recolectaron 6 tipos diferentes de sargazo de distintas ubicaciones de las playas de Quintana Roo, primeramente, se utilizó la búsqueda de revisión bibliográfica para posteriormente realizar las pruebas analíticas e instrumentales. De las 6 muestras de sargazo que ya nos las otorgaron molidas y secadas, se pesaron 10 gramos de cada una para ser nuevamente secadas y trituradas, se secaron en la estufa a 100°C  durante 24 horas, después de esto se trituraron en un mortero con pistilo de ágata, y por último fueron tamizadas en un tamiz de malla 100, de esta manera obtuvimos partículas más finas requeridas para las técnicas de análisis que posteriormente se realizaron. Una de las técnicas utilizadas fue la Espectroscopia Infrarroja, así como también dichas muestras fueron analizadas en Difracción de Rayos X, Microscopia Electrónica de Barrido con detector EDS y Espectroscopia de absorción atómica. Para esta última técnica se tuvo que hacer una digestión de las 6 muestras del sargazo pesando 0.5 gramos de cada muestra y con 10 ml de HNO3 para su degradación, momento de agregar el ácido se colocó en un calentador por un día y medio a una temperatura de 150℃, ya que la muestra se encontraba digestada completamente se proseguía a filtrar la solución y aforar a 45 ml. Esto se realizó para la espectroscopia de absorción atómica que es para la medición de las muestras, se midieron los metales tales como: Na, K, Cu, Mn, Pb, Zn, Ni, Fe. Agregado a esto realizamos la medición de pH de acuerdo a la Norma Oficial Mexicana NOM-021-SEMARNAT-2000 que establece las especificaciones de fertilidad, salinidad y clasificación de suelos, estudios, muestreo y análisis.


CONCLUSIONES

Por medio de la caracterización de los resultados obtenidos a través de las técnicas de análisis utilizadas podemos concluir que el sargazo posee un gran potencial de aprovechamiento y uno ellos es su utilización en fibras reforzadas, atendiendo así a la problemática que estas masas de algas generan. Pero también pudimos observar a partir de los resultados de la técnica de Microscopia Electrónica de Barrido que una de nuestras muestras cuenta con una pequeña cantidad de plomo por lo que su uso para alimento en animales no es viable. A pesar de esto aún existen muchos usos en los que el sargazo puede ser implementado.
Pool Canul Roger Enrique, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias

DESARROLLO DE UN AMBIENTE DE REALIDAD VIRTUAL PARA UNA MICRO RED.


DESARROLLO DE UN AMBIENTE DE REALIDAD VIRTUAL PARA UNA MICRO RED.

Pool Canul Roger Enrique, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

El desarrollo de ambientes virtuales diseñados para capacitar a trabajadores tiene una gran relevancia para el sector energético del país. El aprendizaje en estos ambientes ahorra tiempo y dinero, además de que es más seguro. Una microrred es un sistema de generación eléctrica bidireccional integrado con electrónica de potencia utilizado para distribuir electricidad favoreciendo la incorporación de energía renovable. Estos sistemas pueden estar interconectados a la red eléctrica tradicional o funcionar de forma aislada. Un ambiente virtual de una microrred debe tener un alto nivel de inmersión y representar adecuadamente todos los componentes que lo conforman. Al incorporar energía renovable como la eólica se debe considerar el viento como un elemento a modelar dentro el entorno. Si bien los motores de videojuegos como Unity permiten modelar la mayoría de los elementos de una microrred, la interacción de fenómenos físicos como movimiento de fluidos y sólidos son modelados mediante métodos numéricos tradicionales los cuales son altamente costosos computacionalmente. Esto reduce su aplicabilidad en sistemas de realidad virtual lo cual es esencial para que el modelo de un aerogenerador sea más exacto y en consecuencia lograr una mayor inmersión.



METODOLOGÍA

Se realizó una revisión bibliográfica de métodos de simulación de fluidos en ambientes virtuales. Se detectó que la forma tradicional de dinámica de fluidos computacional CFD es muy costosa computacionalmente, por lo que es inviable para ambientes virtuales de tiempo real implementado en computadoras comerciales. Los autómatas celulares son arreglos de celdas de sistemas dinámicos que evoluciona en tiempos discretos (t = 1, 2, 3 … , n, donde n = número entero)  al igual que el estado de los mismos autómatas. A pesar de que evoluciona a partir de reglas simples de actualización de estado, pueden mostrar un comportamiento complejo conforme el tiempo aumenta por lo que los hace adecuados para modelar fenómenos físicos como, por ejemplo, flujo de fluidos. LGCA (Lattice-gas cellular automata) son autómatas celulares utilizados especialmente para simular el flujo de fluidos. En este tipo de autómata la actualización sucede en dos partes llamadas colisión y propagación. La colisión sucede en la actualización de estado que asigna valores a cada celda. Después de la colisión las celdas son propagadas a otra adyacente según el estado asignado. El autómata HPP (llamado así en honor a sus creadores de apellidos Hardy, de Pazzis y Pomeau, en 1973) es el más simple de los LGCA. Se implementó el HPP en Unity para simular el movimiento macroscópico del viento. El algoritmo implementado en C# primero define el tamaño de un arreglo bidimensional, n. El tamaño del arreglo o matriz puede ser introducido por el usuario. Después, el programa llena la matriz aleatoriamente con números del cero al quince. Los ceros representan los espacios vacíos i.e. donde no hay viento y los números del uno al quince representan estados previamente definidos por el modelo HPP. El llenado se hace con dos ciclos for anidados que recorren y asignan el valor a la matriz elemento por elemento. El HPP inicia buscando elemento por elemento, los casos donde exista una colisión en una matriz llamada matrix, es decir, los estados 5 y 10, según el modelo. Después se intercambian los estados 5 y 10 mediante una instrucción if. Por ejemplo, si en el elemento matrix[40, 34] == 5 (es igual a 5) entonces, matrix[40, 34] = 10 y viceversa.   Una vez que se terminan las colisiones, se realiza la propagación de los estados de los autómatas a las celdas adyacentes al norte, sur, este y oeste. Para esto, se declara un segundo arreglo de tamaño , llamado collector, en el que cada fila corresponde a un elemento de la matriz y cada columna corresponde a un estado unitario 1, 2, 4 y 8. Es importante notar que la combinación de estos estados unitarios nos da el resto de los estados. Suponiendo que nos encontramos en el elemento matrix[i, j] de matrix, el algoritmo buscará los estados que apunten hacia el elemento en los otros elementos matrix[i, j - 1] (norte), matrix[i, j + 1] (sur), matrix[i + 1, j] (este) y matrix[i - 1, j] (oeste), según la sintaxis de C#. Si los 4 elementos apuntan hacia el elemento del centro, tendremos como resultado 15, que es el resultado de sumar 1, 2, 4 y 8 de tal forma que collector[i, 1] = 1, collector[i, 2] = 2 collector[i, 3] = 4 y collector[i, 4] = 8. Para acceder a cada fila se utiliza un ciclo for de la forma: for( i = 0,  i < n , i++). En otras palabras, se suman las columnas para cada i del arreglo collector, donde i representa el número de elemento de matrix. Los resultados de las sumas son colocados en la posición análoga de una segunda matriz matrix2 de igual tamaño que matrix. Esta operación de propagación se hace para todos los elementos de la matriz. Para los bordes se ha definido que las partículas reboten en el sentido contrario en el que llegan. Finalmente, se asigna el valor de matrix2 a matrix, es decir, matrix = matrix2. En este punto, se ha avanzado un tiempo discreto, 1. Para continuar avanzando en el tiempo se inician de nuevo las colisiones. Para visualizar en Unity las partículas y la malla que las contiene, se utilizan las herramientas in-built Vector3 y Gizmos. El primero define un objeto dentro de Unity, compuesto por objetos más pequeños que serán los elementos de la matriz y Gizmos asigna colores a estos elementos. Estas herramientas son llamadas cada vez que el sistema avanza en el tiempo.


CONCLUSIONES

Se ha creado una herramienta que simula el comportamiento macroscópico del viento. Resulta interesante las aplicaciones que podrían realizarse con esta herramienta, por ejemplo, podrían calcularse velocidades medias por regiones de la malla, de tal forma que obtengamos distintos vectores de velocidad. La herramienta puede ser manipulada de tal forma que se puede forzar flujos hacia una dirección determinada lo que es de especial relevancia para modelar el viento que fluye a través de un aerogenerador. Cabe mencionar, que, como etapa inicial, se ha visualizado correctamente el comportamiento de un gas. El modelo debe seguir mejorando, incorporando, por ejemplo, las direcciones diagonales, así como construyendo una versión en tres dimensiones.
Popoca Arellano Cristian, Instituto Tecnológico de Iguala
Asesor: Dr. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala

CáLCULO DE SEIS SIGMA EN RACKS INDUSTRIALES


CáLCULO DE SEIS SIGMA EN RACKS INDUSTRIALES

García Muchacho Yitzeli Ali, Instituto Tecnológico de Iguala. Popoca Arellano Cristian, Instituto Tecnológico de Iguala. Asesor: Dr. Norma Rodríguez Bucio, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

En la actualidad muchas empresas son afectadas por perdidas económicas, las cuales no son identificadas a tiempo y son una de las causas principales del cierre de muchas. Esto en la población comúnmente afecta en despidos de personal y disminuyendo la economía de la región donde se encuentre situada. En México según el estado que se desee analizar varían las características de factores que afectan el cierre de empresas, así mismo en el estado de Guerrero en que nos encontramos cuenta con una gran variedad de actividades para sus pobladores, aunque existen factores que delimitan las actividades, este caso puede ser la delincuencia, la baja economía de la ubicación geográfica, la pérdida económica por problemas internos de la misma. Tras esto, muchas empresas por lo regular culpan en especial a la delincuencia del cierre de las mismas o porque no cuentan con una buena administración tanto de producción, mantenimiento, seguridad, logística y cadena de suministro, etc. Ligados a las normas o leyes vigentes que se ajusten al nivel de exigencia de calidad que piden los clientes. Las actividades a la que parte de la población se dedican son aquellas que se enfocan al armado y fabricación de piezas de todo lo relacionado con el acero y soldadura metálica, brevemente la actividad laboral se llama herrería, ya que sus controles son muy variados por su complejidad, es en este caso donde se aplicara el proyecto a presentar enfocado a racks industriales que posteriormente llegarán a ser ensamblados finalmente en la minera para exhibición de muestras de barrenación.



METODOLOGÍA

Se utilizo una herramienta de calidad enfocada a la industria nombrada como Seis Sigma. Esta herramienta se utiliza en empresas que desean aumentar su productividad, calidad, eficiencia, etc. A partir de defectos, quejas del cliente o personal, llamada metodología DMAIC que significa atacar el problema de raíz, sus siglas significan: Define (definir), Measure (medir), Analyze (analizar), Control (controlar), Improve (mejorar). De acuerdo a las especificaciones de los datos obtenidos con la hoja de verificación, se realizaron estimaciones con el diagrama de Pareto para la identificación de las áreas que tienen mayor problema y donde se debe de poner más atención, a partir de ello realizar la serie de tiempo donde se vacían datos históricos y se van obteniendo datos que nos ayudaran a alcanzar un objetivo. La problemática que se presentó en la empresa fue el tiempo que tardan los operarios en sacar el producto, ya que se suscitaron quejas de los clientes, para su correcto calculo se utilizó un software llamado Minitab 18 para vaciar los datos que se obtuvieron durante semanas del año en curso en la herrería Samano. El ensamble de los racks industriales consta de 4 secciones que se presentan a continuación con el respectivo tiempo medido en minutos que se tardan para su ensamble: Corte - Tiempo: 4.998 min Soldado - Tiempo: 6.933 min Resoldado - Tiempo: 14.766 min Pulido - Tiempo: 8.797 min Con ayuda del Diagrama de Pareto se resaltó la sección de resoldado que es donde se presenta la problemática tras la toma de tiempo. La toma de tiempo se calculó a una determinada cantidad de racks industriales con ayuda de un cronometro digital en el lapso de 3 meses obteniendo 60 datos de productividad que se vaciaron a la herramienta serie de tiempo donde nos arrojó los siguientes resultados y su breve significado:   Línea Base: 18.5 (Promedio de los valores históricos del KPI analizado) Mejor Resultado: 26 (El dato mayor sobresaliente de productividad) Brecha: 7.5 (Diferencia entre el mejor resultado y la línea base) 70% Brecha: 5.25 (Para que el objetivo sea alcanzable) Objetivo: 23.75 (Es una mejor practica para que el equipo de trabajo permanezca entusiasmado)   Relacionado a lo anterior se procedió a pasar a las siguientes fases de la metodología DMAIC. Posteriormente se pasó a la fase analizar que es donde se identifican las causas de variación y defectos, donde se utilizaron herramientas estadísticas que prueban que las causas son reales.   Siguiendo con la penúltima fase nombrada mejorar, es donde se determinan soluciones incluyendo niveles operativos y tolerancias, además de establecer soluciones y proporcionar pruebas estadísticas de que las soluciones funcionan.   Finalmente pasamos a la fase controlar que significa estabilizar el proceso para mantener la mejora a través del tiempo, así proporcionar pruebas estadísticas de que la mejora es continua.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca de la herrería, específicamente en los racks industriales con ayuda de la herramienta de calidad Seis Sigma que desglosa la metodología DMAIC, sin embargo, al ser un extenso trabajo aún se encuentra en la tercera fase de analizar y no se pueden mostrar los datos obtenidos. Se esperan obtener más datos para utilizar las herramientas estadísticas adecuadamente y así poder llegar a las últimas fases de la metodología mencionada para que la empresa quede satisfecha con el presente proyecto.
Portes Hernandez Arturo Galileo, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)

PROYECTO PREXHAND


PROYECTO PREXHAND

Portes Hernandez Arturo Galileo, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Dr. Marcela Cristina Munera Ramirez, Escuela Colombiana de Ingeniería Julio Garavito (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente el número de personas que padecen alguna discapacidad en la parte superior del cuerpo ya sea por parálisis, accidentes cerebro vasculares, amputaciones o mal formaciones congénitas ha ido incrementando. Esto impide o dificulta a estos individuos llevar una vida plena, realizar sus actividades cotidianas, además de disminuir su autonomía volviéndose personas dependientes, al mismo tiempo se generan problemas sociales y psicológicos como la exclusión social o depresión. Por este motivo se busca crear dispositivos funcionales para la asistencia y rehabilitación de las manos, basados en materiales accesibles para países en vía de desarrollo. Así mismo se pretende desarrollar un sensor flexible capaz de percibir, medir y diferenciar la textura de objetos el cual estará dentro del actuador (dedo). El proyecto PrexHand se encuentra dividido en 2 áreas principales, la de control y la sensorial. El área de control principalmente se enfoca en diseñar actuadores (dedos) a base de silicona y la forma en que se controlaran pudiendo ser con motores o de manera neumática. La sensorial se enfoca en crear un sensor elástico que permita percibir y medir los movimientos generados, la fuerza aplicada, presión y el tipo de textura con la que tiene contacto el actuador, todo esto con el fin de tener un mejor control sobre el actuador. El principio con el cual se trabajará en este proyecto es bajo los soft robotics (robots suaves), debido a que permite lograr movimientos complejos, requiere de materiales de bajo costo, es elásticamente deformable y suave, permite absorber impactos y prevenir lesiones, son compatibles con la interacción humana y cuenta con propiedades elásticas y reologicas muy similares a la materia biológica blanda.



METODOLOGÍA

El primer paso es realizar un circuito transmisor-receptor de fibra óptica, para esto se diseñó un circuito amplificador de transimpedamcia, el cual básicamente funciona de la siguiente manera; se requiere un emisor o transmisor de luz el cual se conecta a un extremo de la fibra óptica y del otro extremo se conecta un circuito receptor, este recibirá la luz o intensidad de corriente en miliamperios y lo convertirá a voltaje de esta manera mediante un pin analógico o un conversor de señal digital a analógica (DAC) podremos leer los valores arrojados (voltaje). El siguiente paso será realizar una fibra óptica flexible. Para este proceso se imprime un molde en el cual se verterá la parte exterior de la fibra dejando una abertura para el núcleo donde pasara la luz. Una vez el molde finalizado se procede a realizar la mezcla de la parte externa, para esto se usará una silicona Smooth-Sil 936 esta se vierte en el molde. Pasado el tiempo de espera se extrae la silicona del molde. Una vez la silicona extraida se procede a vertir el nucleo el cual esta compuesto por Vytaflex 20.      El ultimo paso es sellar la parte superior con más Smooth-sil 936. Una vez curado se pueden comenzar a realizar pruebas con la fibra flexible. La siguiente parte del proyecto es la del actuador para esto se realizo un molde de PLA en el cual se se vaciara una mezcla de Dragon Skin. El molde se encuentra dividido en 3 partes más una barilla metalica o de PLA. El primer paso es verter la mezcla en la parte principal del molde. En el segundo paso se adhiere otra capa de la mezcla, se deja reposar y que la sustancia se asiente y se revientan las burbujas que lleguen a aparecer. En el tercer paso cerramos el molde y lo prensamos para dejarlo curar. Una vez que este curado, se saca el actuador del molde y se extrae la barra. El siguiente paso es realizarle un trenzado con hilo de costura al actuador. En nuestro caso al actuador se le hizo un trenzado para doblarse y en la parte inferior se le puso fibra de vidrio. El siguiente paso es darle una segunda capa de Dragon Skin al actuador de modo que cubra la costura. Se tapa un extremo del actuador y en el otro extremo se anexa una valvula donde pueda circular el aire. Una vez esto terminado se puede probar con aire el actuador, debido al tipo de costura que tiene el actuador que se realizó se doblara. Normalmente se doblará entre 40-50 psi de presión. El sensor flexible se puede anexar dentro del actuador en forma de U, de esta manera podremos censar cuando se mueva el actuador. De esta manera igual se pretende poder detectar diferentes tipos de texturas, detectar la presión que se ejerce en el actuador e incluso la forma del objeto que el actuador sostiene. El propósito de esto es realizar varios actuadores que se puedan controlar mediante un sistema neumático y puedan simular una mano. Esto se podría implementar como un exoesqueleto de mano que permitiera al usuario realizar movimientos básicos necesarios en la vida cotidiana y a su vez como entrenamiento para sus extremidades en caso de parálisis.    


CONCLUSIONES

Los soft robotics son un área de la robótica la cual tiene muchas cualidades positivas para el área de la rehabilitación, brindando diversas oportunidades y herramientas para crear nuevos dispositivos que ayuden a mejorar la calidad de vida con alguna discapacidad motriz. Los resultados obtenidos fueron satisfactorios debido a que se logró crear un actuador funcional; se tuvieron algunos fracasos los cuales sirvieron para acércanos más al resultado actual. El crear o empezar en el área de soft robotics no es tarea fácil, y fallar es muy normal, actualmente se aprendió como funcionan estos actuadores, como crearlos y usarlos. Los siguientes pasos entorno al actuador es mejorar su proceso de fabricación, rediseñarlos de manera más estética y humanoide, probar diferentes tipos de costuras, materiales y enfocarse en el área de control para moverlos probablemente de manera neumática. Con respecto al área sensorial, se logró diseñar un circuito capaz de medir la luz que pasa por la fibra óptica, pero aún falta probar las propiedades mecánicas, de esta fibra, el paso de luz que se da e intentar con diversos materiales. Con un método ya estandarizado el costo de fabricación de estos componentes es relativamente económico lo cual lo convierte en una oportunidad ideal para los países en vía de desarrollo. Se pretende continuar con este proyecto para seguir mejorando los resultados hasta llegar a las pruebas con humanos y haber creado un exoesqueleto que de verdad permita al individuo retomar sus funciones con sus extremidades superiores.  
Portillo Gordillo Alam Jesus, Instituto Tecnológico de Cuautla
Asesor: Dr. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México

ANáLISIS DEL IMC DE ESTUDIANTES DE INGENIERíA INDUSTRIAL DE LA UNIVERSIDAD POLITéCNICA DEL VALLE DE MéXICO


ANáLISIS DEL IMC DE ESTUDIANTES DE INGENIERíA INDUSTRIAL DE LA UNIVERSIDAD POLITéCNICA DEL VALLE DE MéXICO

Portillo Gordillo Alam Jesus, Instituto Tecnológico de Cuautla. Asesor: Dr. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México



PLANTEAMIENTO DEL PROBLEMA

El sobrepeso y la obesidad se definen como una acumulación anormal o excesiva de grasa que puede ser perjudicial para la salud. El índice de masa corporal (IMC) es un indicador simple de la relación entre el peso y la talla que se utiliza frecuentemente para identificar el sobrepeso y la obesidad en los adultos. Se calcula dividiendo el peso de una persona en kilos por el cuadrado de su talla en metros (kg/m2). Datos arrojados por una investigación realizada en el 2016 por la OMS (Organización Mundial de la Salud), describe que desde 1975, la obesidad se ha casi triplicado en todo el mundo, más de 1900 millones de adultos tenían sobrepeso, de los cuales, más de 650 millones eran obesos lo que significa que el 39% de las personas adultas tenían sobrepeso, y el 13% eran obesas. Según una encuesta realizada por el OMENT (El Observatorio Mexicano de Enfermedades No Transmisibles) Siete de cada 10 adultos hombres y mujeres (una aproximación del 72.5% en hombres y un 75.6% en mujeres) padecen sobrepeso u obesidad.



METODOLOGÍA

El objetivo de este estudio es verificar la complexión de los estudiantes de ingeniería industrial de la Universidad Politécnica del Valle de México, el estudio es de carácter transversal, experimental y descriptiva. El estudio consistió en analizar el IMC (Índice de masa Corporal), lo cual se realizó a un total de 64 estudiantes de tres diferentes grupos, de los cuales 35 eran hombres y 29 mujeres. Para sacar el IMC se consto de 4 categorías recomiendas por la Organización Mundial de la Salud (OMS): IMC < 18.5 = Bajo peso IMC 18.5 - 24.9 = Peso Normal IMC 25 - 29.9 = Sobrepeso IMC 30 - 40 = Obesidad   Primero se le puso a correr, trotar o caminar por durante 10 minutos en una cancha de basquetbol la cual estaba marcada por cada metro para una fácil obtención de la distancia recorrida por cada estudiante; después se procedió a medir su estatura (en metros) y su peso (en kilogramos). Al finalizar se les aplico un pequeño cuestionario el cual contenía 3 preguntas cerradas (si o no) donde se reflejaba si fumaban, desayunaban y si hacían actividad física. En esta sección se muestra tanto el nombre el equipo y las herramientas que se usaron durante el estudio realizado, al igual la forma en que se realizó la recolección de datos. Equipo Estadiómetro Computadora Software Excel Cronometro IBM SPSS statistics 20 Dispositivo sensor de oxigeno Materiales Cinta métrica Flexómetro Marcador permanente negro


CONCLUSIONES

Los datos obtenidos en el estudio arrojaron que el 4.69% de los estudiantes poseen bajo peso, el 57.81% un peso normal, el 29.69% tiene sobrepeso y el 7.81% tiene obesidad. Es decir, la mayoría de los estudiantes de la carrera de ingeniería industrial poseen un peso adecuado, además el segundo mayor dato es el de sobrepeso el cual los hombres tienen más incidencia mientras que en obesidad la incidencia es mayor en mujeres.
Portillo Gordillo Alex José, Instituto Tecnológico de Cuautla
Asesor: Dr. Celso Eduardo Cruz Gonzalez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

MáQUINA FRESADORA PARA PROBETAS


MáQUINA FRESADORA PARA PROBETAS

Portillo Gordillo Alex José, Instituto Tecnológico de Cuautla. Asesor: Dr. Celso Eduardo Cruz Gonzalez, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El Centro Nacional de Tecnologías Aeronáuticas (CENTA) perteneciente al Centro de Ingeniería y Desarrollo Industria (CIDESI), es un centro dedicado a crear soluciones tecnológicas de alto nivel ubicado en del estado de Querétaro. Su visión es ser una institución autosustentable de clase mundial, reconocida por el alto valor y el impacto tecnológico de sus servicios y productos. Esta institución integra capacidades científicas y tecnológicas acordes a las demandas de la industria aeronáutica.   CIDESI es un centro integrante del Sistema de Centros Públicos de Investigación de CONACYT, esta institución no solo tiene una reconocimiento por una trayectoria en investigación, desarrollo e innovación con enfoque hacia la industria, sino también por ser un centro público de investigación capaz de crear soluciones para sus clientes, basadas en la investigación e innovación tecnológica.   El Centro Nacional de Tecnologías Aeronáuticas decidió someter pruebas a diferentes probetas para el área de aeronáutica, a lo cual decidieron manufacturar ellos mismo las probetas. Para ello era necesario la adquisición de una fresadora especial que permitiera la manufactura  de las probetas de acuerdo a estándares ASTM, lamentablemente al revisar los modelos que ofrecen las diferentes empresas se llegó a la conclusión de que su precio era muy elevado. Por lo cual solicitó apoyo a CIDESI, para desarrollar y construir su propio modelo de mesa fresadora de probetas que pueda realizar las mismas acciones y funciones de los modelos en venta que ofrecen en el mercado pero a un menor precio.             Este proyecto ha sido incubado en el CIDESI del Edo. De México, dado que el centro cuenta con la maquinaria y equipo necesario para realizar su diseño y construcción, tomando en consideración el material más adecuado para su función.



METODOLOGÍA

Para el diseño de la máquina fresadora de probetas se basó en lo establecido por la Sociedad Americana para Pruebas y Materiales (ASTM), por sus siglas en inglés (American Society for Testing and Materials), que es una organización de normas internacionales que desarrolla y publica acuerdos voluntarios de normas técnicas para una amplia gama de materiales, productos, sistemas y servicios. La norma que estandariza las dimensiones y características de las probetas es la ASTM D638-14, la cual  cubre la determinación de las propiedades de tracción de plásticos reforzados y no reforzados en forma de muestras de prueba estándar con forma de mancuerna cuando se prueban en condiciones definidas de pretratamiento, temperatura, humedad y velocidad de la máquina de prueba. Este método de prueba no pretende cubrir procedimientos físicos precisos. Esta norma establece las diferentes medidas para 4 tipos de probetas, pero la máquina fresadora fue diseñada para manufacturar solamente la probeta Tipo 1, la cual sus medidas son   Ancho de sección estrecha.                     13mm (0.50in) Longitud de sección estrecha.                  57mm (2.25in) Ancho total.                                               19mm (0.75in) Longitud total.                                           165mm (6.5in) Longitud de calibre.                                  50mm (2.00in) Distancia entre empuñaduras.                 115mm (4.5in) Radio del Filete.                                       76mm (3.00in)  


CONCLUSIONES

Durante la estancia de investigación no solamente adquirí conocimientos teóricos que no tenía, sino que también obtuve la experiencia y la oportunidad de trabajar con los diferentes equipos de maquinado con los que cuenta el centro, con los cual realice cortes, desbastes, barrenos y machuelos necesarios para las piezas de la maquina fresadora de probetas. Durante el desarrollo de esta máquina se presentaron diferentes problemáticas, mayormente pequeños detalles que causaban una gran pérdida de tiempo y un aumento de esfuerzo, aun así se logró construir de forma exitosa y que cumple con la norma ASTM D638-14, para la probeta Tipo I. Este aparato permite manufacturar probetas de plástico de forma estandarizada, por lo cual son óptimas para realizar pruebas de resistencia dado que no fueron creados por métodos de moldeado sus propiedades físicas no han sido alteradas. Este verano fue una increíble experiencia que me permitió acercarme al mundo laboral y más que nada a uno de los ámbitos industriales que más me interesa, la manufactura. Aprendí cosas prácticas que en las universidades no se enseña y a pensar de forma más versátil, a realizar una correcta planeación y a realizar diseños sencillos pero que cumplan adecuadamente con su función.
Pozas Bogarin Edgar Efren, Instituto Tecnológico de Tepic
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

PLANTEAMIENTO DE POSIBLES ALGORITMOS NEURO-ASTROCíTICOS BASADOS EN COMPORTAMIENTOS DE LOS ASTROCITOS REALES


PLANTEAMIENTO DE POSIBLES ALGORITMOS NEURO-ASTROCíTICOS BASADOS EN COMPORTAMIENTOS DE LOS ASTROCITOS REALES

Pozas Bogarin Edgar Efren, Instituto Tecnológico de Tepic. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

Con el creciente desarrollo de la tecnología se han logrado tener grandes avances en diversas ramas especialmente en aquellas relacionadas con la inteligencia artificial, debido a que actualmente contamos con un mayor poder de procesamiento lo que nos permite el validar algoritmos de inteligencia artificial que anteriormente no se habían podido. A pesar de que son modelos muy buenos para los requerimientos que tenemos continúan siendo algoritmos muy simples que no emulan el proceso de aprendizaje que tienen los seres vivos, es ahí donde entran los astrocitos y algoritmos como lo son las redes neuro astrocíticas.



METODOLOGÍA

Se tomarón cursos en las cuales se dió una introducción a la inteligencia artificial y las aplicaciones particularmente en el campo de la medicina. Además se tomarón dos talleres relacionados con la inteligencia artificial y la medicina, estos fueron impartidos por expertos en las áreas. Conociendo este panorama se prosiguió por elegir una línea de investigación, posteriormente se abordo con la problemática y se realizó la investigación en diversas bases de datos científicas con el fín de buscar articulos relacionados con el papel de los astrocitos en el cerebro y su funcionamiento, posteriormente se realizó un resumen en el cual se presenta la información obtenida, finalmente en base a lo encontrado se plantearon algoritmos que tratan de emular lo encontrado.


CONCLUSIONES

Durante la estancia de verano se logró adquirir gran cantidad de conocimientos, que van desde el conocer las diversas aplicaciones que tiene la inteligencia artificial en el campo de la medicina, hasta el conocimiento de las necesidades actuales que se tienen en estos campos. Además relacionado con la problemática se logró adquirir conocimientos teóricos de los astrocitos así como su papel en las las redes neuronales, dando paso a las redes neutro astrocíticas. Se logró el planteamiento de posibles algoritmos que emulan los procesos biológicos que realizan los astrocitos dentro de la sinapsis.  
Pozo García Karen del Rosario, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Mtro. Emmanuel Cruz Soriano, Universidad Politécnica de Atlacomulco

PROPUESTA DE UNA ESTRUCTURA DE PROTOCOLO FAMILIAR PARA LAS MIPYMES


PROPUESTA DE UNA ESTRUCTURA DE PROTOCOLO FAMILIAR PARA LAS MIPYMES

Pozo García Karen del Rosario, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Mtro. Emmanuel Cruz Soriano, Universidad Politécnica de Atlacomulco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las empresas familiares son parte del sector económico más importante que tiene un país, en México representa una fortaleza en el sector de servicios, en el 2018 este sector representó el 66% del PIB y el 62% de la fuerza laboral, seguido por el sector industrial con el 31% del PIB y el 23.8% de la fuerza laboral, y el sector primario con el 2.8% del PIB y el 13.6% de la fuerza laboral (INEGI, 2018) Es decir que la economía mexicana ha venido creciendo a un ritmo promedio de 2.2% durante los últimos 10 años (Gardusa, 2018) En México, más de 90% de las firmas que cotizan en la Bolsa Mexicana de Valores (BMV)  (KPMG, 2018) tienen una clara representación familiar en el capital y en el control. Por eso es importante hablar de las empresas familiares, de su contribución al desarrollo del país, así como de los esfuerzos para apoyarlas y fortalecer su sostenibilidad. Las empresas familiares, nacen por lo regular de una propuesta que sus fundadores desarrollan con el deseo de construir un patrimonio y asegurar el futuro de sus descendientes, también son un camino para salir del desempleo o para aprovechar un conocimiento disponible, como una maquina heredada o incluso una técnica artesanal. Por lo tanto, todos estamos al alcance de crear una propia empresa, pero hace falta el acompañamiento y conocimientos necesarios para que prosperen. Como se mencionó las empresas familiares en México son un factor muy importante dentro de la economía nacional. Pero, cabe recalcar que las relaciones internas que se llevan dentro de la misma pueden que sean difíciles, pues es complicado llevar o evitar mezclar los aspectos sentimentales y afectivos propios de su parentesco. A la vez, estos obstáculos complican el proceso sucesorio debido a la división moral que debe de hacerse: la familiar y la laboral. Dentro de las EF (Empresas familiares) se considera que el proceso de sucesión es su principal problema, ya que muchas de ellas fracasan debido a que no hay un crecimiento, y sobre todo que no llega a existir una continuidad y compromiso dentro de la misma empresa. Hay varios factores que influyen para que no se realice una buena sucesión, pues, se puede mencionar que en ocasiones el fundador tiene una resistencia a aceptar su retirada o incluso a traspasar los poderes de la empresa, también las tensiones que se generan entre el fundador y los descendientes para elegir el nuevo sucesor, que va de la mano con las tensiones de los mismos herederos por la designación del sucesor. Nieves El Juchi se ha mantenido de generación en generación, contando actualmente con la tercera generación que hasta estos momentos tiene una sucursal, pero cabe mencionar, que no tiene una buena planeación para llevar a cabo la sucesión de la misma, es por ello que se ha mantenido rezagado en las cuestiones empresariales, teniendo así un avance poco notorio dentro de la ciudad, ya que desconoce totalmente de alguna herramienta que ellos puedan implementar para la mejora de una sucesión adecuada.



METODOLOGÍA

Esta investigación según el objetivo será aplicada dado que tiene la intención de plantear una propuesta de planeación para establecer una mejor sucesión dentro de la empresa familiar (PyME), a la vez de acuerdo con los datos recolectados es cualitativa ya que, mediante la obtención de información de los miembros de la EF, se conocerá la situación actual de la empresa, junto con el desarrollo de la investigación se llevará de manera descriptiva de los elementos que intervienen en la problemática donde se describe el fenómeno en primera instancia. Posteriormente se inducen a un alcance explicativo ya que se redirige a responder las causas que conllevan a esta situación considerando los elementos sociales como principales participes y el entorno que se presenta.  


CONCLUSIONES

Durante esta estancia se identificó que el problema que tiene Nieves El Juchi se encuentra en la inseguridad que se produce en el momento del reemplazo generacional, debido a que no cuenta con una planeación ya elaborada, ni mucho menos con un protocolo familiar. Por tanto, existen conflictos familiares a la hora de buscar uniformidad organizacional y tocar temas de la sucesión, pues no ha sido posible aislar cuestiones familiares con los empresariales, que conlleva a conflictos inmediatos. El protocolo familiar puede ser utilizado por micro, pequeñas, medianas y grandes empresas, ya que, no hay distinción en ellas en este ámbito, debido que el protocolo familiar es una herramienta universal de planeación que está hecho por los propios integrantes de la familia, en esto radica su esencia, ni un protocolo familiar puede ser igual al de otra empresa, porque cada ente económico tiene sus propias dificultades empresariales y familiares, en pocas palabras el protocolo familiar es único para cada organización. El protocolo familiar es una herramienta necesaria para Nieves El Juchi ya que, se podrá identificar la realidad de la empresa, se logrará tener un clima organizacional estable entre todos los miembros familiares participes, y, sobre todo, tener con claridad los objetivos de la empresa, que va de la mano con el proceso de sucesión ideal para cada generación.
Prieto Cuevas Cecilia Carolina, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Fernando del Carmen Vera Quiñones, Instituto Tecnológico Superior de Los Ríos

ELABORACION DE JABON A BASE DE ACEITE DE PALMA


ELABORACION DE JABON A BASE DE ACEITE DE PALMA

Prieto Cuevas Cecilia Carolina, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Fernando del Carmen Vera Quiñones, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Anteriormente la elaboracion de jabon era algo que se realizaba de manera artesanal y en las propias casas para diferentes personas de diferenteslugares,en la actualidad muchoa optan por asistir a un supermercado y escoger el de mayor agrado o el que se adecue a la ;sin saber lo que contiene exactamente. Elaborar jabon de manera artesanal es una manera de aprovechar el tiempo y regalar a nuestro cuerpo algo natural y saludable. En el municipio de Balancan se ha incrementado la siembra de palma de aceite debido a programas de gobierno qje han impulsado a la siembra de este tipo de palma. Sin embargo los productores solo han tenido un canal de ventas de produccion que es la industria extractora de aceite.



METODOLOGÍA

- Revision de la literatura: es necesario tener conocimientos y leer articulos elaborados con base a la fabricacion de jabones. - Diseño de proceso de fabricacion: se debe realizar el diseño de la manera en que se va a realizar el jabon. - Diseño del molde del jabon: para realizar el jabon se debe elaborar un molde que cumpla con las especificaciones adecuadas que se desea que cumpla el jabon y es aqui donde se debe realizar el diseño. - Diseño del empaque del jabon: de igual manera se debe diseñar el empaque del jabon que cumpla con las medidas y especificaciones del jabon. - Elaboracion del molde del jabon: una vez que se tiene el diseño d molde se puede proceder a elaborarlo con los materiales necesarios. - Proceso de fabricacion del jabon: se debe proceder a elaborar el jabon con el material requerido y cantidades adecuadas. - Analisis del producto: despues de realizar el peoducto se debe realizar un analisis para ver si cumple con las especificaciones que se deseaban alcanzar o si se debe modificar algo. - Reproceso de fabricacion: si el producto no cumple con las caracteristicas deseadas se debe realizar el producto de nuevo para alcanzar el objetivo deseado. - Elaboracion del empaque: ya que se tiene el producto y el diseño del empaque se puede pasar a su elaboracion con el material deaeado y las medidas necesarias. - Producto final: finalmente se debe obtener el jabon con el empaque y el tamaño apropiado.


CONCLUSIONES

Despues del estudio que se realizo en la region de la palma de aceite se pudo observar que es un producto que se puede aprovechar en otro producto, tal es caso del jabon. Es necesario utilizar los materiales necesarios y seguir los pasos adecuados para obtener el producto deseado proporcionando asi a los productores de palma otro canal de venta aparte del aceite.
Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Puentes Torres Miriam Jazmín, Instituto Tecnológico de Ciudad Juárez
Asesor: Mtro. Marco Antonio Ramírez Hernández, Universidad Tecnológica de Xicotepec de Juárez

ANáLISIS DE BIBLIOGRAFíA ESPECíFICA, DIRIGIDA A LA ELABORACIóN DE UNA PROPUESTA PARA LA APLICACIóN DE BUENAS PRáCTICAS EN EL PROCESO DE DESARROLLO DEL SOFTWARE "IXCHEL" PARA LA CLíNICA DE REHABILITACIóN FíSICA EN LA UNIVERSIDAD TECNOLóGICA DE XICOTEPEC DE JUáREZ, PUEBLA.


ANáLISIS DE BIBLIOGRAFíA ESPECíFICA, DIRIGIDA A LA ELABORACIóN DE UNA PROPUESTA PARA LA APLICACIóN DE BUENAS PRáCTICAS EN EL PROCESO DE DESARROLLO DEL SOFTWARE "IXCHEL" PARA LA CLíNICA DE REHABILITACIóN FíSICA EN LA UNIVERSIDAD TECNOLóGICA DE XICOTEPEC DE JUáREZ, PUEBLA.

Puentes Torres Miriam Jazmín, Instituto Tecnológico de Ciudad Juárez. Asesor: Mtro. Marco Antonio Ramírez Hernández, Universidad Tecnológica de Xicotepec de Juárez



PLANTEAMIENTO DEL PROBLEMA

La gestión de documentos físicos conlleva una gran responsabilidad en el manejo de los mismos, de acuerdo al peso o relevancia de sus datos. Es por ello que, hoy en día dicha información se ha visto resguardada mediante las tecnologías digitales, minimizando así los inconvenientes que podrían sufrir los documentos físicos, ya sea por pérdida por falta de organización en el papeleo, desgaste del papel o incluso hurto.               Las personas morales como físicas, independientemente de su rubro de profesión se han visto en la necesidad de hacer la digitalización de sus datos y archivos físicos para la protección de éstos. Tal es el caso de la Universidad Tecnológica de Xicotepec de Juárez, donde el departamento de TIC(Tecnologías de la Información y Comunicación) ha empezado a desarrollar una plataforma llamada IXCHEL que resguarde los datos de la Clínica de Terapia Física de la UTXJ ya que, a pesar de llevar un aparente control de sus documentos físicos, la implementación de un plataforma digital agilizará la gestión de los mismos, dando así un mayor flujo en el proceso que va desde el registro de un paciente hasta la búsqueda del historial clínico o inclusive, el avance de recuperación que ha logrado, cabe mencionar, que uno de los principales objetivos, de la plataforma a desarrollar, es que el paciente al ver su avance de recuperación, a través de la herramienta digital, sea motivado para no desertar y continuar hasta finalizar el tratamiento.                         Sin duda alguna, el uso de las tecnologías de la información y la actualización de constante de las mismas, conlleva resultados muy satisfactorios y favorables, pero al mismo tiempo, un proceso bastante laborioso. Es por ello que, para el proceso de desarrollo de esta plataforma, fue necesario un reforzamiento de documentación y estructuración sólida para el aval y buena planificación, para que en el desarrollo de la misma los distintos programadores o entes involucrados en el proyecto puedan encaminarse hacia una misma dirección de acuerdo a sus objetivos y especificaciones establecidas.



METODOLOGÍA

Para la elaboración de la propuesta primeramente hubo una contextualización del proyecto, donde se dio a conocer proceso general en el que labora la clínica de terapia física, así como su papeleo y los datos importantes que deben ser resguardados.             La fundamentación del marco teórico, fue basado en nueve casos aplicativos, de los cuales se realizó un análisis de viabilidad, al realizar un estudio comparativo a partir de una matriz de donde se sacaron los puntos deficientes o faltantes para el reforzamiento de la estructuración de la plataforma.             Finalmente se realizó la propuesta de trabajo, la cual conllevo la realización de diagramas de caso de uso, diccionario de datos, diagrama de actividades y observaciones, además de la obtención de los diagramas del modelo relacional a partir de la base de datos ya realizada por el asesor.


CONCLUSIONES

Durante la estancia de verano se pudo lograr un gran apreciamiento del panorama general del funcionamiento de la clínica y del cómo se podrían mejorar el proceso de salvaguardar la información de la clínica mediante las Tecnologías de la Información, sin embargo, debido al ser un extenso trabajo se encuentra en la fase de prototipo, y es por ello que en esta etapa solo se le dió un fundamento para la primera versión de IXCHEL, la cual a futuro podrá mejorar gracias a la escalabilidad y buena planificación de esta.
Puerto Gonzalez Luz Angela, Universidad Nacional Abierta y a Distancia (Colombia)
Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

DETERMINACIóN DE CAPSAICIONOIDES Y VITAMINA C EN EL CHILE HABANERO POR MéTODO DE ESPECTROFOTOMETRíA UV-VISIBLE


DETERMINACIóN DE CAPSAICIONOIDES Y VITAMINA C EN EL CHILE HABANERO POR MéTODO DE ESPECTROFOTOMETRíA UV-VISIBLE

Puerto Gonzalez Luz Angela, Universidad Nacional Abierta y a Distancia (Colombia). Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El fruto del chile habanero es originario de la península de Yucatán considerados uno de los chiles más picantes del mundo, su pungencia se debe a la presencia de siete capsaicinoides, dos de ellos son los principales: capsaicina y dihidrocapsaicina. El suelo es fundamental para establecer cualquier tipo de cultivo y en la península de Yucatán el 80% de los suelos están clasificados como leptosoles los cuales se caracterizan por ser suelos de escasa profundidad, tierra fina y gran cantidad de piedras y afloramientos de roca. Existen diferentes suelos donde se cultiva el chile habanero lo cual origina una gran variabilidad en la producción y rendimiento del fruto; con respecto a los factores anteriormente mencionados es necesario evaluar el efecto que tiene el tipo de suelo (rojo y negro) en la presencia de los metabolitos en este caso capsaicina y Vitamina C en el fruto de chile habanero (C. chinense Jacq).



METODOLOGÍA

El proyecto se lleva a cabo en el Parque Científico, en la Unidad CIATEJ en el área de invernaderos, para el mes de junio y Julio se cosechó el cultivo 5 en suelos negro y rojo, que se dividió en 5 cosechas de las cuales los chiles recolectados se pesaron, se contaron y secaron por dos métodos, horno y liofilización, una vez secos se pulverizaron y se procedió a realizar la extracción para la determinación de capsaicina y vitamina C a diluciones específicas que permitieron posteriormente realizar la lectura de absorbancia por método de espectrofotometría UV-Visible, para ello era necesario la construcción previa de la curva de calibración. Para determinar el efecto y diferencias significativas en los mg/g de Vitamina C y capsaicinoides con respecto al tipo de suelo y método de secado, fue necesario realizar un análisis estadístico de varianza multifactorial empleando el programa Statgrafics.


CONCLUSIONES

De acuerdo a los análisis estadísticos se pudo determinar que para el cultivo 5, específicamente la cosecha número 2 se encontraron chiles en sus tres estados de maduración: naranja, verde naranja y verde en los dos tipos de suelos (rojo y negro) secados en dos métodos diferentes (horno y liofilizado) y se pudo establecer que hay mayor cantidad de Vitamina C en relación a tierra-madurez: en chiles verdes cultivados en suelo rojo, tierra-secado: en chiles cultivados en suelo rojo secados en horno y madurez-secado: en chiles verdes secados en horno, y de igual forma mayor contenido de capsaicina en relación a tierra-madurez:  en chiles verdes cultivados en suelo rojo, tierra-secado: en chiles cultivados en tierra roja secados en horno, madurez-secado: en chiles verdes secados en horno. Este verano de investigación ha sido productivo y gratificante puesto que adquirí conocimientos y los puse en práctica enriqueciendo mi proceso de aprendizaje y formación.
Pulido Hernandez Diana, Tecnológico de Estudios Superiores de Tianguistenco
Asesor: Dr. Sodel Vázquez Reyes, Universidad Autónoma de Zacatecas

PROTOTIPO DE APLICACIÓN MÓVIL PARA ADOLESCENTES EN ETAPA ESCOLAR (PRIMER AñO DE LICENCIATURA) CON TRASTORNO DE ANSIEDAD GENERALIZADA.


PROTOTIPO DE APLICACIÓN MÓVIL PARA ADOLESCENTES EN ETAPA ESCOLAR (PRIMER AñO DE LICENCIATURA) CON TRASTORNO DE ANSIEDAD GENERALIZADA.

Pulido Hernandez Diana, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Sodel Vázquez Reyes, Universidad Autónoma de Zacatecas



PLANTEAMIENTO DEL PROBLEMA

Las dificultades emocionales y de la conducta en los escolares constituyen un serio y difícil problema tanto para la educación y la salud mental de los estudiantes, como para los padres cuyos hijos no logran en la escuela un rendimiento acorde con sus esfuerzos y expectativas. La Ciudad de México y el Estado de México ocupan el segundo y décimo tercer lugar respectivamente en deserción escolar según INEGI (INEGI 2012); de entre las causas más comunes de ansiedad en el Estado de México son las preocupaciones (ingreso en el hogar, problemas y falta de intervención familiar, los medios de comunicación) de quienes cursan los primeros cuatro semestres de la universidad.  La Secretaría de Salud capitalina califica a la depresión y la ansiedad dentro de los padecimientos más incapacitantes, incluso más que la diabetes y otras enfermedades crónico degenerativas, porque afectan el desempeño y la calidad de vida de quienes los padecen así lo redacta el periódico máspormás de la Ciudad de México en uno de sus artículos publicado el 31 de enero del 2017, al igual menciona 2 casos reales de jóvenes que tuvieron trastornos de ansiedad provocando la deserción escolar de ambos casos para poder cuidar de su salud para después retomar sus estudios.  



METODOLOGÍA

El desarrollo del prototipo de la aplicación se trabaja con el ciclo de vida del software, siguiendo los pasos de análisis, diseño, codificación, pruebas, implementación, mantenimiento. En la etapa de análisis se elicitó, analizó y documentó información relacionada con el trastorno de ansiedad, ya que es un tema extenso y con mucha relación con otros trastornos, por esa razón con la ayuda de las psicólogas Sandra Corina Cortés y Alejandra Ortiz Olivera del Estado de México y con la M.T.F. María Lorena Barba González técnico académico en CIMAT Zacatecas, el proyecto se acotó al Trastorno de Ansiedad Generalizada (TAG) ya que sus criterios de diagnóstico están dirigidos hacia el ámbito laboral y escolar. Para determinar que el campo de estudio estuviera relacionado con el TAG se investigaron los Criterios de Diagnóstico en el DSM-IV (Manual diagnóstico y estadístico de los trastornos mentales) donde determina que para tener TAG F41.1[300.2] es necesario tener 4 de 22 síntomas y estos coinciden con los síntomas que un adolescente en primer año de universidad presenta, algunos ejemplos de los síntomas son: Ansiedad, preocupación excesiva, fatiga, dificultad para concentrarse, entre otros. Después de obtener la información necesaria se elaboró la parte de ingeniería de requerimientos que es el proceso para establecer los servicios que el sistema debe proveer, una propiedad que un producto debe tener para proporcionar valor a un interesado, donde se redactaron y validaron las historias de usuarios, los requerimientos de negocio y los requerimientos de usuario y todos aquellos artefactos de la etapa de análisis. Para la parte de requerimientos se hizo por medio de análisis y comparación de aplicaciones existentes como punto de partida para entender el contexto y poder proporcionar valor a través de nuestra propuesta de aplicación. Estas técnicas se ejecutan cuantas veces sean necesarias hasta que se valida al 100% con el usuario final para poder pasar a la etapa de diseño. En la etapa de diseño es necesario tener una herramienta que te pueda ayudar a generar los Mock Ups, los Mock Ups son fotomontajes que permiten mostrar al cliente cómo quedarán sus diseños, esto con el propósito de generar y entregar un mejor trabajo con los menores errores posibles. Es decir se valide a través de los bosquejos de la futura aplicación.    


CONCLUSIONES

Cabe destacar que durante mi estancia en la Universidad Autónoma de Zacatecas y con la ayuda del investigador Dr. Sodel Vázquez Reyes puede adquirir muchos conocimientos teóricos tales como el ciclo de vida del software, sobre la ingeniería de requerimientos, las metodologías ágiles, al igual que conocimientos prácticos como el realizar modelos kanban o scrum para optimizar el manejo de tareas y dar más priorización a algunas tareas que a otras. De igual manera el tener la oportunidad de participar en la 8a Escuela de Ingeniería de Software organizada en el Programa de Ingeniería de Software de la Universidad, aprendí a ocupar base de datos NoSQL como son Redis, MongoDB y Cassandra, modelados de datos NoSQL, la gestión de riesgos y Metodologías ágiles utilizando el modelo kanbas, los pensamientos por lotes y por flujos de una pieza, toda esta información obtenida me servirá para crear una imagen más firme sobre el rumbo de mi carrera profesional, al igual que mejorar el enfoque del a donde voy y a donde quiero llegar. Respecto al prototipo de la aplicación, al estar dirigido a un campo de estudio muy grande y complejo como es el campo de la salud, es difícil acelerar los procesos de desarrollo puesto que se tiene que validar con el o los usuarios finales todos los requerimientos para entregar un proyecto usable y funcional proporcionando valor, por estas razones el proyecto está en la etapa de diseño, y se tiene planeado que el proyecto se desarrolle y que entre a etapa de pruebas en el Tecnológico de Estudios Superiores Tianguistenco esperando obtener resultados positivos para que los estudiantes de primer año cuenten con una herramienta para poder canalizar los síntomas de ansiedad.  
Pulido Rosas José Manuel, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan

PROPUESTA PARA LA SOLUCIÓN DEL CONFLICTO DE TRÁNSITO EN LA INTERSECCIÓN DEL LIBRAMIENTO ORIENTE Y LA CALLE CAMINO A SANTA ROSA, EN LA CIUDAD DE URUAPAN, MICHOACAN.


PROPUESTA PARA LA SOLUCIÓN DEL CONFLICTO DE TRÁNSITO EN LA INTERSECCIÓN DEL LIBRAMIENTO ORIENTE Y LA CALLE CAMINO A SANTA ROSA, EN LA CIUDAD DE URUAPAN, MICHOACAN.

Campos Tapia Luis Alexis, Instituto Tecnológico Superior de Uruapan. Pulido Rosas José Manuel, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El Libramiento Oriente de la ciudad de Uruapan, Michoacán, es una de las vialidades con más flujo vehicular, ya que es una de las arterias que comunica de forma directa el sur con el centro y norte de la ciudad. Con la importancia que tiene cuenta con dos carriles para transitar en cada sentido. En los últimos años ha sido notable el crecimiento de la ciudad que se ha manifestado hacia la zona oriente y esta vialidad juega un papel importante en esta zona. Uno de los puntos importantes de la propuesta es evitar la colisión de vehículos en dicha intersección.



METODOLOGÍA

1.- Realizar estudio topográfico para ver la infraestructura existente. 2.- Análisis y estudio de tránsito para determinar los puntos de conflicto. 3.- Desarrollo del proyecto propuesto en el software AutoCAD. 4.- Análisis de los puntos de conflicto de tránsito con software especializado.


CONCLUSIONES

ALTERNATIVAS DE SOLUCIÓN: Para el desarrollo de esta investigación los programas de cómputo tienen un rol fundamental. Se usó el software llamado InfraWorks el cual es una herramienta de diseño conceptual y visualización, una herramienta de diseño, análisis y cálculos ingenieriles, este programa nos permite configurar las unidades por categoría básica, transporte y estructuras. Eligiendo la precisión deseada para cada tipo de medición, Sección Transversal-Facilidad para revisar peraltes, cuantificaciones en cortes y rellenos, secciones de puentes, intersecciones y zonas de giro, cuantificación de materiales, realizar volumetrías, corte y relleno, según el parámetro de separación entre secciones que elijamos para mayor precisión. Nos permite exportar los reportes a una hoja de cálculo para realizar análisis posteriores. Se propusieron dos soluciones diferentes: 1.- Paso a desnivel. 2.- Puente. Realización de modelos esquemáticos para tener una representación física de la solución al conflicto vial. Ambas propuestas se presentarán al investigador para llegar a la alternativa de solución más adecuada.
Que Jimenez Ivon, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos

ELABORACIóN DE UN "BRAZO HIDRAULICO


ELABORACIóN DE UN "BRAZO HIDRAULICO

Que Jimenez Ivon, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se dará a conocer la importancia de un brazo hidráulico ya que en las grandes industrias existen accidentes físicos en los operarios por la carga extrema que genera, además se implemento esta idea para mejorar tiempo y mejora dentro de ella.



METODOLOGÍA

Cortaremos la madera en forma rectangular para que sea la base de todo el proyecto, posteriormente se procederá a dibujar en la madera restante las piezas que serán el cuerpo del brazo hidráulico, una vez dibujado las partes procederemos a cortarlas y prepáralas para la pintura, pintaremos el brazo con el color elegido, luego ensamblaremos las piezas para darle forma al brazo, una vez ensamblada las piezas comprobaremos que tenga movilidad y comprobaremos que todo esté acorde al plano, tomaremos las jeringas ,las mangueras y las uniremos, una vez unidas pondremos el líquido de freno o agua y probaremos que tengan el suficiente líquido para que pueda funcionar, luego las adaptaremos al brazo y probaremos que las mismas hagan funcionar al brazo. Pondremos jeringas en la base circular y probaremos que estas muevan el brazo de lado a lado, colocaremos el brazo ya antes armado en la base circular y lo haremos funcionar para poder ver errores en el mismo y poderlo corregir, una vez hecho todo esto comprobaremos que este brazo sea capaz de levantar algún objeto y de transportarlo de un lugar a otro.


CONCLUSIONES

Como resultado obtuvimos que esta maquina es de mucha ayuda ya que nivela la parte ergonómica de los operarios reduciendo tiempo y esfuerzos físicos dentro de la empresa.
Quijano Gallegos Efrén, Instituto Politécnico Nacional
Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche

CORROSIóN DE INFRAESTRUCTURAS DE CONCRETO REFORZADO


CORROSIóN DE INFRAESTRUCTURAS DE CONCRETO REFORZADO

Mendoza Muñoz Valery Raquel Aylin, Instituto Politécnico Nacional. Quijano Gallegos Efrén, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

El concreto reforzado con varillas de acero es uno de los materiales de construcción más ampliamente usados, sin embargo, las estructuras que los emplean tienen el inconveniente de ser susceptibles a la corrosión. El problema del deterioro de las estructuras de concreto debido a procesos de corrosión es serio y de implicaciones económicas mayores. La habilidad para evaluar la corrosión de las varillas de refuerzo en estructuras y poder estimar la vida en servicio remanente es tema de estudios en el ámbito mundial. No obstante, los grandes avances tecnológicos mundiales, el problema de la corrosión sigue sin ser entendido completamente, debido principalmente a la complejidad del proceso. Para tratar de establecer las bases que rigen el fenómeno de la corrosión, se presentan temas elementales que permitirán al lector comprender las bases del fenómeno.



METODOLOGÍA

A continuación, se describe la metodología experimental de la caracterización de los materiales requeridos, el diseño y fabricación de los especímenes, finalizando con dos pruebas electroquímicas (impedancia y corrosión en circuito abierto). El procedimiento se explica a continuación: Diseño y preparación de probetas Se elaboraron 12 probetas cilíndricas de concreto con una varilla de acero de refuerzo de 3/8’’ al centro. Fueron utilizados moldes de acero convencionales de 3 pulgadas de diámetro por 6 de altura. La proporción del mortero fue 1:2:3 de agua:cemento:arena. Materiales utilizados Los materiales utilizados para la fabricación de los especímenes de concreto fueron: cemento portland Maya, arena de mar como agregado fino, agua de la toma municipal y bagazo de caña. Todos los materiales son característicos de la región. Agregados Pétreos Los agregados fueron seleccionados bajo cumplimiento de las Normas Mexicanas vigentes. Se agregó bagazo de caña, así como arena de mar como agregado fino. Dicho material se obtuvo de bancos cercanos. Cemento El cemento utilizado para la fabricación de especímenes fue cemento Portland Compuesto de Resistencia Rápida (CPC 30R), con un peso específico de 3,150 kg/m3. Agua Este importante elemento fue tomado del sistema de agua potable de la Red de Abastecimiento del Centro de Investigación (CICORR) del campus 6 de la Universidad Autónoma de Campeche. Preparación de los moldes de acero Los moldes se limpiaron previamente en sus caras internas para evitar la contaminación del concreto con sustancias que pudieran afectar su composición y poder además lograr un acabado libre de imperfecciones. Se colocaron en una superficie plana libre de vibraciones con la separación adecuada entre ellos para facilitar el proceso de colado y evitar que los especímenes sufrieran alteraciones durante el fraguado. Fabricación de la mezcla Las mezclas se fabricaron de forma manual con ayuda del personal del laboratorio de concreto de CICORR. Todos los materiales utilizados para la fabricación de las mezclas fueron previamente pesados o cubicados en su caso y almacenados en costales o cubetas para facilitar su manipulación. Colado de especímenes El concreto después de mezclarlo fue manipulado con ayuda de una cuchara metálica para homogeneizar la mezcla. Una vez terminada esta operación se procedió a llenar los moldes de acero con el cucharon. Cada molde cilíndrico se elaboró en tres capas de acuerdo con la Norma NMX-C-159-ONNCCE-2004 (Industria de la construcción - Concreto - Elaboración y curado de especímenes en el laboratorio). (ONNCCE, NMX-C-159-ONNCCE-2004, 2004) Una vez que se obtuvo la muestra de concreto fresco con base a la Norma NMX-C-161-ONNCCE-1997 (Industria de la Construcción-Concreto Fresco-Muestreo), la prueba se realizó de la siguiente forma (ONNCCE, NMX-C-161-ONNCCE-1997, 1997). Una vez elaboradas las vigas cilíndricas, se procedió a desmoldar a las 24 horas, y se sometieron a curado por inmersión con una solución saturada de Ca(OH)2 durante 28 días. Durante este tiempo se realizaron pruebas electroquímicas de impedancia y corrosión en circuito abierto, corridas las pruebas bajo ciertos parámetros. La prueba de impedancia se corrió a 100000 Hz de frecuencia inicial y se terminó en 0.01Hz, con una amplitud de 10 Mv RMS. Mientras que la prueba de corrosión en circuito abierto se efectuó un punto por segundo, con una duración 300 segundos cada prueba.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la corrosión en infraestructura de concreto reforzado y ponerlos en práctica con la fabricación de especímenes de concreto combinado con bagazo de caña, sin embargo, al requerir la etapa de curado un tiempo específico de 28 días es necesario que los especímenes permanezcan así con la finalidad de que ocurran todas las reacciones químicas posibles para que el concreto alcance la mayoría de sus propiedades. Se espera que la adición de bagazo de caña ayude a reducir la cantidad de cemento que se utiliza de forma tradicional; sin embargo, al ser un elemento orgánico tiende a degradarse mucho más rápido que el cemento y además mecánicamente disminuye la resistencia a la compresión, aunque dicha diferencia no tendría grandes repercusiones si la construcción no requiere de una gran resistencia a la compresión y por ende se podría utilizar en obras más simples como la de hogares pequeños.
Quintero Gandara Emmanuel, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.


DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.

Gómez Lizárraga Yesica, Universidad Politécnica del Mar y la Sierra. Quintero Gandara Emmanuel, Universidad Politécnica del Mar y la Sierra. Rios Beltran Arturo, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En la UPMyS se cuenta un espacio asignado como biblioteca en el cual durante el ciclo escolar 2017-2018, la institución contó con un total de 1,154 libros y para servicio de las Carreras de Ingeniería Agroindustrial, Ingeniería en Tecnologías de la Información y Licenciatura en Negocios Internacionales. En el ciclo 2018 - 2019 se abren 4 carreras adicionales (Licenciatura en Administración de empresa turísticas, Ingeniería en Producción animal, Ingeniería en Agrotecnología y la Licenciatura en Fisioterapia todo esto obligó a la UPMyS a hacerse de más acervo bibliográfico, así como de buscar apoyo para la construcción del edificio de biblioteca. Actualidad se está terminando el edificio de biblioteca de la UPMyS, que contara con equipo de cómputo, muebles, y estantes con un mayor número de acervo bibliográfico, por todo esto la biblioteca ya no podrá ser administrada por una sola persona, ni de la misma manera en la que ha estado llevando control de las existencias, prestamos de los libros, ya que estos se llevan a cabo mediante una libreta en la que la persona encargada hace las anotaciones correspondientes, este tipo de practica incurre en el descontrol, pues en ocasiones no sabe al momento a quien se le presto un ejemplar, así como el hecho de cuando  alumnos o profesores buscan un ejemplar en específico la búsqueda manual en los registros lleva demasiado tiempo, problema que se acrecentara al concluir dicha obra y aumentar el número de ejemplares. 



METODOLOGÍA

Para el desarrollo de este proyecto se utilizó la metodología de desarrollo de software de tipo Cascada, ya que es metodología sencilla de llevar acabo y se adapta bien a proyectos no mayores de a 6 meses. El proyecto fue dividido en etapas para su desarrollo puesto que así es como lo marca esta metodología de cascada, no es posible iniciar una etapa sin haber concluido en la que se esta trabajando. Se dividió el proyecto en dos fases; Fase 1: RED y Fase 2: Desarrollo de software, a su vez cada fase se dividio en 5 etapas; Análisis, Diseño, Desarrollo, Implementación y Prueba. Las Fases pueden trabajarse de forma simultanea mas el orden de las etapas en cada fase tiene que ser secuencial. Fase 1: Red. Análisis. En esta etapa sea analizo detalladamente la situación actual de la Red de comunicaciones de la UPMyS. Diseño. En esta esta se selecciono el tipo de tecnología que se utilizaría para llevar la conexión de red hasta el nuevo edificio, así como el diseño de la red y las VLANS necesarias. Desarrollo. Se llevaron acabo configuraciones de forma virtual para probar el desempeño y comportamiento de la red. Implementación. Se implementaron las tecnologías necesarias, así como los trabajos físicos y lógicos para el funcionamiento óptimo de la red. Pruebas. Una vez instaladas y configuradas las tecnologías se llevaron acabo unas series de pruebas dando así la finalización de la primera fase. Fase 2: Desarrollo de software. Análisis. En esta etapa sea analizo detalladamente los procesos de biblioteca  de la UPMyS. Diseño. En esta esta se seleccionó el tipo de tecnología que se utilizaría para desarrollar el nuevo software de biblioteca acorde a los procesos de este departamento. Desarrollo. Se plasma en código el diseño realizado en la etapa de diseño. Implementación. Se implemento el software de biblioteca. Pruebas. Una vez instalado el software y se pasa a esta etapa para cerciorarse que funciona de forma correcta.


CONCLUSIONES

En conclusión hemos analizado el diseño de cada parte del sistema bibliotecario de una forma metódica, donde cada integrante ha aclarado propios puntos de vista para un resultado final con el sistema, así como también cada función de ello para luego hacer pruebas identificando errores y funciones faltantes.
Quiroga Hernandez Celina, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango

DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.


DISEÑO DE CONTROLADOR PID PARA SEGUIDOR SOLAR.

Cabrera Armenta Amanalli Jetzemay, Instituto Tecnológico Superior de Huauchinango. Nava Hernández Juan José, Instituto Tecnológico Superior de Huauchinango. Quiroga Hernandez Celina, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

La creciente demanda de energía eléctrica ha provocado daños en el medio ambiente debido a que las centrales generadoras de electricidad tienen que incrementar su producción para poder cumplir con la demanda, pero este incremento en la producción puede desencadenar efectos nocivos en el ambiente; por tal motivo se han implementado diversas formas de energía para satisfacer las necesidades de las personas, pero sin generar efectos negativos. Aunque son una buena alternativa tienen un inconveniente ya que su nivel de eficiencia no es muy alto en algunos casos, esto lo podemos observar en los sistemas fotovoltaicos ya que los paneles solares fijos no aprovechan al cien por ciento la radiación que emite el sol debido a que solo están posicionados en un cierto ángulo. El Seguidor solar es un mecanismo diseñado para optimizar el funcionamiento de un panel solar fijo mediante la implementación de un sistema de control, específicamente un PID, que devuelva un movimiento vertical capaz de aprovechar las horas efectivas de luz solar en la zona que sea instalado.



METODOLOGÍA

Construcción del prototipo Inicialmente se realizará el soporte principal del prototipo constituido por una base horizontal y una base vertical colocada perpendicularmente. Para continuar con el montaje del prototipo se fijarán los dos sensores LDR, uno paralelo del otro en los extremos horizontales de la celda fotovoltaica, se fijó el servomotor en la base principal y se montó el panel solar en el servomotor. Ganancias del PID Para el control PID se realizaron pruebas con el método de ensayo y error para obtener las ganancias. El método se comenzó con un valor proporcional de Kp= 0.01 al sistema PID dejando Ki y Kd en 0, este valor se fue variando, teniendo en cuenta las acciones básicas de control, al elevar el valor hasta Kp= 0.1 se observó que el sistema oscilaba mucho por lo tanto se optó por ir reduciendo este valor hasta obtener el valor adecuado. Una vez obtenido un valor proporcional adecuado, se realizó lo mismo con los términos PI, PD y PID. Los valores finales de las ganancias obtenidas con este método son: Kp= 0.05, Kd=0.04 y Ki=0.01 Éste es el método de sintonía que puede resultar más lento y menos preciso, aunque el más intuitivo. Programación del controlador PID La plataforma de programación que se utilizará será Arduino versión 1.8.9. En el primer apartado se encontrarán las variables y constantes globales declaradas, se incluirán la librería para el servomotor y se definirá la posición inicial del mismo para que cuando las fotorresistencias dejen de mandar una señal a Arduino el servomotor vuelva a su posición inicial (0°), se declaran los pines de conexión para las fotoresistencias así como las variables que posteriormente almacenarán las lecturas que obtengamos de las fotorresistencias, y las variables para el ángulo de incidencia y la señal de salida. Enseguida se colocarán los valores de las ganancias kd, kp y ki, así como otros parámetros del PID. Inicializamos el servomotor en el pin 9 ya que este recibe una señal digital. Al iniciar el ciclo se obtiene lecturas de los valores de las fotoresistencias y estos se les asignan a las variables Left y Right. El cálculo del ángulo de incidencia es presentado por la siguiente fracción del código. Se calcula la diferencia entre el valor que la variable Left y el de Right. En la siguiente sección de código se realiza el control PID, para comenzar se les asignan valores a las variables de los intervalos de tiempo Posteriormente se le establecen valores a los errores de las ganancias realizando las operaciones necesarias. A continuación se multiplican los valores de las ganancias con su respectivo error, enseguida los resultados obtenidos se van sumando para obtener la acción PID.


CONCLUSIONES

Al terminar el dispositivo Seguidor Solar los resultados esperados fueron exitosos, pues se pudo obtener y realizar el objetivo planteado al inicio. La respuesta transitoria del sistema nos muestra las oscilaciones que se presentan antes de que se alcance el estado estable. La respuesta del sistema presenta ciertas características que nos ayudan a determinar la curva que nos muestra el comportamiento del sistema. El tiempo de retardo td nos especifica el tiempo que requiere el sistema para alcanzar la mitad de su valor final. El td es de 25ns; el tiempo de levantamiento tr nos especifica el tiempo que se requiere para que el sistema alcance el 90% de su valor final, este tiene un valor de 50ns de acuerdo a la gráfica; el tiempo pico tp nos indica el tiempo que necesita el sistema para alcanzar su valor pico del sobrepaso, el sistema requiere un tiempo de 90ns para alcanzar su valor pico máximo; el tiempo de asentamiento ts nos permite determinar el tiempo que demora el sistema en acercarse al estado de estabilidad al igual que al valor de referencia, el sistema tarda 210 ns en aproximarse a dicho estado; y el sobrepaso máximo Mp es el valor pico máximo que alcanza la respuesta expresado en porcentaje, en este caso el sistema presenta un 55% de sobrepaso máximo. El sistema sufre una perturbación, esta debida a que al momento de realizar las pruebas la fuente de luz se movió rápidamente en determinado momento, haciendo que el servomotor se moviera abruptamente; dicha perturbación hace la señal de control alcance su valor medio en 25ns y se acerque al valor de referencia de 4.5V en aproximadamente 50ns, pero sufre un sobrepaso de 2.5V que representa un 55% del valor de referencia, posteriormente experimento un sobrepaso nuevamente pero de un valor menor, acercándose a los 0.2V, para después entrar al estado de estabilidad después de 210ns transcurridos. Con las observaciones hechas al momento de analizar la respuesta del PID, se puede concluir que el sistema tiene una respuesta rápida aun cuando el movimiento de la fuente de luz sea realizado de forma abrupta y esto lo hace adecuado para implementar este control en sistemas con estas características.
Quiroz Cruz Erika Rubi, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo

MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.


MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.

Mendiola Luz Erica, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Avila Kevin Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Quiroz Cruz Erika Rubi, Instituto Tecnológico Superior de Ciudad Hidalgo. Romero Verdugo Steve, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La calidad es uno de los pilares fundamenntales para toda empresa ya que esta deja una gran marca en el mercado a competir.



METODOLOGÍA

Durante nuestra estancia de investigación científica, se llevó a cabo lo siguiente: Se nos hizo una capacitación al equipo de trabajo Nos presentarnos como equipo de trabajo ante la empresa Se realizó un diagnóstico de inicio en toda la empresa. Ya obtenido el diagnostico se prosiguió a realizar un FODA de la empresa. Seguido de una encuesta de satisfacción. Identificar los 7 desperdicios. Diseñar propuesta de mejora. Implementación de la propuesta de mejora Y como final  Presentar la información de los resultados  ante la empresa.


CONCLUSIONES

En el resumen anterior se muestra lo que se llevó a cabo en la estancia del programa delfín. A lo largo de la estadía hemos realizado un diagnóstico en base a la matriz F.O.D.A y los siete desperdicios, gracias a esto logramos conocer la situación en la que se encontraba la organización para posteriormente analizar los resultados obtenidos y establecer propuestas de herramientas Lean y mercadológicas, complementando con capacitaciones a todos los colaboradores para así ayudar a mejorar la calidad y productividad dentro de la empresa desde el departamento de calidad en el que fuimos residentes. El haber tenido la oportunidad de trabajar con compañeros de diferentes semestres, pertenecientes a la carrera de ingeniería industrial nos ayudó a conocer más herramientas de mejora continua, así como llevarlas a cabo en un ambiente laboral y no solo conocerlas de manera teórica.   Este verano científico nos deja una gran experiencia de aprendizaje al forjar nuestros conocimientos institucionales. Agradecemos el haber participado pues nos dio visión como futuros ingenieros.
Radillo Cruz Natalia, Instituto Tecnológico de Colima
Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes

OBTENCIóN DE LAS CONDICIONES IDEALES PARA LA REMOCIóN DE LOS PIGMENTOS BETALAíNICOS A PARTIR DE BIOMASAS DESHIDRATADAS DEL FRUTO DE OPUNTIA STREPTACANTHA (TUNA CARDONA).


OBTENCIóN DE LAS CONDICIONES IDEALES PARA LA REMOCIóN DE LOS PIGMENTOS BETALAíNICOS A PARTIR DE BIOMASAS DESHIDRATADAS DEL FRUTO DE OPUNTIA STREPTACANTHA (TUNA CARDONA).

Radillo Cruz Natalia, Instituto Tecnológico de Colima. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

Los productos comestibles con apariencia atractiva son más apetitosos, y esta apariencia siempre está relacionada principalmente con su color, por ello, los colorantes juegan un papel importante en el desarrollo e innovación de la ciencia alimentaria. Pero debido al reciente incremento  de problemas de salud, como reacciones alérgicas y carcinogenicidad, relacionados con el uso y exposición a colorantes artificiales presentes en los alimentos, se ha promovido el uso y desarrollo de pigmentos de origen natural que no posean un riesgo toxicológico, y por lo contrario, que puedan aportar al contenido nutrimental de productos alimenticios. Los pigmentos (colorantes) obtenidos de fuentes naturales como plantas, frutos, raíces, hojas, y algunos microorganismos no representan problema alguno que impida su uso en la industria alimentaria y son percibidos como inocuos para el medio ambiente pues al ser derivados de fuentes naturales pueden ser degradados con facilidad, incluso promover la salud de los organismos expuestos, ya que poseen propiedades antioxidantes y antiinflamatorias, por ejemplo. Las plantas, raíces, hojas, frutos, semillas, entre otros subproductos contienen bastantes actividades biológicas relacionadas no solo con la presencia de vitaminas, minerales o fibras sino también debido a la presencia diversos compuestos fitoquímicos y metabolitos secundarios como pigmentos (betalaínas, flavonoides y carotenoides) y compuestos fenólicos. Las tunas (Opuntia spp.), frutos de los cactus, son un cultivo frutal emergente que se comercializó durante la segunda mitad del siglo XX. Esta fruta es diversa y variable en diferentes partes del mundo, especialmente en México, en donde existen 84 de las más de 200 especies reconocidas del género Opuntia alrededor del mundo. Características de la cáscara, color y textura de la pulpa, contenido de azúcar y acidez del jugo son propias y directamente relacionadas a la presencia, intensidad y actividad de los componentes nutricionales y funcionales, incluidos los pigmentos betalaínicos que representan los biocomponentes de mayor presencia en dichos frutos. Actualmente, la comunidad científica se ha interesado en estos frutos debido al poder nutricional y los beneficios a la salud que aportan. Por ejemplo, mejoran la función plaquetaria, reducen los lípidos, triglicéridos y colesteroles totales en la sangre, entre otros. La actividad antiulcerogénica que poseen se ha comprobado, y varios de sus componentes antioxidantes se cree que mejoran la salud después de consumir la fruta. Cabe mencionar que las betacianinas quienes brindan una coloración roja-purpúrea a las tunas, y que pertenecen al grupo de las betalainas, han recibido mayor importancia para usarlas como sustitutos de colorantes artificiales en la industria alimentaria debido a que tienen un gran poder antioxidante y estabilidad en un rango de pH de 3-7. Así mismo, se ha demostrado que las betacianinas tienen propiedades protectoras contra enfermedades crónicas, como cáncer y estrés oxidativo. Durante el verano de investigación se encontrarán las condiciones fisicoquímicas (tiempo, temperatura, pH y relación masa-volumen) ideales para la despigmentación de la biomasa de frutos de la especie Opuntia streptacantha (tuna cardona), con el fin de aislar e identificar los pigmentos betacianínicos y evaluar su uso como colorantes en la industria alimentaria.



METODOLOGÍA

Las biomasas de los frutos de la especie Opuntia streptacantha fueron obtenidas por deshidratación en una incubadora a 50°C por 48 h para posteriormente ser pesadas y molidas a un tamaño de partícula de 850 μm. Se realizó un diseño de experimentos por el método de Taguchi mediante el software Minitab 19 para la obtención de los parámetros ideales de extracción del pigmento. Se evaluó el tiempo en un rango de 2.5-240 min, pH (6, 7 y 8), temperatura (30, 35 y 40°C) y relación masa-volumen (0.01, 0.02, 0.03) para la extracción del pigmento. Seguido a esto, se cuantificó la concentración de betacianinas colorimétricamente  usando un espectrofotómetro de la marca Hach DR 5000 a una longitud de onda de 535nm, y una celdilla de cuarzo de 1cm de largo. La cuantificación se obtuvo mediante el cálculo descrito por Yahia & Mondragon-Jacobo (2011): BC(mg/g) = [(A)(DF)(MW)(Vd)]/[(E)(L)(Wd)] Donde: A = Absorbancia                 DF = Factor de dilución                 MW = Peso molecular (550 g/mol)                 Vd = Volumen del solvente                  E= Coeficiente de extinción molar de betainas (60,000 L/(mol cm) en H2O)                 L = Largo de la celdilla (1 cm)                 Wd = Peso de la biomasa seca


CONCLUSIONES

A partir del diseño de experimentos tipo Taguchi se obtuvieron los parámetros ideales de extracción de los pigmentos betalaínicos, específicamente betacinaninas a partir de biomasas de frutos de la especie Opuntia streptacantha. Dichos parámetros fueron pH 6, temperatura 30°C y relación masa-volumen (0.01) obteniéndose una concentración estimada de extracción de 0.8275 mg/g de betacianinas. El análisis estadístico ANOVA realizado a cada uno de los parámetros evaluados arrojó que la temperatura juega un papel importante en la extracción del pigmento siendo la de 30°C mejor que 35 y 40°C (p < 0.05). Los factores de pH y relación masa-volumen evaluados no representan cambios estadísticamente significativos entre ellos. La obtención de pigmentos a partir de fuentes naturales representa un reto importante para el ámbito científico, ya que debido a sus propiedades termosensibles y fotosensibles se buscan nuevos métodos de extracción y estabilización de dichos pigmentos que mejore el rendimiento e incremente su vida de anaquel sin que estos se degraden. El presente estudio aporta un método de extracción optimizado para la obtención de pigmentos betalaínicos a partir de biomasas de frutos de la especie Opuntia streptacantha (tuna cardona) que son ampliamente consumidos por la población mexicana y que representan una potencial fuente de obtención de sus pigmentos a partir de las biomasas residuales, como las cascaras principalmente, para su posterior uso en la industria alimentaria. Sin embargo, se requieren estudios posteriores para la evaluación de su vida de anaquel al ser incorporados en un alimento. 
Ramirez Aguilar Hugo Jairo, Universidad Politécnica de Texcoco
Asesor: Dr. Juan de Dios Sánchez López, Universidad Autónoma de Baja California

ANáLISIS DE DATOS FISIOLóGICOS PARA SU TRANSMISIóN EN MEDIOS INALáMBRICOS


ANáLISIS DE DATOS FISIOLóGICOS PARA SU TRANSMISIóN EN MEDIOS INALáMBRICOS

Ramirez Aguilar Hugo Jairo, Universidad Politécnica de Texcoco. Asesor: Dr. Juan de Dios Sánchez López, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

En México, la epidemia ha tomado dimensiones considerables, tal y como se ha reportado en recientes estudios de salud pública. Donde para controlar este padecimiento, se ha demostrado que la monitorización de la glucosa proporciona la máxima información sobre el cambio los niveles de glucosa en sangre, también denominado como glicemia, facilitando la toma de decisiones sobre el tratamiento óptimo para el paciente diabético. Sin embargo, se ha encontrado que el mecanismo estandarizado del glucómetro digital, debido al dolor y la incomodidad asociada a este, no son utilizados con la frecuencia correcta en muchos casos, comprometiendo el seguimiento de la enfermedad.



METODOLOGÍA

Se implementan sensores de luz, los cuales emiten un haz de luz que incide en el medio físico y presenta variaciones de oscilación y frecuencia, las variaciones de la señal se analizan para interpretar las variables físicas presentes en el medio. Análisis y procesamiento de la señal adquirida La señal analógica adquirida por un sistema de medición analógico da como resultado una señal que presenta variaciones en tiempo y amplitud, lo cual genera picos que resultan difíciles de interpretar por otros dispositivos, por lo que se considera suavizar o filtrar dicha señal y poder eliminar los puntos defectuosos de la señal. Con ayuda del software Matlab es generada la función de interpolación de la señal, mediante el análisis matemático de la interpolación polinómica, se obtiene que esta función devuelve los valores interpolados de nuestra función en cuestión en puntos de consulta específicos mediante interpolación lineal. En la función existe un vector x que contiene los puntos de muestra y un vector v que contiene los valores correspondientes, v(x). El vector xq contiene las coordenadas de los puntos de consulta. Al tener varios conjuntos de datos muestreados en las mismas coordenadas de punto, el vector v pasa como una zona de almacenamiento (array). Cada columna del array v contiene un conjunto diferente de valores de muestra de la función. La obtención de los datos de la respuesta analógica son registrados en una tabla, de la cual se extrae la información, es generada una variable de salida para que Matlab  interprete con una instrucción de lectura, posteriormente son generados los vectores que contienen a los puntos muestra y contendrán los valores correspondientes para la interpolación. La variable del vector x debe ser del mismo tamaño que el de los datos analizados, para que pueda hacer referencia con los valores de las coordenadas de la función v. El análisis de interpolación lineal de Matlab calcula la distancia desconocida entre dos puntos (x1,y1) y (x2,y2), la union entre estos dos puntos genera un valor desconocido y generado por una occisa , por lo que se estima calcular el valor de y. De acuerdo con la función establecida, la interpolación lineal toma puntos específicos de la señal en cuestión, toma puntos en intervalos específicos para la interpolación lineal, lo que genera valores entre los puntos alejados uno del otro por el tamaño de datos analizados, seguido de este proceso una interpolación cuadrática Spline, devuelve el valor de los vectores interpolados correspondientes a los puntos de consulta de una variable establecida en intervalos espaciados considerablemente entre los puntos de la señal. La interpolación cuadrática Spline genera mejores resultados de la señal, ya que se relaciona con una señal sinusoidal más limpia, sin picos o líneas rectas entre los puntos. Dentro del análisis en una interfaz de un generador de funciones arbitrarias, los valores generados son interpretados en valores numéricos en una tabla de datos, la cual adquiere el valor de cada punto procesado por nuestra función. Modulación de la señal La operación mediante la cual ciertas características de una onda se modifican (portadora) en función de otra que contiene información (moduladora) para que pueda ser transmitida se denomina como una técnica empleada para modificar la señal y poder trasportar la información a través de una canal de comunicación y recuperar la señal en su forma original en el otro extremo. El concepto del sistema de modulación es basado en poder controlar la variación de los parámetros de la señal portadora como: amplitud, frecuencia o fase. El tipo de modulación implementado en el sistema de comunicación es la modulación digital PSK la cual consiste en un procedimiento de que la onda portadora en función de valores binarios 0 y 1. El bit 1 corresponde a la fase 0° y el bit 0 se representa con un Angulo que está asociado al dato para ser transmitido y representar dicho bit. Esta técnica se caracteriza porque la señal portadora representa cada símbolo de información de la señal moduladora. De acuerdo con las características físicas presentes en el ambiente, la transmisión de la información a través de un haz de luz se verá afectada por la temperatura y humedad del aire, de lo cual el factor crucial de operación se relaciona directamente con el suministro de corriente y voltaje en el diodo emisor. La longitud de onda se ve directamente afectada con la temperatura de operación del dispositivo controlador del diodo laser, esto es 0.25 nm/ °C, dicho controlador establece un control de temperatura para el óptimo funcionamiento de éste.


CONCLUSIONES

Durante la estancia del verano se logró realizar el procesamiento de datos resultantes de la medición de las variables con ayuda de la implementación de dispositivos de instrumentación para generar e interpretar los datos procesados  para su modulación y transmisión a través de dispositivos lógicos programables, sin embargo por ser un tema que implica una investigación más profunda en diferentes ramas de investigación, se llevó a cabo la investigación teórica del tratado de las variables adquiridas por los sistemas de medición.
Ramírez Camacho Brayan Alexis, Universidad de Sonora
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.


PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.

Mora Pérez Yoany Stephany, Universidad de Colima. Ramírez Camacho Brayan Alexis, Universidad de Sonora. Torres Quintero Mario Rafael, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La astronomía de Ondas Gravitacionales (OG) se logró consolidar gracias a la implementación de una red de observatorios interferométricos: dos por parte de LIGO (Laser Interferometer Gravitational-Wave Observatory, por sus siglas en inglés) situados en Livingston y Handford, Estados Unidos, además de Virgo, en Cascina, Italia; éstos están basados en el interferómetro de Michelson-Morley y son capaces de detectar cambios de longitud más pequeños que un átomo. El presente estudio examina la relación que existe entre la ubicación, la orientación, o los parámetros de construcción de un detector interferométrico, además de la posición sobre la bóveda celeste de la fuente emisora de OG con la señal que se proyecta en los registros.



METODOLOGÍA

Para el análisis de datos se utilizaron las librerías PyCBC y LAAL  del lenguaje de programación Python, con las cuales se estudió la influencia del Patrón de Antena (la dependencia entre la sensibilidad del detector y su posición con respecto a una fuente) en las señales de ondas gravitacionales proyectadas sobre los detectores. Las fuentes astronómicas que se tomaron como objetos de estudio fueron la colisión del sistema binario GW150914 y las explosiones de supernovas SN2017gax y 2015as. Los análisis se efectuaron sobre series de tiempo.


CONCLUSIONES

En este trabajo se determinó que la posición en el cielo de la fuente de las Ondas Gravitacionales, la ubicación del interferómetro y la construcción de éste son factores que determinan la intensidad de la señal obtenida en los detectores. Existen ubicaciones para las cuales la respuesta del detector será máxima y otras en las cuales no se detectará el paso de una Onda Gravitacional.  Se obtuvo también la dependencia del ángulo de polarización de la onda para los interferómetros, además del patrón de antena para cada uno de los detectores y para las tres fuentes.
Ramírez Gómez Juan Bernardo, Universidad Autónoma de Baja California
Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California

ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.


ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.

Leyva Amaya Brenda, Universidad de Sonora. Ramírez Gómez Juan Bernardo, Universidad Autónoma de Baja California. Torres Sandoval Diana Karina, Universidad Autónoma de Baja California. Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los satélites pequeños se clasifican en base a su peso y dimensiones como: minisatélite (100-500 kg), microsatélite (10-100 kg), nanosatélite (1-10 kg) y pico-satélite (0.1-1 kg); siendo estos últimos de importante desarrollo en instituciones educativas debido a que sus características de tamaño y peso hacen de ellos una opción más económica (Gutierrez, 2015). Actualmente la tendencia de construcción de los satélites pequeños se ha vuelto más atractivo debido a los menores costos y cortos tiempos de desarrollo y son comúnmente desarrollados en laboratorios universitarios (Choque, 2019). En el marco del verano de investigación científica se aborda esta temática con el fin de comprender el funcionamiento de un nano-satélite, con énfasis en la determinación de la orientación.



METODOLOGÍA

En este proyecto trabajamos con una tarjeta Beaglebone Black, la cual es una plataforma de desarrollo de bajo costo para desarrolladores y aficionados (BeagleBoard.org - black, s.f.). Para poder establecer la conexión entre la computadora y la Beaglebone Black, se conecta la Beaglebone Black a la computadora por medio de un cable USB tipo-A a USB tipo-B.  Posteriormente comprobamos si la conexión se ha realizado de forma exitosa accediendo al servidor web en la Beaglebone dando clic en el archivo htm llamado START que se encuentra en los archivos de la carpeta Getting Started.  El paso siguiente consisten en actualizar el sistema operativo, donde la imagen más reciente se descarga en la página oficial (BeagleBoard.org - latest-images, s.f.). Como la memoria flash de la Beaglebone Black es de 4Gb, se utiliza una microSD de 8Gb como unidad de arranque para tener el espacio suficiente para instalar lo requerido. La computadora Beaglebone Black puede ser controlada por medio de instrucciones a través de una  terminal de tipo linux. En Windows, se requiere de un programa especial que permita abrir un canal de comunicación SSH (o Secure Socket Shell) con un cable USB-microUSB (de laptop a Beaglebone Black). Para expandir la memoria de la computadora Beaglebone Black y efectuar actualizaciones, se necesita conexión a internet. Basta con conectar la computadora con un cable ethernet. Es importante cerciorarse que se cuenta con conectividad a internet para evitar problemas futuros.  La memoria total disponible está limitada por la capacidad interna de la computadora. Para hacer uso del espacio disponible en la memoria microSD, basta con introducir un comando de expansión de memoria en la terminal. Además, existen comandos que se utilizan para instalar todas las actualizaciones disponibles para el sistema operativo, estos se utilizan con el fin de un mejor desempeño de la computadora (Beagleboard:BeagleBoneBlack Debian - eLinux.org., s.f.).  Otra manera de interactuar con la computadora Beaglebone Black es por medio del ambiente gráfico incorporado. Para esto es necesario un programa de tipo VNC (Virtual Network Computer) y configurar la Beaglebone Black por medio de la terminal. Una vez que el programa está instalado, en la terminal (por medio de código) se instala el programa en la Beaglebone Black y se crea una contraseña. Posteriormente, se inicia el programa (en la beaglebone y en Windows). Ahora se puede interactuar con la Beaglebone Black de manera gráfica, e incluso se puede utilizar la terminal desde ahí.  El sensor utilizado para la determinación de la orientación es un Sparkfun Razor IMU con 9 grados de libertad. El primer paso en el manejo de este sensor es establecer la conexión del hardware con la microcomputadora BeagleBone Black. Una vez establecida esta conexión se procede a realizar escribir un código breve cuya función es la lectura de los datos crudos del sensor. Se optó por utilizar una herramienta desarrollada previamente en Python (McWhorter, 2015) . Este proceso sirve como confirmación de que se ha establecido la comunicación con el sensor correctamente y existe una correcta respuesta al movimiento.  A continuación, es importante reinterpretar esta información que se obtiene de manera que se pueda correr un programa que muestre los ángulos yaw, pitch y roll, también en tiempo real. Con el fin de implementar esto, fue necesario consultar las definiciones de dichos ángulos en base a los datos crudos que envía el sensor. El programa creado es una modificación del primer código utilizado para visualizar los datos crudos y permite visualizar en pantalla, en tiempo real, los ángulos yaw, pitch y roll del sensor con respuesta adecuada al movimiento. Este era el objetivo principal del proyecto por lo cual, a pesar de las dificultades técnicas experimentadas, se considera que se logró el objetivo.


CONCLUSIONES

Se adquirieron conocimientos sobre la configuración del hardware de la Beaglebone Black. Además, la estancia de investigación nos dió la oportunidad de trabajar con un sensor de medición inercial. Esta experiencia será de utilidad para aplicarla en actividades futuras. En la realización de este proyecto se pudo observar el valor del trabajo en equipo y la capacidad de encontrar recursos en línea para el desarrollo del mismo. Se considera que el objetivo propuesto se alcanzó, a pesar de las dificultades. Es importante mencionar que fue necesario ajustar el plan de trabajo para adaptarlo mejor a los recursos, tanto materiales como de tiempo, disponibles para su realización.  Referencias: Gutierrez Medina, A. (2015). Desarrollo de un entrenador experimental con dos ruedas de reacción para un CubeSat educativo (Tesis de maestría). Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California. Choque Yanarico, H. (2019). CubeSat Educativo. Universidad Católica Boliviana San Pablo. La Paz, Bolivia. McWhorter, Paul. (2015). Beaglebone Black GPS LESSON 1: Hooking Up the Adafruit Ultimate GPS | Technology Tutorials. Recuperado: 30/07/2019, de:  http://www.toptechboy.com/tutorial/beaglebone-black-gps-lesson-1-hooking-up-the-adafruit-ultimate-gps/ Beagleboard:BeagleBoneBlack Debian - eLinux.org. (s.f.). Recuperado: 30/07/2019, de: https://elinux.org/Beagleboard:BeagleBoneBlack_Debian  BeagleBoard.org - black. (s.f.). Recuperado:  30/07/2019, de: https://beagleboard.org/black BeagleBoard.org-latest-images. (s.f.). Recuperado: 29/07/2019, de: https://beagleboard.org/latest-images
Ramirez Herrera Onel, Instituto Tecnológico de Tepic
Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato

ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO


ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO

Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero. Gómez Briceño Marco Favio, Universidad de Guadalajara. Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero. Ramirez Herrera Onel, Instituto Tecnológico de Tepic. Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de toda la riqueza  arquitectónica de Guanajuato,  no existen investigaciones publicadas que expongan de forma detallada los sistemas constructivos empleados en sus edificaciones, por lo tanto, se desconocen ciertos elementos de su estructura y funcionamiento  que son necesarios para conservar su identidad cultural. Por lo cual, la presente investigación apoyará a identificar los elementos que forman parte de estos sistemas constructivos tradicionales y contemporáneos, entendiendo su transformación relacionada a los mismos, en cuanto a materiales, tamaño y ubicación de predios, características de las viviendas, valor histórico, así como la normatividad en contextos patrimoniales; por ello, es necesario hacer una serie de comparaciones en los procesos de construcción de las edificaciones y su diferente aplicación de los materiales que estos conllevan. Al mismo tiempo, se logrará adquirir conocimiento de la arquitectura local y nacional compartiéndolo con la sociedad propiciando a generar una cultura de apreciación, mantenimiento y cuidado de la misma. 



METODOLOGÍA

Se realizó una extensiva investigación documental por medio en tesis, enciclopedias, libros y revistas, así como páginas web, relacionadas con los antecedentes históricos de la ciudad de Guanajuato para entrar en contexto con la situación urbanística y arquitectónica de la zona, aspectos legales y de reglamentación constructiva así como todo lo relacionado arquitectónicamente con la vivienda tradicional y contemporánea, tomando en cuenta el entorno y contexto en el que se encuentran. Una vez en contexto, se comenzó a estructurar el marco teórico con el que se fundamenta la investigación Este se estructura de un referente histórico en el que se profundiza en el origen de la ciudad de Guanajuato, actividades y estilos de vida que se llevaban a cabo, situaciones y condiciones que sufrió la sociedad y el cómo se fue constituyendo urbanística y arquitectónicamente para conformar lo que hoy en día corresponde al centro histórico. Además un referente legal en el que se hace mención de las primeras leyes que se proclamaron con el fin de proteger este tipo de edificaciones así como las que actualmente se toman en cuenta promoviendo su cuidado y conservación. Otro de los referentes que conforman este marco teórico es el conceptual, aquí se definen los conceptos que rigen esta investigación como que es el patrimonio cultural, un centro histórico, como se define una vivienda tradicional y una contemporánea, estilos arquitectónicos así como elementos de construcción utilizados en cada uno de los procesos constructivos. Por ultimo un referente contextual en el que se describe las condiciones topográficas, climatológicas, arquitectónicas y sociales en las que se encuentran estas viviendas Una vez establecido el marco teórico se realizaron cuatro visitas de campo, estas a los inmuebles a analizar, las tres primeras visitas se realizaron al Hostal BARATHI (vivienda tradicional). La primera se hizo para solicitar permiso a los dueños y realizar un recorrido para conocer las inmediaciones e irnos familiarizando. En la segunda se hizo un levantamiento fotográfico, captando cada uno de los espacios que conformaban el Hostal, circulaciones y accesos, así como elementos arquitectónicos (escaleras, puertas y ventanas), aplicación de materiales y acabados. Y la tercera visita fue para realizar un levantamiento constructivo, con ayuda de un distanciómetro, cintas métricas y fluxómetro con el fin de elaborar planearía digital y un modelo virtual. La cuarta visita se hizo pero al fraccionamiento Real de la Mancha Residencial, para hacer un levantamiento fotográfico, de igual manera de todo las estructura arquitectónicamente hablando, fachadas, acabados. Los datos acerca de la cimentación, proceso constructivo y aplicación de materiales, etc... fueron proporcionados por parte de la empresa Una vez con todos los datos recabados se comenzó con el análisis de cada una de las viviendas y posteriormente con su comparación la cual se elaboró a manera de tabla para una mayor comprensión de las diferencias presentes entre ellas


CONCLUSIONES

De acuerdo a la investigación documental y de campo que se llevó a cabo, el análisis comparativo realizado en cada una de las viviendas, tanto tradicional como contemporánea; concluimos que la vivienda tanto a nivel espacial como constructivo, ha evolucionado en todos los aspectos a lo largo de la historia, esto como producto fundamental de los nuevos estilos de vida, cambios en la forma de relacionarse con el entorno  y sobre todo la adaptación por parte de la sociedad a los nuevos materiales, procesos constructivos y tecnológicos. Sin embargo, esta evolución se da de manera diferente en distintos lugares del mundo, debido principalmente a la topografía, tipos de suelos y condiciones del clima, además de los estilos de vida, valores sociales y religiosos, al igual que costos y tiempos de construcción, entre otros aspectos; los cuales han determinado tanto la forma y distribución de los espacios , acabados y el dimensionamiento de las viviendas, así como el uso de propuestas para la  conservación ambiental como de materiales industrializados, apegándose a los reglamentos, normas de construcción y la configuración general de las edificaciones. Esto se puede ver reflejado en todos y cada uno de los puntos anteriormente mencionados en los tipos de viviendas analizadas, desde cimentación hasta el último detalle en los acabados, debido a la utilización de materiales propios de la región y materiales ya industrializados por lo que sus procesos constructivos son diferentes.
Ramirez Lugo Arturo, Universidad Politécnica de Sinaloa
Asesor: Dr. Alejandro Lizárraga Lizárraga, Universidad Politécnica de Sinaloa

PROGRAMACION DE PERIFERICOS EXTERNOS PARA UN SISTEMA EMBEBIDO BASADO EN PIC32MM PARA APLICACIONES INDUSTRIALES


PROGRAMACION DE PERIFERICOS EXTERNOS PARA UN SISTEMA EMBEBIDO BASADO EN PIC32MM PARA APLICACIONES INDUSTRIALES

Lopez Espinoza Maria Fernanda, Universidad Politécnica de Sinaloa. Ramirez Lugo Arturo, Universidad Politécnica de Sinaloa. Asesor: Dr. Alejandro Lizárraga Lizárraga, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La investigacion surge de la necesidad de manejar perifericos internos o externos de un sistema embebido mediante un protocolo de comunicacion confiable y robusto. Los datos deben fluir entre dispositivos maestro/esclavo sin tener interferencias y funcionar en ambientes de ruido industrial.  El dispositivo maestro constara de un microcontrolador PIC de 32 bits y los perifericos seran un conversor analogo/digital (ADC) y un conversor digital/analogo (DAC).  El uso de estos perifericos sera con el fin de tratar la informacion del mundo real y procesarla para generar acciones adecuadas a las necesidades del sistema a controlar.



METODOLOGÍA

Para la realización de este trabajo se analizó las hojas de datos de los dispositivos periféricos y el microcontrolador utilizados en el sistema embebido ya prestablecido para conocer su funcionamiento interno, así como los registros que se requieren configurar para su correcto funcionamiento mediante el protocolo de comunicación SPI, el cual nos permite un flujo de transmisión continua entre los dispositivos periféricos y el microcontrolador. Con el conocimiento de los registros del DAC y ADS, y el manejo del SPI en el PIC de 32 bits, se genera un programa para el control de la transmisión de datos entre el ADS, el microcontrolador y el DAC para aplicaciones generales en la industrial.


CONCLUSIONES

Los resultados de la investigación nos proporcionaron los conocimientos  necesarios para la obtención y manipulación de la información entre distintos dispositivos por medio del protocolo SPI. El tratamiento de dicha información sera valioso para el manejo de datos y control de actuadores en ambientes industriales, así como también para aplicaciones que requieran menos robustez.
Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo

DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS


DESARROLLO DE CATáLOGO DE DETERIOROS DE PAVIMENTOS RíGIDOS

Arteaga Robles David, Instituto Tecnológico Superior de Apatzingán. German Martínez Carla Fabiola, Instituto Tecnológico de Sonora. Hernandez Tolentino Pedro, Universidad Autónoma de Guerrero. Lopez Rodriguez Miguel Angel, Instituto Politécnico Nacional. Metellus Dieu-velaine, Instituto Tecnológico de Zitácuaro. Ramirez Madrigal Endiz Ulises, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Rafael Soto Espitia, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Actualmente la Red carretera de México se ha modernizado en los últimos años y el uso de pavimentos rígidos se ha vuelto cada vez más común debido a su desempeño y bajo costo de mantenimiento. Una de las principales preocupaciones en la conservación de carreteras es el deterioro de los pavimentos, por lo que desde el punto de vista de durabilidad juega un papel importante su evaluación. En la actualidad existen catálogos de deterioros de pavimentos rígidos publicados a nivel mundial, entre otros se encuentran: Distress Identification Manual for the Long-Term Pavement Performance Program publicado por Federal Highway Administration en Junio 2003 y Catálogo de Deterioros de Pavimentos Rígidos de la colección de documentos volumen no.12 publicado por Consejo de Directores de Carreteras de Iberia e Iberoamérica en el año 2002, sin embargo son publicaciones que no han sido actualizadas y en México aún se carece de un catálogo de deterioros de pavimentos, tanto rígidos como flexibles. Por lo anterior, se propone la elaboración de un catálogo de deterioros de versión reciente, el cual contenga una lista ordenada de los deterioros comenzando por el nombre seguido de su clasificación, medición, su nivel de severidad, fotografías de referencia, descripción, posibles causas de su origen y propuestas de ingeniería para su solución.



METODOLOGÍA

En términos generales, la investigación se desarrolla bajo el método deductivo, teniendo en cuenta que la problemática se afronta desde una perspectiva general a lo específico. Durante el desarrollo del trabajo se implementaron técnicas de investigación las cuales sirven para recolectar, procesar y analizar información, las cuales fueron la documental y de campo. Realizándose una recopilación de información de diversas fuentes documentales como lo son: catálogos de deterioros de pavimentos rígidos existentes y artículos científicos. Dentro del trabajo en campo se destaca el levantamiento de deterioros realizado en la avenida Juárez, Morelia, Michoacán, tramo Camelinas-Solidaridad, así como el aforo vehicular que se llevó a cabo en dicha vialidad con el fin de conocer la composición vehicular y sus efectos en la estructura del pavimento.


CONCLUSIONES

La realización de un catálogo de deterioros servirá al novel Ingeniero Civil a mantenerse al tanto de las diferentes problemáticas que se pueden presentar a lo largo del tiempo en un pavimento, rígido. En este caso se decidió analizar la problemática del pavimento rígido ya que si se construye adecuadamente y se le proporciona el mantenimiento necesario llegara a cumplir con su vida útil, además que los costos de mantenimiento son menores en comparación con los generados en un pavimento flexible. Así mismo el catálogo nos ayuda a conocer en específico el tipo de deterioros presente en el pavimento y como se pueden solucionar.
Ramírez Martínez Janeth, Instituto Tecnológico de Pachuca
Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos

APLICACIóN DE HERRAMIENTAS DE MEJORA E INNOVACIóN EN EL DESARROLLO DE UN NUEVO PRODUCTO Y/O SERVICIO E IMPLEMENTACIóN Y DESARROLLO DE LOS SISTEMAS DE GESTIóN INTEGRAL Y AUDITORIAS.


APLICACIóN DE HERRAMIENTAS DE MEJORA E INNOVACIóN EN EL DESARROLLO DE UN NUEVO PRODUCTO Y/O SERVICIO E IMPLEMENTACIóN Y DESARROLLO DE LOS SISTEMAS DE GESTIóN INTEGRAL Y AUDITORIAS.

Ramírez Martínez Janeth, Instituto Tecnológico de Pachuca. Asesor: Mtro. Hector Espinosa Luna, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Problemática En un mercado como el actual, globalizado y competitivo, las empresas deben enfocarse en estrategias que aseguren la calidad del producto como del servicio que prestan a sus clientes; para ello es necesario trabajar en el interior de la empresa, desde los colaboradores que hacen que la filosofía organizacional de la empresa se cumpla con un sentido de pertenencia. Para lograr estos objetivos es fundamental proporcionar al trabajador las herramientas y el conocimiento necesario para el desempeño laboral, impulsar sus actitudes para realizar de manera adecuada su trabajo, y genera en él, motivación para trabajar rápido y eficazmente, al elevar sus competencias. Además, cuando el trabajador siente que sus supervisores  se preocupan por su crecimiento personal y profesional, ponen mayor empeño y compromiso para cumplir los objetivos de la empresa, de la cual se siente parte importante. Por lo antes expuesto, en este contexto, es que es preciso analizar las necesidades de los clientes y subdistribuidores con el propósito  de implementar una nueva forma de trabajo dentro y fuera de la empresa, donde los actores o protagonistas no sean únicamente los directivos de la empresa, sino todos los miembros de esta. Estableciendo como meta la mejorar continua. Objetivos de la investigación En la empresa Bermar S.A. DE C.V. se hallaron cinco necesidades esenciales para una mejora continua, los cuales son: Atención al cliente Promociones Rutas frecuentes Calidad de sellado Calidad de envase Enfocándonos en los puntos anteriores se podrá diseñar una estrategia la cuál proyecte mejores ventas. Justificación Hoy en día los consumidores son más exigentes, a la frase el cliente lo que pida… se le ha agregado cuando lo pida y en donde lo pida Se debe mejorar la atención que recibe el cliente, brindando un excelente servicio que no se dé en ningún otro lado. Guiado por un protocolo de ventas el cual nos indique la manera adecuada de atender al consumidor. Aumentar la publicidad es una estrategia efectiva, se puede hacer uso de propaganda como: promociones de venta, regalar artículos de merchandising, folletos, lonas (anuncios) y redes sociales. Implementación de liner en la tapa para un sellado hermético, evitando derrames del líquido. Manejar cuidadosamente el envase en el traslado de la empresa al cliente y viceversa. Atacando los puntos anteriores se logrará hacer más conocida la marca, así como persuadir a los consumidores de adquirir nuestro producto.



METODOLOGÍA

Elaboración de entrevistas dirigidas a los clientes directos y subdistribuidores, con la finalidad de conocer sus necesidades. Supervisar la ruta de los colaboradores obteniendo datos irrefutables  con respecto al servicio que ofrecen. Se implementó el diagnóstico de necesidades, según Reza es: obtener la información que permita conocer las carencias de conocimientos, habilidades, actitudes y aptitudes del personal de la organización, con el fin de diseñar y poner en operación programas y esfuerzos de aprendizaje tendientes a satisfacerlas.


CONCLUSIONES

Implementando las herramientas de mejora continua que se plantean en el presente trabajo, se espera que el personal de la empresa Bermar S.A. de C.V. tome conciencia sobre la importancia que tiene ofrecer un excelente servicio, logrando la satisfacción del cliente  y con ello incrementar las ventas, beneficiando a todos los integrantes de la empresa.
Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Ramirez Mejia Fernando Uriel, Instituto Politécnico Nacional
Asesor: M.C. Rodolfo Romero Herrera, Instituto Politécnico Nacional

PROCESAMIENTO DIGITAL DE VíDEO EN MOVIMIENTO DE PLANTAS.


PROCESAMIENTO DIGITAL DE VíDEO EN MOVIMIENTO DE PLANTAS.

Ramirez Mejia Fernando Uriel, Instituto Politécnico Nacional. Asesor: M.C. Rodolfo Romero Herrera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En este proyecto las plantas que utilizaremos serán la planta sensitiva mimosa científicamente conocida como Mimosa Púdica L., y la planta carnívora Venus Atrapamoscas cuyo nombre científico es Dionaea muscipula, buscamos por medio de la programación en lenguaje C en el programa Matlab poder monitorear el momento en el que nuestras plantas se movían y definir la casusa por la cual mostraban esos movimientos. La Mimosa púdica, o mimosa sensitiva, vergonzosa, dormilona, es una planta originaria de la Selva tropical de América y África tropical de la familia de las fabáceas, fácilmente distinguible por su reacción al tacto, desarrollada como defensa ante los depredadores. La razón por la cual se eligió esta planta es porque esta es una de las plantas capaces de movimientos rápidos y de esta manera es más fácil detectar cuando esta se mueve, otras son la planta del semáforo y la dionea atrapamoscas la cual más adelante la explicaremos. De igual manera otra planta con la cual trabajaremos es la única especie Dionaea muscipula, de nombre común dionea atrapamoscas o venus atrapamoscas, atrapa presas vivas principalmente insectos y arácnidos. Se escogió esta planta carnívora debido a su estructura de captura está formada por la porción terminal de cada hoja dividida en dos lóbulos que contiene tres diminutos pelos sensitivos sobre la superficie interna. Cuando la posible presa hace contacto con uno de estos pelos la trampa se activa, pero solo se cierra si el contacto se repite en cualquiera de ellos dentro de los siguientes veinte segundos.



METODOLOGÍA

Antes de empezar a programar y a trabajar con las plantas se realizó una búsqueda de 50 artículos de investigaciones anteriormente realizadas sobre la mimosa o sobre la Venus atrapamoscas para la elaboración del estado del arte, y para poder obtener una idea más clara del comportamiento que ya se había estudiado con dichas plantas, de esta manera también se notó que nadie había utilizado el procesamiento digital de video en estas plantas. Para poder realizar el procesamiento digital de video se utilizó lenguaje de programación en C en el programa Matlab, para poder introducir el video que deseemos procesar, de igual manera se realizó la programación necesaria para poder obtener cada frame del video que se introduzca debido a que matlab no es rápido al producir dichos frames sin embargo este programa se escogió debido a que trabajar en lenguaje C es más sencillo y el programa Matlab cuenta con una gran variedad de herramientas, y nos permite modificar la interfaz de nuestro programa ya sea en aspecto o en distribución para que nuestro programa sea eficiente y fácil de manejar. Por medio del Programa Matlab se utilizó la herramienta llamada Color Thresholder la cual nos permite realizar un proceso llamado Segmentación de color la cual utilizamos en RGB para solo trabajar con esas tres variantes de Rojo, Verde (Green) y Azul (Blue), las cuales por medio de Sliders podíamos variar que tanto se deseaba la presencia de esos colores. En nuestro caso para poder identificar en la mimosa el momento en el cual esta cerraba sus hojas, fue necesario poder segmentar el color verde de nuestras plantas o un color verde que fuera parecido al de las hojas de cualquier mimosa, de esta manera al segmentar el color verde y obtener las variables en RGB. Para poder colocarlas en el programa el cual se encarga de procesar el video que introduzcamos, generara cada frame y es capaz de por medio de las variables introducidas, aislar todo el color que no cumpla con las variables y de esta manera asilamos el color verde, para distinguir en qué momento se cierran la herramienta antes mencionada trabaja en binario, lo que significa que el color que deseamos captar o segmentar lo coloca en blanco y todos los colores que no sean el segmentado se coloca en color negro esto nos es de gran ayuda, ya que en el momento en que se procese el video de la mimosa la mayoría se verá en blanco pero al captar el momento en que cierre sus hojas en el programa se pondrá en color negro lo cual para nosotros significa que la mimosa cerro sus hojas en presencia de algún estimulo, sin embarga la mimosa al poseer bastantes hojas pueden quedar muestras de blanco al finalizar el procesamiento del video. De igual manera para poder monitorear y captar el momento en el cual la Venus atrapamoscas cierra su trampa se utilizó la misma herramienta llamada Color Thresholder la cual en este caso no se utilizaron las mismas variables que se obtuvieron al momento de segmentar el color verde para la Mimos a debido a que la ventaja que muestra la venus atrapamoscas es que dentro de las trampas que posee nuestra planta tiene un color rojo, el cual es el que se buscó segmentar para poder percibir el momento en el cual la trampa de la planta carnívora cerraba. Segmentar el color rojo fue un poco más complicado debido a que se buscó un tono el cual fuera bastante parecido al de vararías variantes de trampas de las plantas carnívoras, finalmente al obtener los valores para las variables y al introducir dichos valores, al introducir el video que deseábamos procesar se notó con mayor claridad el momento en el cual la trampa de la Venus atrapamoscas cerraba ya que al inicio del video se mostraba un fondo negro el cual es color que no pertenece a los parámetros para detectar el color rojo y en el centro del video se encontraba el color blanco lo cual significaba que la trampa de nuestra planta seguía abierta, después en el momento en el cual un insecto active la trampa el video detecta como la trampa va cerrando para que en el video se muestre completamente negro, de esta manera mostramos que la trampa de la planta carnívora ya cerro y no hay más presencia del color rojo en el video.


CONCLUSIONES

Durante la estancia de verano realizada con el profesor Rodolfo se obtuvieron resultados bastante favorables ya que se logró procesar videos y poder segmentar los colores necesarios para poder monitorear en tiempo real el movimiento de la mimosa y de la Venus atrapamoscas, de esta manera podemos concluir que la Venus atrapamoscas por medio de sensores que están presentes en sus trampas y se conoce como una de las plantas carnívoras mas rápidas, finalmente con la mimosa logramos captar el momento en el cual cerraba sus hojas ya que sus hojas sensitivas al momento de sentir un estímulo o detectar algún depredador esta cierra sus hojas para que sea mucho más difícil para el depredador comer sus hojas.
Ramírez Ocampo Jesús Emerith, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Juan Serrano Arellano, Instituto Tecnológico Superior Huichapan

INFORME TéCNICO DE LA ESTANCIA DE INVESTIGACIóN


INFORME TéCNICO DE LA ESTANCIA DE INVESTIGACIóN

Ramírez Ocampo Jesús Emerith, Tecnológico de Estudios Superiores de Valle de Bravo. Zarate López Miryam Joselyn, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Juan Serrano Arellano, Instituto Tecnológico Superior Huichapan



PLANTEAMIENTO DEL PROBLEMA

Durante el periodo de la estancia de investigación se pretende dar solución a problemas de ingeniería a través de herramientas computacionales como son los software OpenFoam, Energy plus y Open Studio, dichos programas permiten el estudio de dinámica de fluidos computacionales, bioclimática y la eficiencia energética de una construcción. Se analizaron diferentes casos de estudio uno de ellos basado en una construcción de dos pisos con garaje, se pretende realizar modificaciones a la vivienda con el fin de observar los resultados en la eficiencia energética, así como los datos sobre las temperaturas obtenidas con la simulación. Para el caso de estudio en OpenFoam se analiza los ficheros necesarios para realizar una simulación del movimiento de un fluido encerrado en una cavidad con una superficie deslizante.



METODOLOGÍA

Para el desarrollo de los problemas planteados se usaron dos metodologías cada una explicada a continuación. Una vez elegido el procedimiento de trabajo con SketchUp y Open Studio el proyecto se organiza en tres etapas según el programa que se ha utilizado en cada momento. Se comenzó con el software de diseño gráfico SketchUp con el que se construyeron todos los elementos geométricos. A continuación, se empleó el programa Open Studio con el que se añadieron las características de los objetos interiores al diseño ya construido, dejando el modelo preparado para ser simulado. Finalmente se recurrió al programa Energy Plus para que actuara como último corrector del modelo y motor de cálculo para obtener los resultados. La metodología utilizada para el software OpenFoam, fue la metodología para el análisis de sistemas, ya que se examinó la estructura de las carpetas y los archivos necesarios para generar una simulación en el software, entre estos archivos se establecen los valores de presión, velocidad, temperatura, viscosidad del fluido, estructura por la cual pasará el fluido, entre otros.


CONCLUSIONES

Finalmente, después de realizar las modificaciones correspondientes en los casos de estudio, se logro obtener variaciones en la temperatura en el interior de las construcciones. La instalación del software genero problemáticas pues el proceso de compatibilidad fue muy amplio, sin embargo, al dar solución a ellas permitió generar los resultados requeridos para las simulaciones. Como ya se ha mencionado, OpenFoam es un software de código abierto que estudia el comportamiento de los fluidos. Tiene múltiples aplicaciones para resolver problemas relacionados con la dinámica de fluidos, como reacciones químicas, turbulencias, transferencias de calor o electromagnetismos. Después de haber analizado los componentes básicos para la generación de una simulación, se realizó un manual detallando el nombre y ubicación de dichos ficheros para su futura implementación en la solución de diferentes problemas.
Ramírez Parada José Alejandro, Universidad de Sonora
Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional

FORMACIóN DE HIDRATOS DE METANO POR UN MéTODO A VOLUMEN CONSTANTE


FORMACIóN DE HIDRATOS DE METANO POR UN MéTODO A VOLUMEN CONSTANTE

Ramírez Parada José Alejandro, Universidad de Sonora. Sanchez Agustin Karinthia, Universidad Veracruzana. Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los hidratos de metano son sólidos cristalinos muy parecidos al hielo común, en los que moléculas de gas son encerradas dentro de una red sólida de agua sin que las moléculas de agua y gas formen un enlace químico. El que no exista un enlace propicia que las moléculas de gas se encuentren libres dentro de las jaulas de hidratos. Los hidratos son producidos por los puentes de hidrógeno formados por las moléculas de agua, que, debido a las moléculas de gas, se alinean en una sola orientación formando así los hidratos. Las moléculas de agua son llamadas anfitrión, mientras las moléculas de gas son llamadas huésped. Los sólidos cristalinos formados por los hidratos pueden tener distintas estructuras cristalinas, pueden formar redes de tipo I (sI), tipo II (sII) y tipo H (sH), todas con una disposición espacial de las moléculas de agua en particular. Las condiciones que favorecen la formación de hidratos son, altas presiones, bajas temperaturas, cantidad suficiente de agua, gas de bajo peso molecular y tiempo, si alguno de estos factores no está presente difícilmente se formarán los hidratos. La investigación de los hidratos de metano, tiene diferentes vértices, encontrar una forma de explotar este recurso no convencional reduciendo el impacto ambiental al máximo, ya que la explotación de este recurso representa un riesgo geológico,  así mismo el estudio sobre la formación de los hidratos para almacenar cantidades de CO2 y con ello mitigar el efecto invernadero. También existen estudios que se centran en la inhibición de la formación de hidratos, ya que en la industria del petroleo pueden llegar a ser problemáticos. Los hidratos de metano han llamado la atención de la comunidad científica debido a su alto poder de almacenamiento de metano, ya que 1 m³ puede llegar a contener 164 m³ de gas natural, considerando también que las reservas de los hidratos están distribuidas de una forma más uniforme en la tierra, y superan el volumen estimado del hidrocarburo convencional a nivel mundial. Durante este trabajo de investigación se busca la formación de hidratos de metano mediante la experimentación con un método a volumen constante a 10  MPa y variando la temperatura de formación.



METODOLOGÍA

El arreglo experimental está compuesto por los siguientes elementos: Celda de equilibrio marca Parr, fabricada de acero inoxidable con capacidad de 600 cm³ y capaz de soportar presiones hasta 20 MPa y temperaturas hasta 498 K. Baño recirculador térmico con control de temperatura, marca PolyScience modelo PD07R-20, que trabaja en un intervalo de temperatura de 243.15 a 473.15 K con una estabilidad de 0.005 K Manómetro digital Crystal XP2i, para lecturas de presión hasta 69 MPa. Sonda de platino con resistencia de platino de 100 Ohm/0°C. Tanque de metano 99.99% Indicador de temperatura ASL CTR2000, con rango de temperaturas de -200 °C a 962 °C. Ordenador con interfaz de procesador de datos Phyton y Gnuplot. Válvula para la alimentación a la celda para una presión máxima de 15000 psi. Válvula de paso, para una presión máxima de 103.4 MPa. La celda de equilibrio está formada por una celda ciega de equilibrio en donde se forman los hidratos, y de una brida, la cual cuenta con un termopozo donde se acopla el termómetro de platino, el manómetro, y la válvula por donde se introduce el gas. Para cerrar la celda se usa un sello de teflón entre la celda y la brida. Metodología experimental Se lavó la celda de equilibrio con metanol y se seca completamente para no tener ningún contaminante dentro de la celda. Se vació dentro de la celda 350 ml de agua desionizada. Luego se colocó la brida de la celda y se ajustó perfectamente los tornillos para asegurar la hermeticidad del experimento. Se instaló la celda dentro del recirculador térmico. Utilizando etilenglicol como refrigerante se vació dentro del recirculador hasta que se cubra completamente la celda. Se conectó el manómetro y el indicador de temperatura a la PC, se disminuyó la temperatura de la celda hasta 2.5 °C utilizando el recirculador. Se encendió la PC, para luego iniciar la interfaz del programa Python y Gnuplot que mostró los gráficos de la presión y temperatura en tiempo real dentro de la celda. Se conectó el tanque de metano para alimentar el reactor, y se introdujo gas metano hasta lograr una presión de 100 bar en el reactor. El sistema de recopilación de datos fue encendido y permaneció de esta manera hasta que la presión del sistema se estabilizó. Se esperó a que el sistema lograra una estabilidad en su presión debido a que esto significaría que se ha formado la cantidad máxima de hidratos posible.   El experimento realizado arrojó los gráficos P vs t, P vs T y T vs t. Este proceso fue realizado por triplicado para corroborar que los datos obtenidos corresponden a la realidad. Posteriormente, se realizó el mismo experimento cambiando la temperatura a 3°C. De igual manera, fue realizado por triplicado y se obtuvieron los gráficos correspondientes a la experimentación. A partir de los dos experimentos realizados, se compararon los 6 gráficos obtenidos para determinar a qué condiciones se mejora la formación de los hidratos y por lo tanto a qué temperatura es factible al almacenar gas dentro de hidratos.


CONCLUSIONES

Tras realizar los seis experimentos fue posible observar en los gráficos que la temperatura en todos los casos en un inicio disminuyó rápidamente para posteriormente aumentar de una manera mucho más lenta. Esto nos hace pensar que los hidratos fueron formados, ya que este proceso corresponde a un proceso exotérmico. En el caso de los gráficos de presión es posible observar desde un inicio una caída de la presión. Esto ocurre hasta que en un punto determinado esta deja de disminuir y se mantiene constante, por lo tanto, no continua la formación de hidratos. Sin embargo, es posible observar que la presión en los experimentos de 3°C disminuyó en una mayor cantidad que en los experimentos realizados a 2.5°C. Por lo cual, podemos determinar que es factible almacenar metano a partir de hidratos a 3°C, debido a que posee un mayor gasto.
Ramírez Peña Jorge Erasmo, Universidad Autónoma de Tamaulipas
Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro

CONSTRUCCIÓN RETROSPECTIVA DE PATRONES DE LLUVIAS POR EVENTOS EXTREMOS CASO: LLUVIAS ATÍPICAS DEL 28SEP AL 01OCT DE 2017, TAMPICO, TAMS.


CONSTRUCCIÓN RETROSPECTIVA DE PATRONES DE LLUVIAS POR EVENTOS EXTREMOS CASO: LLUVIAS ATÍPICAS DEL 28SEP AL 01OCT DE 2017, TAMPICO, TAMS.

Ramírez Peña Jorge Erasmo, Universidad Autónoma de Tamaulipas. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

En los días 30 de septiembre y el 1 de octubre del 2017 se reportaron tormentas puntuales fuertes en los estados de Coahuila, Nuevo León, Sinaloa, Durango, San Luis Potosí, Nayarit, Jalisco, Colima y Querétaro, tormentas intensas en regiones de puebla Oaxaca, Chiapas y Tabasco, y tormentas locales muy fuertes en Tamaulipas, Michoacán, Hidalgo, Guerrero, Campeche, Yucatán y Quintana Ro. Se pronosticaron lluvias dispersas en Sonora, así como rachas de vientos superiores a 70 kilómetros por hora (km/h) y oleaje de uno a dos metros en las costas. Las condiciones fueron generadas por la masa de aire que impulsa al frente frío número 3 localizado al norte de del Golfo de México, la Onda Tropical Número 36 ubicada al sur del país una zona de intensidad en el Golfo de Tehuantepec y un canal de baja presión extendido en el occidente del Territorio Nacional. Hoy en día las investigaciones acerca del estudio de los eventos torrenciales se hacen en términos de la forma y origen, esto queriendo decir que todo evento tiene una dependencia directa a evolución creciente de las masas nebulosas con ayuda de las EMMAS y las imágenes satelitales estos fenómenos han sido estudiados de manera muy amplia y especifica esto a ayudado a la modelación sin embargo los estudios se han basado específicamente en el estudio del suceso y pronóstico de tiempo intensidad. Los resultados de esta investigación se buscan además de la modelación de fenómeno en tiempo intensidad es dar un pronóstico del tiempo intensidad en la localización evolución del mismo evento estudiado.



METODOLOGÍA

La metodología empleada será un enfoque consiste en un método comparativo ya que es un proceso de búsqueda de similitudes y comparación sistemática en las series de datos tanto la obtenida en las EMAS como en la generada a través de estocástica, un método cuantitativo para exponer y encontrar el conocimiento ampliado de un caso mediante datos detallados y principios teóricos, mediante la recolección de datos. Las categorías para realizar en esta investigación son: 1.- Recolección de datos 2.- Análisis y evaluación de los datos 3.- Análisis e interpretación de los resultados


CONCLUSIONES

A manera de conclusión podemos analizar en la modelación de este evento podemos ver que en los momentos pico se alcanza una cercanía con los registros reales, pero esto se puede seguir mejorando con un mayor entrenamiento de la red neuronal y que el pronostico nos da una intensidad más baja pero que justamente tiene un comportamiento muy similar al registro calculado sin embargo esto se puede mejorar con un mejor entrenamiento de la red neuronal o tomar un diferente análisis de datos ya que estos son datos sesgados se podrían tener diferentes resultados de un análisis no sesgado.
Ramirez Ramirez Giselle, Universidad Autónoma de Sinaloa
Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas

ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES


ESTUDIOS TÉCNICOS PARA LA IMPLEMENTACIÓN DE CONCRETOS DE ALTAS PRESTACIONES

Gálvez Camargo Rubén, Consejo Sudcaliforniano de Ciencia y Tecnología. Gil Lemus Heriberto, Consejo Sudcaliforniano de Ciencia y Tecnología. Guluarte Camacho Michelle, Consejo Sudcaliforniano de Ciencia y Tecnología. Ramirez Ramirez Giselle, Universidad Autónoma de Sinaloa. Asesor: Dr. Alexander López González, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

  Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Ramírez Ramos Jocelyn Marie, Instituto Politécnico Nacional
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROPIEDADES MECáNICAS DE ACEROS AUTOMOTRICES


PROPIEDADES MECáNICAS DE ACEROS AUTOMOTRICES

Ramírez Ramos Jocelyn Marie, Instituto Politécnico Nacional. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

 La comunidad científica del área metalúrgica y la industria automotriz con el paso del tiempo han ido investigando y desarrollando aceros con mejores propiedades. De acuerdo con ellos se ha estado dando una transición de los aceros de primera generación a los de segunda generación o aceros avanzados de alta resistencia, los cuales son hoy en día una nueva alternativa para cumplir con las exigencias del mercado, ya que éstos poseen propiedades mecánicas que combinan en diferentes grados una alta resistencia con un elevada tenacidad, lo que permite reducir el peso de los vehículos, así como absorber mayor energía durante impactos por colisión, contribuyendo de esta forma a la disminución de uso de combustible y a una mayor seguridad para los pasajeros. La aplicación de estos aceros en los vehículos depende de dichas propiedades mecánicas, las cuales dependen a su vez de su microestructura y composición, motivo por el cual en este documento se presenta una revisión de las características de estos aceros y sus aplicaciones.



METODOLOGÍA

1.- Objetivos de la investigación Análisis de los modelos de endurecimiento por deformación en frío de aceros DP-290 y TWIP empleados en la industria automotriz. Determinación del coeficiente y exponente de endurecimiento (k y n). Uso del software Origin Pro como herramienta para el procesamiento de las curvas experimentales. 2.- Fuente de datos Para cumplir con el objetivo de la presente investigación, se utilizaron fuentes de datos primarios y secundarios. Primeramente, se escogieron probetas de acero DP-290 y TWIP, con medidas de acuerdo a la norma ASTM E8, se utilizó un calibre Vernier de precisión (+/- 0.05 mm) para corroborar las medidas del espesor y la zona de afectación de dichas probetas. Se realizaron los ensayos de tracción en la maquina universal, luego del proceso de deformación, se recolectaron los datos para un análisis posterior con ayuda del Software Origin Pro. Los datos obtenidos de esta revisión constituyen los datos primarios. Una vez realizada la revisión de los datos primarios, se procedió a realizar una búsqueda de investigaciones relacionadas a modelos de endurecimiento del DP y TWIP, para poder llegar a una conclusión objetiva de los datos primarios. 3.- Recolección de datos De la información obtenida de las pruebas de tracción, se utilizaron los datos referentes a la carga y extensión para poder calcular la deformación y esfuerzo ingenieril. Después, con ayuda del software Origin Pro se graficó dicha información y se obtuvo la curva esfuerzo-deformación ingenieril para los aceros DP-290 y TWIP. Cada curva fue ajustada a un polinomio de grado nueve para mejorar la dispersión de los datos, después con la herramienta del software llamada Data Reader se obtuvo el esfuerzo de fluencia, máximo y de ruptura. Con esta información, se procedió a sacar la resiliencia y tenacidad, para ésto, dentro del software se encuentra un apartado Gadgets y de ahí se seleccionó la opción integrate. El siguiente paso, fue graficar la curva esfuerzo-deformación verdadera y se realizaron los mismos pasos que en las ingenieriles. De las curvas esfuerzo-deformación verdaderas se extrajo la zona plástica y se graficó. La información referente a la zona plástica fue de vital importancia para poder aplicar los modelos de endurecimiento, los cuales fueron: Modelo Hollomon, Swift, Ludwick y Crussard Jaoul. En el caso del modelo de Hollomon, en el apartado Analysis del software, se seleccionó la opción Fitting seguido de Nonelinear Curve Fit, se buscó una ecuación que cumpliera la del modelo, la cual fue Allometric 1. Después de realizar el proceso, el software nos proporcionó los valores de k y n. Para el modelo de Ludwick, se realizó lo mismo, pero en este caso la ecuación que cumplía con los requerimientos fue Allometric 2. La obtención de los valores de k y n para los modelos Swift y Crussard Jaoul fue un poco más complicada porque en el modelo de Swift fue necesario introducir la ecuación al software y hacer iteraciones hasta lograr que se ajustara lo más posible a la curva, por otro lado, en el modelo de Crussard Jaoul se tuvo que calcular el logaritmo natural de la deformación verdadera de la zona plástica y el logaritmo de la primera derivada del esfuerzo verdadero de la zona plástica, para posteriormente graficar tales datos, con la herramienta Data selector se seleccionó las zonas curvadas y después en el apartado Analysis se seleccionó la opción Fitting seguido de Linear Fit, con la información proporcionada se despejó el valor de k; debido a que la gráfica tenía más de una zona curvada, en este caso se obtuvieron más de un valor para el coeficiente de endurecimiento. 4.- Análisis de datos Después de haber obtenido los datos, fue necesario analizarlos e interpretarlos, indicando si se cumplieron los objetivos de investigación.


CONCLUSIONES

Los aceros TWIP, poseen un mayor exponente de endurecimiento por deformación (n), en comparación con el acero DP-290, propiedad que le confiere mejores cualidades para usos donde se requiera alta absorción al impacto. Se obtuvieron valores de 0.45 a 0.57 y 0.29 respectivamente, lo cual se determinó mediante el análisis de las curvas esfuerzo deformación verdadera y de las propiedades mecánicas obtenidas de los ensayos de tensión. Se pueden obtener reducciones en el peso de las piezas estructurales utilizando aceros avanzados de alta resistencia debido a su alto esfuerzo máximo el cual permite remplazar materiales de menor resistencia, utilizando un espesor menor que con el que originalmente cuenta el material, igualándose así los esfuerzos entre los materiales. Esto lleva a una reducción en el peso de las partes estructurales del chasis de un automóvil, que a su vez genera reducciones en el consumo de combustibles fósiles, y por consiguiente menor emisión de CO2 por Km recorrido, lo cual representa un impacto benéfico para el medio ambiente.
Ramirez Vargas Carlos David, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.


ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.

Martínez Ortiz Fernando, Instituto Tecnológico de Acapulco. Ramirez Vargas Carlos David, Instituto Tecnológico Superior de Puruándiro. Valladares Salinas Gloria, Instituto Tecnológico de Acapulco. Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Encontrar el modelo de regresión más eficiente para un conjunto de datos, tomando como referencia el índice de error producido para esos datos.



METODOLOGÍA

Para desarrollar el modelo de regresión, se emplean técnicas de aprendizaje de máquina como árboles de decisión, bosques aleatorios, regresión lineal, redes neuronales, entre otras. Una vez alcanzada la comprensión conceptual de las técnicas a aplicar, se define un modelo de predicción usando cada una de estas, ajustando los parámetros de construcción, tanto como sea posible, para obtener los mejores resultados, y se compara la eficiencia de cada uno de ellos en función de los errores obtenidos (MAPE, MSE, MAD). Como siguiente técnica, se utiliza una herramienta gráfica de análisis de datos llamada Weka, la cual cuenta con distintos algoritmos para generar modelos de clasificación y regresión, generando modelos con las técnicas antes mencionadas. Finalmente, se tratan de replicar los modelos generados por la herramienta Weka en código python, ajustando los parámetros con el fin de obtener los resultados esperados.


CONCLUSIONES

Una vez que se han probado cada una de las técnicas antes mencionadas en el software Weka, se selecciona la técnica que arroje un menor porcentaje de error para determinado conjunto de datos; esa técnica es la que se empleará para el manejo y regresión de los datos.
Ramos Fierros Daniela Anahi, Universidad de Sonora
Asesor: Dr. Hisila del Carmen Santacruz Ortega, Universidad de Sonora

SÍNTESIS Y CARACTERIZACIÓN DE UN NUEVO LIGANTE FLUORESCENTE DERIVADO DEL EDTA Y SU EVALUACIÓN PARA RECONOCER METALES


SÍNTESIS Y CARACTERIZACIÓN DE UN NUEVO LIGANTE FLUORESCENTE DERIVADO DEL EDTA Y SU EVALUACIÓN PARA RECONOCER METALES

Ramos Fierros Daniela Anahi, Universidad de Sonora. Asesor: Dr. Hisila del Carmen Santacruz Ortega, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En el estado de Sonora, una de las principales explotaciones es la extracción de minerales. Sin embargo en estas empresas, el mal manejo de los residuos, han provocado accidentes con la consecuencia de verter residuos a ríos que se encuentran cerca de estas instituciones, lo que ha ocasionado un aumento de metales potencialmente tóxicos en los mantos acuíferos del estado. Debido a lo anterior la detección y cuantificación de metales continúa siendo una tarea importante en química analítica. Las moléculas que tienen la capacidad de unir selectiva y reversiblemente a un analito con un consecuente cambio en una o más de sus propiedades se les llama sensores. El en Departamento de Investigación en Polímeros y Materiales de la Universidad de Sonora están interesados en sintetizar moléculas que permitan detectar la presencia de metales en aguas por la técnica de fluorescencia, debido a que esta técnica permite cuantificar concentraciones hasta x10-9M en tiempo real.



METODOLOGÍA

SÍNTESIS  Se hizo reaccionar EDTA dianhídrido con Ácido 5-amino-2-naftalenosulfónico y DMF como disolvente; la reacción se dejó en agitación constante por 24 horas. PURIFICACIÓN Se utilizó el rotavapor para extraer el DMF, al sólido obtenido de la reacción se le realizo cromatografías en columna utilizando como fase móvil acetona se realizó RMN H1 para identificar la fracción en donde se encontraba el ligante se tuvo que realizar una segundo cromatografía en columna utilizando como fase móvil acetato de etilo/acetona relación (1:1) ya que la fracción que correspondía al ligante cuando se realizó la primer cromatografía no se encontraba puro, para identificar la fracción que correspondía al ligante se llevó a cabo RMN H1, ya que se obtuvo al ligante puro se llevó a secar al vacío por 3 horas. CARACTERIZACIÓN La caracterización del ligante se llevó a cabo mediante el punto de fusión y las técnicas espectroscópicas de RMN 1H (Resonancia Magnética Nuclear), IR (Infrarrojo), UV-Vis (Ultravioleta-Visible) y Fluorescencia. RMN 1H - Para llevar a cabo la medición, el ligante se disolvió en D2O. IR - El espectro de infrarrojo se obtuvo en pastilla de bromuro de potasio (KBr) UV-Vis - El ligante se disolvió en buffer Trizma pH=8.5 y se prepararon soluciones en un rango de concentraciones de 1x10-3 a 1x10-7M. Fluorescencia - El ligante se disolvió en agua desionizada   ESTUDIO DE RECONOCIMIENTO Para la evaluación del efecto de coordinación metálica en las propiedades de absorción y emisión del ligante en solución, se llevaron a cabo dos estudio el primero de UV-Vis y el segundo de Fluorescencia los cuales se realizaron de la siguiente manera: UV-Vis En una celda de cuarzo de 1mL se colocó 1mL de la solución del ligante a una concentración de 1x10-4 y se le adicionaron alícuotas de 5µL de la solución metal a evaluar (zinc, cobre, níquel, cobalto y hierro), se agito y posteriormente se tomó el espectro de absorción. Fluorescencia En una celda del fluorímetro se colocaron 3mL de la solución del ligante a una concentración de 1x10-6 y se le adicionaron alícuotas de 5µL de la solución metal a evaluar (zinc, cobre, níquel, cobalto y hierro), se agito y posteriormente se tomó el espectro de emisión.


CONCLUSIONES

De la reacción entre el EDTA dianhídrido con la amina se obtuvo el producto ácido 2,2'-(etano-1,2-diilbis((2-oxo-2-((7-sulfonaftalen-4-il)amino)etil)azanodiil))diacético (L). Se obtuvo un polvo color café claro, con solubilidad alta en solventes polares. El producto L presentó un p.f. de 220-222 °C. Presenta una banda de absorción a 287 nm con epsilon de 6115 M-1 cm-1. El espectro de RMN de 1H, indicó la obtención del producto y el espectro de IR también ya que presento las señales correspondientes a los grupos funcionales del ligante. Se sintetizo un nuevo ligante fluorescente derivado del EDTA y la amina ácido 5-amino-2-naftalenosulfónico, con buenas propiedades para coordinar los metales Zn, Cu, Co, Ni y Fe, ya que el los espectros de absorción se observó que el Zn, Co y Ni tuvieron un efecto hipocrómico y un desplazamiento batocrómico y el Cu y Fe tuvieron un efecto hipercrómico y se observó que hubo transferencia de carga. El ligante presento respuesta de incremento de la fluorescencia en 43% al interaccionar con Ni; con los metales Zn, Cu, Co y Fe también tuvo efecto pero fue mínimo.
Ramos Gómez Fernando Miguel, Universidad Autónoma Benito Juárez de Oaxaca
Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato

REALIZACIóN DE CóDIGO PARA NAO Y EPOC - EMOTIV.


REALIZACIóN DE CóDIGO PARA NAO Y EPOC - EMOTIV.

Jiménez Martínez Andrea, Universidad Autónoma Benito Juárez de Oaxaca. Ramos Gómez Fernando Miguel, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Dr. Horacio Rostro Gonzalez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la tecnología tiene un impacto muy importante en la sociedad ya que gracias a esto se pueden realizar tareas de forma más ágil y eficaz debido a esto existe una gran cantidad de empresas a nivel mundial que se dedican al desarrollo tecnológico, tales como Aldebaran que se dedica a la venta, así como a los servicios profesionales de robótica o Emotiv Inc., que es una empresa privada de bioinformática que desarrolla y fabrica productos de electroencefalografía (EEG) portátiles. Existen diferentes tipos de dispositivos creados por diversos fabricantes y muchas veces no tienen en común la misma sintaxis de programación ni las mismas librerías, el mayor problema en este proyecto es la interconectividad de dos dispositivos de diferentes fabricantes a través de software realizado en un lenguaje en común, los dispositivos que utilizamos son el NAO y la diadema EPOC - EMOTIV.



METODOLOGÍA

Empezamos leyendo la documentación del NAO para saber las partes que lo conforman, los métodos por los cuales podemos programarlo y los requerimientos para ello, en este caso decidimos utilizar Python como lenguaje de programación, al leer la documentación nos percatamos que solo es compatible con la versión 2.7 de Python, así que las librerías que utilizamos deben ser compatibles con esta versión, tales como: pynaoqi-2.1.4.13.win32 (utilizado en la conexión entre el NAO y Python) PIL-1.1.7.win32-py2.7 (utilizado en la toma de capturas con la cámara del NAO a través de Python) Utilizamos el software Choregraphe 2.1.4 para comprender el uso de los módulos en el funcionamiento del NAO, de esta forma desarrollamos un código con las funciones básicas que puede realizar el NAO a través del IDE (Entorno de Desarrollo Integrado) de Python IDLE. Después de comprender el funcionamiento del NAO continuamos con la documentación de la diadema EPOC - EMOTIV y así saber tanto el funcionamiento como los datos que se pueden obtener con este dispositivo, para esto utilizamos las funciones gratuitas del software Emotiv Xavier ControlPanel v3.3.3 que nos permite utilizar el giroscopio de la diadema por medio del mouse de la computadora para después crear código que obtiene las coordenadas del posicionamiento con IDLE de Python, también realizamos pruebas del funcionamiento con electrodos para la lectura de gestos faciales y enlazarlos al código antes realizado en el NAO, de esta forma mover el NAO a través de los gestos faciales, otras pruebas que llevamos a cabo fueron con un control GameSir G3s utilizando el software Xpadder 2016.05.01 para configurar las acciones por cada botón del control.


CONCLUSIONES

En el periodo de estancia se adquirieron conocimientos acerca de dispositivos programables de los que no tenemos acceso en nuestra escuela de origen los cuales no son fáciles de conseguir monetariamente, en este verano realizamos muchas investigaciones acerca de librerías y sus funcionamientos en el lenguaje de desarrollo Python para poder utilizarlas en ambos dispositivos, incluso se utilizaron algunos software de pruebas para verificar el correcto funcionamiento de los equipos pero no nos fueron de utilidad para el código realizado con la función de la interconectividad en el que se utilizaron las diferentes librerías, sin embargo al ser librerías extensas nos faltan detalles de instancia de listener en un método de movimiento que recupera las coordenadas de la diadema EPOC - EMOTIV.
Ramos Gradilla Priscilla Anahí, Universidad de Sonora
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Ramos Ixta Jazmín Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes

EVALUACIóN DE EFICIENCIA DE COCCIóN DEL PLATO DE BARRO, ADAPTADO CON RESISTENCIA ELéCTRICA.


EVALUACIóN DE EFICIENCIA DE COCCIóN DEL PLATO DE BARRO, ADAPTADO CON RESISTENCIA ELéCTRICA.

Madrigal Morales Jacqueline, Instituto Tecnológico Superior de Los Reyes. Ramos Ixta Jazmín Guadalupe, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

El siguiente trabajo tiene como objetivo divulgar distintas técnicas para el aprovechamiento humano y forestal sustentable que sean apropiadas para las condiciones de las zonas rurales y marginadas de nuestro país. Santamarta (2010) menciona que la grave crisis ambiental, el agotamiento de los recursos y los desequilibrios entre el Norte y el Sur, son factores que obligan a acometer una nueva política energética. A corto plazo la prioridad es incrementar la eficiencia energética, pero ésta tiene unos límites económicos y termodinámicos, por lo que a más largo plazo sólo el desarrollo de las energías renovables permitirá resolver los grandes retos del futuro. Villén Pérez Ma. Araceli (2010) menciona que las energías renovables son la única solución sostenible, y la energía nuclear, de fisión o fusión, sólo agravaría la situación y conduciría a un camino sin salida, de proliferación nuclear y generación de residuos radiactivos. La energía solar absorbida por la Tierra en un año es equivalente a 20 veces la energía almacenada en todas las reservas de combustibles fósiles en el mundo y diez mil veces superior al consumo actual. El sol es la única fuente de materia orgánica y de energía vital de la Tierra, y aunque a veces nos pasa desapercibido, ya hoy estamos utilizando masivamente la energía solar, en forma de alimentos, leña o energía hidroeléctrica. Los mismos combustibles fósiles, cuya quema está en el origen del deterioro ambiental, no son otra cosa que energía solar almacenada a lo largo de millones de años. En México la población usuaria de combustibles sólidos, particularmente leña, tiene un consumo diario promedio nacional de 1.7 kg per cápita, sin embargo, este promedio se modifica dependiendo de la región geográfica, del tipo de leña y estados de los bosques y de las practicas locales de cocinado y de uso del combustible, teniendo efectos que pueden ser de menor a mayor impacto en el ambiente y sociedad. El consumo de energía, incluyendo el transporte, es en la actualidad la principal fuente de emisiones de gases de efecto invernadero y de contaminantes acidificantes. Se caracterizará el diseño y así mismo se buscará un material adecuado para crear un comal ecológico. Se pretende recolectar la energía solar por medio de paneles solares, la energía obtenida se mantendrá por medio de un banco de baterías, para que sea utilizada en el momento que se requiera. Esto generará una disminución en el uso de la leña o biomasa vegetal racionalizando su uso.



METODOLOGÍA

. El diseño y las pruebas se realizarán en el Tecnológico superior de los Reyes en donde se obtendrán los resultados de los análisis de los datos recabados, para determinar si el dispositivo tiene viabilidad y podrá adaptarse a las necesidades básicas de las personas al momento de cocinar sus alimentos. El comal es de barro con una resistencia incrustada en la parte inferior distribuida en forma de espiral, para que el calor se propague de manera uniforme en el comal. En el comal ecológico se demostrará la eficiencia que se genera, comparada con el uso convencional de leña, para demostrar si podemos incrementar la temperatura o disminuye en el dispositivo, de manera que se le pueda dar un uso cotidiano. Se comparará el tiempo que dure en obtener la estufa ecológica la temperatura de 200ºC y observar el tiempo que puede durar estable para la cocción de los alimentos, si es el tiempo adecuado para calentar los alimentos.  La primer prueba se realizará con un recipiente de barro, al cual se le agregará un litro de agua, donde se obtendrán los datos del incremento de la temperatura para determinar si  es constante o genera cambios al igual que la corriente, en esta prueba estará un control de temperatura el cual será utilizado a su máxima potencia, las mediciones se realizaran cada cinco minutos hasta que se mantengan estables los incrementos de la temperatura del comal y del agua, donde se observará si llega a su punto de ebullición.   La segunda prueba se realizará con un recipiente de aluminio, al cual se le agregará un litro de agua, se obtendrán datos del incremento de la temperatura para determinar si es constante o genera cambios al igual que la corriente, en esta prueba estará un control de temperatura el cual será utilizado a su máxima potencia, las mediciones se realizaran cada cinco minutos hasta que se mantengan estables  los incrementos de la temperatura del comal y del agua, donde se observará si llega a su punto de ebullición. La tercera prueba se realizará con un recipiente de aluminio, al cual se le agregará un litro de agua, se obtendrán datos del tiempo que tarda en llegar a su máxima temperatura el comal y agua del recipiente, se tomara lectura cada cinco minutos hasta que se mantenga estable, así mismo verificar si genera cambios en la corriente que requiere el dispositivo, esta prueba será sin un control de temperatura, con el cual verificaremos si genera un incremento o se mantiene estable y si el agua puede llegar a su punto de ebullición.    


CONCLUSIONES

Los resultados que se obtuvieron durante todas las pruebas fueron buenos, así mismo se observo que de alguna manera se pueden mejorar haciendo más pruebas, para determinar que parte del dispositivo se puede modificar e incrementar su eficiencia. Se observa que el comal es eficiente de manera que se puede utilizar para calentar las tortillas como normalmente es utilizado en las comunidades. Se pueden generar algunos arreglos en las resistencias incrustadas en el comal con el objetivo de mejorar transmisión de calor, hasta llegar a tener una mayor propagación uniforme de calor que sea ideal para que el agua pueda llegar al punto de ebullición.
Ramos Monterrosas Juan Pablo, Universidad Veracruzana
Asesor: Dr. Alejandra Gómez Padilla, Universidad de Guadalajara

APLICACIONES SOBRE EL PROBLEMA DEL AGENTE VIAJERO, UNA REVISIóN DE LITERATURA.


APLICACIONES SOBRE EL PROBLEMA DEL AGENTE VIAJERO, UNA REVISIóN DE LITERATURA.

Ramos Monterrosas Juan Pablo, Universidad Veracruzana. Asesor: Dr. Alejandra Gómez Padilla, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Problema del Agente Viajero, TSP (por sus siglas en inglés) es uno de los problemas más comunes en la logística de reparto o de ruteo de vehículos, este método constituye de un solo vehículo, el cual debe visitar a todos los clientes asignados en una sola ruta y a un costo mínimo. No suele haber un depósito (y si lo hubiera, no se distinguiría de los clientes), no hay demanda asociada a los clientes y tampoco hay restricciones temporales. El TSP constituye la situación general y de partida para formular otros problemas combinatorios más complejos, aunque más prácticos, como el ruteo de vehículos y la programación de tareas dependientes del tiempo de alistamiento. La mayor parte de los problemas de ruteo de vehículos son generalizaciones del TSP. (Clarke y Wright, 1964) Se consideran diferentes factores que afectan el recorrido de la ruta antes de su inicio, lo cuales no son controlables. Por ejemplo, los tiempos de desplazamiento en grandes ciudades dependen, en gran parte, del estado del tráfico, el cual tiende a cambiar de manera estocástica; la presencia o ausencia de clientes puede ser representada mediante una distribución discreta de probabilidad. Este tipo de combinaciones de variación generan una mayor complejidad de modelamiento y solución. (González, 2018) Para resolver el TSP normalmente se utilizan algoritmos de aproximación o heurísticos, la diferencia radica en que éstos nos dan una garantía de cómo podemos obtener malas soluciones. (Daza y Montoya, 2009)



METODOLOGÍA

Primeramente, se definió el problema a investigar, el cual hay un especial interés en descubrir casos de estudio, aplicaciones, resoluciones, etc; del modelo del Problema de Agente Viajero (Traveling Salesman Problem, TSP). Dada la cantidad de literatura asociada a dicho problema, se buscó delimitar y abordar el TSP. Posteriormente, en bases de datos científicas (Scopus, Science Direct, Ebsco y Google Scholar), las cuales son parte de la Biblioteca Virtual de la Universidad De Guadalajara, se utilizaron, como palabras de búsqueda: Traveling Salesman Problem y Traveling Salesman Problem and technology. Una vez realizado lo anterior, se procedió a utilizar filtros dentro de las mismas bases de datos para poder depurar información, además se estableció una ventana de tiempo de los últimos diez años. Se identificó el concepto del TSP, sus clasificaciones, los métodos de solución empleados, las tecnologías implementadas, y finalmente se plasmaron las conclusiones.


CONCLUSIONES

Dentro de todos los métodos de solución e implementaciones tecnológicas que se ven es esta revisión, existe una pequeña cantidad que se ha pasado por alto, ya que no existe mucha atención y que puede ser de gran relevancia para la resolución del mismo en algunos casos. Aquí existe un campo para la propuesta de modelos con características diferentes que presentan un aporte profundo para la problemática. También se denota mucha presencia en la literatura con respecto a modelos heurísticos y tecnológicos con ventanas de tiempo o restricciones de duración y optimización de rutas. En cuanto a los métodos de solución, todavía existen diversos métodos utilizados en casos deterministas, que podrían ser utilizados en casos variados para comparar resultados de ejecución. El avance tecnológico permite plantear modelos con información más cercana a la realidad de los sistemas de distribución o recogida.
Ramos Peña Danae, Universidad Veracruzana
Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac

DISEÑO DE VEHÍCULO ELÉCTRICO LIGERO CON CAD-CAE Y ANÁLISIS DE USO DE SISTEMA DE ENERGÍA POR CELDAS DE COMBUSTIBLE


DISEÑO DE VEHÍCULO ELÉCTRICO LIGERO CON CAD-CAE Y ANÁLISIS DE USO DE SISTEMA DE ENERGÍA POR CELDAS DE COMBUSTIBLE

Ramos Peña Danae, Universidad Veracruzana. Romero Almeida David Benjamin, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Los automóviles eléctricos tienen la problemática de cargar la batería por varias horas antes de partir, aunque cuenten con sus sistemas de regeneración en los neumáticos, carga de energía por transferencia de calor en las balatas u otros sistemas que se han generado, esto aún es insuficiente para poder tener un automóvil autónomo, aunado al costo de fabricación para los automóviles eléctricos con mayor autonomía  se encuentra en un rango de 700,000.00 a 1,260,500.00 MXN. Siendo superiores a los automóviles que son impulsados por medio de una combustión.



METODOLOGÍA

Se realizaron una serie de investigaciones de motores, sistemas, vehículos para adaptarse a las necesidades del tipo de vehículo eléctrico alimentado a base de celdas de hidrogeno, la obtención de los recursos informáticos dieron énfasis a la elección de los diversos tipos de motores eléctricos entre los de baja potencia, en conjunto con la interacción de las celdas tipo Fuell Cell, con lo que dieron un panorama de base para sustentar la disminución que debía contar a comparación de los vehículos que ya se encontraban en existencia, con base a ello se crearon modelos en CAD, de los que se eligieron los mejores materiales para obtener mayor autonomía al aplicarse la resistencia necesaria para el material, cuidar la  estética, al igual que aquellos que dieran un mejor resultado al pasarlos a una simulación en CAE.


CONCLUSIONES

Con base a los estudios realizados en este proyecto, las comparaciones de los materiales actuales hicieron una reducción de costos inferiores al 50% de los comerciales de alta autonomía,  para este automóvil eléctrico impulsado con celdas de hidrogeno, por la demanda actual de este tipo de materiales que impulsaron a la reducción del peso de manera considerable. La implementación de las nuevas celdas de combustible, dieron una mayor eficacia en este modelo de vehículo, el diseño que fue creado a lo largo de esta investigación dio una mejora en la disminución del peso, con ello es que al ser más ligero, tendrá un mejor desplazamiento y rendimiento que ante otro tipo de vehículos no era muy significativo. El estudio por CFD realizado mostro que los modelos propuestos en el inicio del proyecto, contaban con deficiencia en ciertas partes, por lo que se realizaron las modificaciones necesarias y se realizaron de nuevo las simulaciones, dando como resultado una mejora considerable. El poder comprobar con CFD tus modelos propuestos, son una mejora para la ingeniería, te puede dar una perspectiva diferente y de igual manera te ayuda a mejorar tus resultados.  
Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío
Asesor: Dr. Miguel Agustín Ortega Carrillo, Universidad del Valle de Atemajac

IMPLEMENTACIóN EXITOSA DE SOLUCIONES TIC


IMPLEMENTACIóN EXITOSA DE SOLUCIONES TIC

Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío. Asesor: Dr. Miguel Agustín Ortega Carrillo, Universidad del Valle de Atemajac



PLANTEAMIENTO DEL PROBLEMA

El propósito que se buscó con este estudio es elaborar una guía para la aplicación de soluciones TIC a través de la identificación de buenas prácticas de la ingeniería de software y la administración de proyectos. Se realizó como una investigación documental, su diseño es descriptivo. La información se obtuvo por libros, documentos académicos y acercamiento con conocedores del tema. La ingeniería de software posibilita crear sistemas complicados de calidad satisfactoria y en el tiempo prudente (Pressman, 2010). Por medio de ella se aplica un enfoque sistemático, disciplinado y cuantificable para desarrollar, ejecutar y mantener el software. Se eligió este tema debido a su creciente relevancia en las organizaciones, pues apoya directamente a elevar o reducir el nivel de competitividad que presentan. Sin embargo, el proceso de software puede ser extremadamente complejo, pues no existe un único procedimiento que asegure que el resultado será correcto y que funcionará para cualquier organización, proyecto u objetivos. Al contrario, siempre será diferente, ya que cada una tiene necesidades particulares y existen diferentes formas de satisfacerlas. Se abordarán aspectos como: ciclo de vida del software, modelos, estimación, subcontratación, comprensión de requerimientos, diseño, pruebas, calendarización, mantenimiento, entre otras.



METODOLOGÍA

Objetivo central Elaborar una guía para la aplicación de soluciones TIC a través de la identificación de buenas prácticas de la ingeniería de software y la administración de proyectos. Objetivos específicos Conocer los factores de error que han provocado el fracaso en proyectos TIC. Conocer los factores principales de éxito al elaborar un sistema. Obtener de profesionistas, las mejores técnicas para la creación e implementación de soluciones TIC. Introducción a la subcontratación Identificar factores clave en la administración de proyectos en la ingeniería de software. Introducción a la satisfactoria estimación de tiempos y costos. Tipo de investigación Se comenzará con una investigación documental, diseño descriptivo, en la que se pueda obtener información relevante desde la experiencia de personas profesionales en el tema y sus recomendaciones. Después se analizará la documentación de aquellos programas que han sido reconocidos por fracasar, para extraer los puntos débiles que han presentado, con el objetivo de poder evitarlos.


CONCLUSIONES

Resultados obtenidos Entre las buenas prácticas encontradas, se ubican: Mantener una comunicación activa entre los programadores, responsables del desarrollo del proyecto, y los clientes, futuros usuarios. Establecimiento correcto de requerimientos, participación conjunta entre usuarios y desarrolladores, esclarecer objetivos y producto a recibir. Los administradores de proyecto deben informar a los clientes acerca de los avances de proyectos. Al cambiar el alcance, estos administradores deben apresurarse a describir lo que implica el cambio para que el cliente tome una decisión en respecto al tema. Todos los desarrolladores deben estar en la misma sintonía y compartir la información adecuada al cliente, este no debe recibir mensajes diferentes del mismo equipo. Los administradores de proyecto deben hablar con el cliente de una manera entendible, sin exceder tecnicismos hasta el punto de hacerlo incomprensible. El contrato que se realice para el proyecto debe describir condiciones de operación, establecer derechos de las partes y otorgar soluciones si no se cumplen obligaciones. La elección entre tipo de contrato: precio-fijo, en el cual se acuerda el precio desde el inicio o precio-pus, donde el precio se conoce hasta concluir. (Gray et al., 2009). El precio puede disminuir si se pone el contrato en un concurso de ofertas competitivas (Gray et al., 2009). Para los contratistas no siempre es conveniente un contrato fijo, porque en caso de no tener la correcta estimación, el proyecto está destinado al fracaso. Poner fechas de implementación realista, no tiempos apresurados Asignar supervisores calificados Evaluar al máximo 5 sistemas, pues de ser más no se podría involucrar lo suficiente en cada producto. Planificar un demo de las diferentes opciones ya existentes e involucrar a las personas que participarán en el sistema Tener los casos de uso del sistema perfeccionados a todas las situaciones de contingencia Prácticas para evitar según análisis de proyectos Evitar la ausencia de una unidad individual designada a hacerse cargo de todo el desarrollo del proyecto Falta de comunicación. Exagerar en la cantidad de contratistas externos o que estos no sean de la rama necesaria para el proyecto. Falta de aplicación de pruebas exhaustivas antes de instalar el software. No tener el respaldo apropiado de información. Aumento desmesurado de costo sin documentar y argumentar. No poner fechas realistas. Nula supervisión y participación del cliente. Designación de tareas a personas con carencia de conocimiento en la materia, lo ralentiza y permite que se abuse de costos. Falta de análisis y conocimiento de software existente.   Conclusiones Con toda la información encontrada, se puede visualizar que en el desarrollo de proyectos de software también se encuentra presente la ley de Pareto, el 80% de los sistemas fracasan por el 20% de las causas. El hecho de fracaso que más se repitió y que también presenta mayor complejidad es el análisis de los requerimientos de la empresa, el cual va ligado con la participación conjunta de ambas partes, el cliente y el desarrollador. Los resultados obtenidos fueron reconfortantes, el poder obtener tanta información de expertos en el tema y poder contar con numerosas fuentes hizo que fuera más enriquecedora y completa. Se logró el objetivo de crear una guía entendible y eficaz para la implementación de una innovación tecnológica en las empresas, útil para todos los involucrados en el proyecto y aumentando las posibilidades de éxito.
Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara

OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES


OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES

Hernández Ramírez María Goretti, Universidad de Guadalajara. Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan. Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan. Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango. Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las micro, pequeñas y medianas empresas en México se enfrentan a un proceso de cambio a la cuarta revolución industrial tecnológica, también conocida como Industria 4.0, considerándose un gran reto debido a la falta de conocimiento, aplicación y difusión del tema. En consecuencia, las empresas deben adoptar nuevos conceptos que engloban una gran variedad de tecnologías que digitalicen los procesos. La digitalización ocurre cada vez más rápido, por lo tanto las empresas cambian la forma de hacer negocios y modifican procesos, aquel que no reinventa o innova, es dejado atrás por los competidores y el mercado, considerándose éste el problema. Es por la rápida digitalización que la resolución a nuestra problemática se enfoca en elaborar un instrumento para estimar el grado de madurez tecnológica que tiene una empresa y así saber cuáles son las áreas de oportunidad en las que se pueden implementar nuevas técnicas que aumenten la eficiencia, mejoren la calidad e impulsen la innovación hacia la industria 4.0, además de usar diferentes herramientas correspondientes al Estudio de Métodos con el fin de conocer los procesos para establecer formas de hacerlo mejor.



METODOLOGÍA

La investigación fue la parte fundamental para llevar a cabo este proyecto, realizada en las primeras semanas del programa con el propósito de obtener fundamentos sobre diferentes teorías que serían aplicadas más adelante. A fin de comenzar con el tema de la investigación, se incursionó sobre las revoluciones industriales que anteceden a la cuarta, comprendiendo gracias a las causas de cada revolución que para poder avanzar hacia i4.0, las empresas deben contar con procesos eficientes en su producción, de manera que estos lleguen a producir más con menos. Para lograr lo anterior, utilizamos como apoyo diferentes herramientas de gestión comenzando por el análisis de planta a través de la construcción de un layout, diagramas de proceso, de flujo, de recorrido, de hilo, de relación de actividades y la aplicación de 5’s; además de investigar sobre distintos conceptos como función de la producción, la teoría de las restricciones, teoría de los recursos y las capacidades, la frontera de posibilidades de producción, gestión del conocimiento, entre otros más, con el fin de saber cómo sería la empresa modelo. Teniendo el conocimiento de las distintas teorías mencionadas, comenzamos a elaborar el diagnóstico, como se requería saber el nivel de digitalización y sus áreas de oportunidad, analizamos todos los aspectos posibles en los que se podía preguntar para que los resultados a los reactivos nos arrojaran información precisa y concreta donde existían posibilidades de mejora. Las dimensiones seleccionadas para la herramienta diagnóstico son: administrativo, capital humano, operativo, de control, estrategia y de tecnología y digitalización. El diagnóstico y las diversas metodologías utilizadas fueron las herramientas de trabajo ideales para la investigación con el objetivo de visualizar la trayectoria a seguir por cada empresa en la fusión de la tecnología física con el mundo digital, hablando a futuro, debido a que como primer paso se considera la mejora en la distribución de planta y en sus procesos con el propósito de elevar la productividad, conseguir una mayor producción y al mismo tiempo nos reflejó el estado actual de la empresa y sus áreas de oportunidad.  La digitalización es un gran paso para las empresas y con ayuda de este diagnóstico se espera que se obtengan los resultados que nos indiquen cuales son las carencias de la empresa, para que se pueda actuar y resolverlas, con el objetivo de se tenga una trayectoria a seguir hacia la digitalización, para ofrecer producto de mayor calidad, tener clientes satisfechos y que se siga innovando para estar al día con las tecnologías o necesidades de los clientes.


CONCLUSIONES

Durante la estancia de investigación logramos adquirir nuevos conocimientos respecto a Industria 4.0 y todo lo que conlleva cumplir con los estándares necesarios que ésta requiere para poder alcanzar la digitalización en MiPyMes. Dentro del proyecto se consiguió visitar una pequeña empresa local en la ciudad de Guadalajara, Jalisco, con el fin de analizar y poder aplicar los conocimientos que se obtuvieron en la metodología, aunque al momento sólo se pudieron aplicar las herramientas de Estudio de Métodos, se espera también aplicar el cuestionario. Con ayuda de las herramientas de Estudio de Métodos se analizó el proceso de una empresa dedicada a la producción de válvulas para inyectores diesel; dentro del proceso intervienen distintas máquinas para obtener el producto final; el layout nos brindó información sobre si la distribución de la planta es adecuada; los diagramas se hicieron con el objetivo de mostrarnos si el recorrido del producto desde la llegada al sistema como materia prima hasta la salida en producto terminado es el óptimo, en cuanto a distancias recorridas; se aplicaron 5’s de acuerdo a las condiciones en las que se encontraba la empresa y de acuerdo a lo que nos arrojó el estudio de sus procesos, se considera que no se tiene una buena organización y limpieza del área de trabajo. Obteniendo resultados del análisis previo, se utilizará el cuestionario para lograr analizar las oportunidades, debilidades, fortalezas y amenazas a las que están susceptibles la empresa y se espera generar un nuevo modelo industrial en el que la innovación sea colaborativa, los medios productivos estén conectados y sean completamente flexibles así como que las cadenas de suministro estén integradas. Una vez adquiriendo los resultados de las dimensiones y siendo éstas calificadas conforme a la escala Likert, se vaciaron las respuestas en un formato de Excel hecho sólo con el fin de evaluar cada dimensión y arrojando el nivel o porcentaje de avance que se tiene en la empresa respecto a esa área, para finalmente analizar o determinar cuál es la dimensión en la que más existe un área de oportunidad y avance, pero sobre todo enfocado hacia la i4.0.
Rangel Escobar Eliseo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo

ANáLISIS Y PROCESAMIENTO DE DATOS DE REGISTRO DE POZO Y PROPIEDADES PETROFíSICAS PARA LA PREDICCIóN DE ELECTROFACIES EN YACIMIENTOS ARENO-ARCILLOSOS USANDO LA HERRAMIENTA IMP-PREDICT


ANáLISIS Y PROCESAMIENTO DE DATOS DE REGISTRO DE POZO Y PROPIEDADES PETROFíSICAS PARA LA PREDICCIóN DE ELECTROFACIES EN YACIMIENTOS ARENO-ARCILLOSOS USANDO LA HERRAMIENTA IMP-PREDICT

Rangel Escobar Eliseo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

Durante mi estancia de verano científica en el Instituto Mexicano del Petróleo, cuya misión es generar conocimiento científico, desarrollar tecnología y promover la formación de recursos humanos especializados para apoyar a la industria petrolera nacional, actualmente me encuentro colaborando en actividades de un proyecto de investigación. En dicho proyecto, se está trabajando con una herramienta de software que permite la construcción de modelos de predicción, basado en Machine Learning o Aprendizaje Máquina, la cual define electrofacies. Las electrofacies son definidas como características generales de una unidad de roca que reflejan su origen y las diferencias de otras unidades adyacentes. Por ejemplo, tenemos una facies llamada Arena y la otra Arcilla. Hoy en día esta herramienta de software especializada cuenta con dos versiones. La primera permite analizar 4 facies, la segunda, permite analizar hasta más de 15 facies, haciendo que la herramienta trabaje en un entorno más real a la situación que se podría presentar en un pozo. El principal problema por resolver es la manipulación adecuada de diversos parámetros con el fin de obtener un modelo de predicción correcto que arroje un mínimo de error. Estos parámetros son los llamados C y Gamma, parámetros que juegan un papel fundamental a la hora de buscar un buen modelo de predicción. Al terminar el uso de la herramienta, esta permite la visualización de resultados de las predicciones, el porcentaje de error considerando y no considerando las facies adyacentes - es decir, las facies pueden tener adyacente una con otra, arena con arcilla, se clasificaría como areno-arcilloso - , la consulta de la bitácora de ejecución y el conjunto de imágenes donde se puede observar el perfilaje de pozo con las facies que se predijeron y con las reales.  



METODOLOGÍA

Se ha propuesto la siguiente metodología de trabajo, para el desarrollo de un caso de estudio con pozos reales, donde se hará la predicción de sus facies, así como entrenamientos de C y Gamma para poder llegar a un buen modelo de predicción. Verificación del funcionamiento de la herramienta Análisis del algoritmo de aprendizaje máquina Integración de un plan de trabajo donde se analice un caso de estudio Implementación de facies a analizar Detección de errores por medio de los resultados generados por la herramienta


CONCLUSIONES

A la fecha, cuento ya con un avance importante (etapa 4), en la que me encuentro realizando la discretización de facies, cuidando todos los aspectos del procesamiento de datos para la creación de las mismas. Ya he implementado 4 facies fundamentales y he realizado la ejecución de un conjunto de procesos de  entrenamientos donde los resultados son más que satisfactorios. Sin duda alguna a lo largo de mi estancia en el Programa Delfín he podido ayudarme de las herramientas y conocimientos obtenidos en mis años de Universidad y al mismo tiempo haciendo amigos de otros estados que me ayudarán a mi formación profesional.
Rangel Garcia Josue Arturo, Instituto Politécnico Nacional
Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo

BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.


BLANQUEAMIENTO DE CAOLÍN ELECTROQUIMICAMENTE Y RECICLADO DE ÁCIDO OXÁLICO.

Morales Martinez Dorhelly Jetzabell, Instituto Tecnológico de Matamoros. Peláez Carrasco Jesse Sallem, Benemérita Universidad Autónoma de Puebla. Rangel Garcia Josue Arturo, Instituto Politécnico Nacional. Asesor: Dr. Ariadna Trujillo Estrada, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Uno de los recursos naturales no renovables, como las minas de caolín empiezan a escasear y solamente van quedando minas de caolín contaminado con diferentes elementos como son: hierro, titanio, azufre, etc. Para esto es necesario darle tratamiento al caolín para poder utilizarlo efectivamente en cualquier industria. Esto representa un gran problema ya que con el podemos producir cosas como pintura, cerámica, papel hasta medicamentos es por esto que en  el presente trabajo se obtienen resultados para blanqueamiento electroquímico de caolín, se utiliza ácido oxálico y un sistema que armado principalmente con discos de latón que cumplen la función de cátodo placas de grafito que trabaja como el ánodo del sistema; para obligar a los iones de hierro (Fe) a salir y obtener caolín que pueda utilizarse industrialmente; además se considera un reciclado del ácido oxálico para retirar del mismo los iones Fe3+ y así hacer un reciclado continuo del sistema evitando contaminación y costos innecesarios.



METODOLOGÍA

Se empleó un prototipo el cual está conformado por placas de grafito (cátodo)   discos de latón (ánodo) y  aspas de plástico colocadas entre las placas y los discos para mantener en constante movimiento la solución; este sistema  está conectado a una fuente de CD a un potencial establecido, mientras los discos giran a una velocidad de 95 RPM. Dicho prototipo está sumergido en una solución con cantidades específicas de ácido oxálico, agua, dispersante y  caolín extraído de las minas del estado de Hidalgo. Primeramente, para comprobar que el método utilizado cumple con su objetivo, se realizaron dos prototipos uno en escala el cual después de realizar las pruebas correspondientes mostro resultados favorables, y el segundo prototipo tenia mayor capacidad en solución a nivel industrial por lo que este tenía que estar en constante agitación. La función del movimiento es tener una hidrodinámica en la solución y evitar el asentamiento del caolín. El equipo se probó por 4 horas en las cuales se pudo observar cambio en la corriente debido a la reducción de los iones de Fe+3 y un cambio en la coloración del caolín. Se obtuvieron muestras en intervalos de 30 minutos de la solución para posteriormente filtrarlos y, el oxalato obtenido fue analizado por medio de un análisis de absorción atómica. También se realizaron pruebas de conductividad a cada muestra y los resultados descendieron con lo cual sabemos que baja la concentración de  los sólidos. El oxalato presenta contaminantes como iones de hierro los cuales provocan que éste se sature, y en un aspecto industrial y económico se considera más viable poder recuperarlo para su reutilización. En el caso de los discos de latón se presentan contaminantes que se pueden observar a simple vista lo cual impide en un futuro uso, que tengan un desempeño favorable. Para esto, los discos pasan a ser pulidos hasta que recuperen su coloración y brillo original para eliminar los metales adsorbidos. El oxalato pasa a ser reciclado por dos métodos los cuales son el uso del reactor FM-01 y ser filtrado a través de carbón abierto. El reactor FM-01 se conectó a una bomba peristáltica (con variaciones en los rpm) y a una fuente de CD con un potencial establecido y fue sometido a prueba con la solución de oxalato obtenido del sistema, después de un lapso de tiempo se obtuvieron resultados favorables. Para el caso del carbón se realizaron diversas pruebas haciendo uso de carbón vegetal, el primero hecho a base de deshechos de cocina (cascaras de frutas, semillas, plantas) y el segundo era carbón comercial usualmente usado en actividades gastronómicas. Para la fabricación del carbón de desechos de cocina fue necesario comprimir la basura en una biela para  posteriormente probar diferentes tiempos y temperaturas de calentamiento que variaron desde los 650 0C hasta los 750 0C.  El carbón se sumergió en el oxalato. Gracias a sus estructuras que funcionan como un filtro se pudo observar una adsorción de hierro en el carbón y por ende un cambio en la coloración. En el caso de las pruebas con el carbón vegetal comercial los resultados no fueron tan satisfactorios como los anteriores debido a que no tenía la misma porosidad y estructura que se necesitan para poder realizar la absorción de los iones de Hierro.


CONCLUSIONES

Se lograron obtener blancuras de caolín desde un 80% hasta un 92% con el sistema electroquímico de latón y grafito, que son aceptables a nivel industrial. Con diferentes métodos usados para poder utilizar  el ácido oxálico nuevamente los cuales son: Reactor FM-01 Carbón abierto Se observaron mejores resultados al tratar el oxalato con carbón abierto, elaborado  de desechos orgánicos ya que retira, un gran porcentaje de los  iones de hierro que tenía el oxalato.
Rangel Zamora José Adrián, Universidad de Guadalajara
Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango

REDISEñO DE PROTOTIPO DE PRóTESIS ROBóTICA EN IMPRESIóN 3D.


REDISEñO DE PROTOTIPO DE PRóTESIS ROBóTICA EN IMPRESIóN 3D.

Rangel Zamora José Adrián, Universidad de Guadalajara. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

El avance científico y tecnológico en la época contemporánea ha permitido implementar distintas ramas del conocimiento para resolver problemáticas particulares mediante la integración de disciplinas pertenecientes y no pertenecientes al árbol de las ciencias exactas y tecnología. La integración de la ingeniería y las ciencias de la salud nos permite dentro del marco de esta investigación disponer de herramientas que faciliten el desarrollo de un prototipo prostético robótico articulado de miembro superior, basado en medidas antropométricas y variables ergonómicas que permita sustituir extremidades y articulaciones faltantes en pacientes, mismo que a la vez ofrece durabilidad. resistencia y comodidad al usuario. 



METODOLOGÍA

El prototipo se basó en mediciones obtenidas en un muestreo de un sector estudiantil que engloba diversos exponentes de factores poblacionales en México, muestreo realizado durante la estancia de investigación del programa delfín en el año 2017.  El diseño se elaboró en el software CAD SolidWorks para realizar de manera sencilla modelos mecánicos y estructuras tridimensionales, portables y compatibles con tecnología de impresión 3D, siendo esta la opción que ofrece un método de ensamble simple sin tornillería como peso añadido al sistema. La manufactura del prototipo se realizó con una impresora modelo Ender3Pro de filamento PLA, el cual satisface los parámetros de flexibilidad, resistencia y dureza necesarios para la utilización cotidiana en un ámbito funcional. La articulación y movilidad del prototipo se logra mediante la aplicación de servomotores colocados en el interior de la superficie equivalente a la eminencia tenar y la concavidad central de la palma, que mueven independientemente a cada dedo mediante sistemas de palancas que interconectan a las falanges y la base carpiana con la estructura del antebrazo. El modelo en conjunto está planeado para conjuntar características biomecánicas aplicadas al ámbito electrónico, mecatrónico y biomédico.


CONCLUSIONES

La investigación obtuvo como resultado un prototipo de características antropométricas adecuado para pacientes con extremidades de miembro superior faltantes, enfocándose este trabajo en mano y antebrazo. El prototipo posee características físicas y mecánicas adecuadas para el uso cotidiano de manera satisfactoria. El prototipo está pensado para posibles mejoras mecánicas posteriores dentro de su diseño, pudiéndose mejorar los sistemas actuadores e independizar el movimiento de falanges para movimientos más fluidos, a costa de un control más complejo. De la misma manera es necesario implementar mecanismos y sistemas electrónicos que permitan agilizar el movimiento del sistema, acercar dichos movimientos a parámetros biológicos y eliminar posibles artefactos que alteren el funcionamiento que se plantea al inicio de la investigación.
Rascón Meza Ana Sofia, Universidad de Sonora
Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya

BIOPELíCULAS A BASE DE QUITOSANO Y EXTRACTOS NATURALES, EMBEBIDAS EN COLáGENO, PARA APLICACIONES COSMéTICAS.


BIOPELíCULAS A BASE DE QUITOSANO Y EXTRACTOS NATURALES, EMBEBIDAS EN COLáGENO, PARA APLICACIONES COSMéTICAS.

Cruz Hernández Danna Kristell, Instituto Tecnológico de Tuxtla Gutiérrez. Rascón Meza Ana Sofia, Universidad de Sonora. Asesor: Dr. José Francisco Louvier Hernández, Instituto Tecnológico de Celaya



PLANTEAMIENTO DEL PROBLEMA

Nuestra piel es el órgano más grande que tenemos y el cual nos sirve como barrera ante todos los microorganismos bacterianos. Esta misma refleja nuestra saud. El envejecimiento es un fenómeno de causa natural por una gran variedad de factores como lo son el tiempo, el medio ambiente en el que vivimos, lo que consumimos, entre otros. Existen estudios donde se muestra que hay una diversidad enorme en tipos de piel y cada una reacciona diferente antes distintas situaciones.  La habilidad que se obtiene de formar biopelícuas a partir de quitosano han sido útiles para diferentes aplicaciones entre ellas están las áreas de cosméticos y dermatológicos que son en las cuales nos enfocaremos. En la actualidad un producto de caracter natural nos da un cierto nivel de confianza mucho más alto para poder utilizarlo en nuestra piel.



METODOLOGÍA

Extracción de Aloe Saponaria. Se extrajo gel de Aloe Saponaria, la hoja del aloe vera (25 cm) fue lavada con agua destilada para remover la suciedad de la superficie. La piel fue separada de la parénquima y los cortes fueron lavados extensivamente para remover exudados de la superficie. La masa de AL fue estabilizada a 65° C y posteriormente se mantuvo en refrigeración a 4° C antes de su utilización.  Extracción de Pepino. Se rebanó 143 g. del fruto, posteriormente se licuó en 40 ml de agua destilada, se filtró y estabilizó a 65° C para después enfriarlo a 4° C durante un día. Se agrega 1ml ácido ascórbico para la conservación del mismo. Preparación de soluciones. Posteriormente se preparó una solución de ácido acético al 1% y de Quitosano al 1%. El Quitosán se disolvió en la solución de Ácido Acético. Después se vertió grenetina al 7% (3.5 g) en una solución de 50 ml de agua destilada. Se calentó el agua previamente y se disolvió, se agitó hasta hacer una mezcla homogénea. Obtención de colágeno. Para la obtención del colágeno, se 150 g. de escamas frescas de pescado carpa común. Las escamas se lavaron extensivamente con agua destilada y se depositaron en 400 ml de agua destilada para su consecuente hervor a no más de 50°C, para no desnaturalizar la proteína. Siguiente a eso se licuaron las escamas, se colaron y filtraron. La sustancia final se puso a reposar a temperatura ambiente y consecuentemente enfrió a 18°C. Preparación de biopelículas. En la preparación de las biopelículas a base de Quitosano (CTS)-Aloe(AL)/Pepino se requirió 10 ml de CTS, 10 ml de GR, 3 ml de GL, 1.5 ml de extracto de Aloe/Pepino, 0.5 ml de Ácido Hialurónico y 1 ml de Ácido Ascórbico. Se mezclaron cuidadosamente tratando de no crear burbujas. Mezclados uniformemente se vertieron en cajas Petri para posteriormente colocarlos al horno a 37°C por un día completo. Las biopelículas totalmente secas y con aspecto elástico, se embebieron en 10 ml de Colágeno. Se caracterizaron las biopelículas por el método de Difracción de Rayos X, Permeabilidad de vapor de agua, FTIR y pruebas de resistencia a la tensión.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en biopolímeros y diversas técnicas instrumentales. Las biopelículas obtenidas durante este transcurso de tiempo están propuestas con un fin de otorgar calidad a las intervenciones cosméticas y dermatológicas. Se observó que al realizar la prueba de difracción de rayos x arrojó como resultado un material no ordenado, es decir, amorfo, sin picos definidos; y al añadirle Aloe Saponaria y Pepino no hubo alteraciones en las lecturas. Posteriormente en las pruebas FTIR pudimos identificar los diferentes grupos funcionales comparando con la biopelícula de Quitosano, y pudimos concluir que los extractos utilizados no alteran la estructura química del compuesto base. Por último en la prueba de tensión se compararon ambas biopelículas que contenían los extractos Aloe Saponaria y Pepino, comprobando que la biopelícula de AL fue más resistente que la de Pepino. Las biopelículas obtenidas fueron flexibles, manejables, con buena apariencia y aroma.
Rascón Zavala Andrés, Universidad de Sonora
Asesor: Dr. José Arturo Toscano Giles, Instituto Tecnológico de Querétaro

INTERMETALICOS


INTERMETALICOS

Rascón Zavala Andrés, Universidad de Sonora. Asesor: Dr. José Arturo Toscano Giles, Instituto Tecnológico de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Buscamos medir propiedades fisicas y quimicas de aleaciones intermetalicas: FeAl, Al6Mn y AlSi. partiendo de sus polvos metalicos de cada componente, luego sometidos al proceso de pulvimetalurgia y concluyendo con la metalografia para analizar los resultados a buscar  



METODOLOGÍA

Se empezo con la documentacion y recopilacion de datos para los procesos practicos, Se buscaron las proporciones intermetalicas con el apoyo de los diagramas de fases de las aleaciones utilzadas, creando la mezcla de polvos a sus debidas proporciones. Las nuevas mezlcas de polvos fueron sometidas al proceso de metalurgia de polvos, la cual consiste en compactar dicho polvo, conocidas como pastillas verdes, dichas pastillas pasan a la sinterizacion para consolidar la pieza. Una vez obtenida la pieza con su dureza natural, fueron cubiertas con una resina para facilitar su analisis microscopico, son moldeadas y respectivamente lijadas hasta lograr un acabado espejo entre la resina y la pastilla metalica. Una vez logrado fueron llevados al microscopio y al durometro para la recopilacion de resultados


CONCLUSIONES

Fueron 3 las aleaciones realizadas Fe-Al: se logro la correcta sinterizacion, permitineod su analisis microscopico sin dificultades al igual que su aporximidad en la dureza respecto a la literatura Al6-Mn: Por limitaciones de equipo no pudimos lograr su correcta sinterizacion, logramos la prepracacion de muestra y su escaso analisis metalografico, pero por parte del analisis de dureza no pudimos obtneer los reslutados deseados Al-Si: Se presento el mismo caso que la aleacion Al6-Mn, obteniendo error en la sinterizacion y dificultades en la toma de datos en la dureza
Rebollar Loyola Carlos Javier, Universidad Vizcaya de las Américas
Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)

DISEÑO DE UN PROTOTIPO DE VIVIENDA DE INTERÉS SOCIAL CON MATERIALES VERNÁCULOS EN LA CIUDAD DE MANIZALES


DISEÑO DE UN PROTOTIPO DE VIVIENDA DE INTERÉS SOCIAL CON MATERIALES VERNÁCULOS EN LA CIUDAD DE MANIZALES

Castro Carrillo María Mercedes, Universidad Autónoma de Sinaloa. Rebollar Loyola Carlos Javier, Universidad Vizcaya de las Américas. Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las viviendas de invasión  se encuentran ubicadas en zonas de alta vulnerabilidad y no utilizan una normatividad adecuada para la construcción de las mismas, un ejemplo claro en la ciudad de Manizales se localiza en el barrio Bajo Andes donde estas viviendas fueron construidas por los mismos habitantes al pasar de los años en terrenos privados o que hacen parte del estado, por tal motivo surge la idea de  diseñar una vivienda de interés social y prioritaria donde se aplique la norma técnica colombiana NSR-10 para la construcción sobre laderas.



METODOLOGÍA

Se realizará bajo un método mixto, éste consta de tres etapas las cuales se describen a continuación. Para dar continuidad con el proyecto se trabajarán tres puntos clave, en primer lugar se realizará un diagnóstico acerca de las viviendas de invasión en la ciudad de Manizales, de lo cual obtendremos los siguientes puntos: -Análisis de materialidad de las viviendas de invasión. -Búsqueda de información sobre viviendas vernáculas.  -Cuadro comparativo de materiales utilizados en viviendas de invasión y vernáculas. Posterior a esto la Consulta de la norma NSR-10 par de igual forma poder obtener los siguientes datos: -Exigencias de la norma técnica Colombiana para viviendas sobre laderas. Y como último paso se procederá a la realización del Diseño planimétrico de la vivienda y Modelado 3D de la vivienda.


CONCLUSIONES

Con el desarrollo de la investigación se logran realizar fichas de análisis formal y funcional de los componentes constructivos (estructurales y no estructurales) de las viviendas de invasión y vernáculas en la Ciudad de Maizales, estas fichas permitirán, según las encuestas realizadas a la población objeto, consolidar el diseño arquitectónico y civil que defina la espaciosidad y conformación de unidades de vivienda prioritaria y/o vivienda de interés social a bajo costo y con bajo impacto ambiental, pero un gran impacto social logrando determinar que la arquitectura social, pese a que generalmente es construida con bajo recurso, no limita de ninguna forma su calidad espacial, formal y funcional; permitiendo que poblaciones de estratos 1 y 2 apropien sus viviendas y fundamenten su convivencia y soporte laboral en el mismo cuidado y conservación de su hogar.
Rebollo Hernández Julieta, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

EVALUACIóN COMPARATIVA DE LA BIODEGRADACIóN DE PAñALES DESECHABLES Y DE TELA, SIMULANDO LAS CONDICIONES DE UN VERTEDERO.


EVALUACIóN COMPARATIVA DE LA BIODEGRADACIóN DE PAñALES DESECHABLES Y DE TELA, SIMULANDO LAS CONDICIONES DE UN VERTEDERO.

Marin Esquivel Lizbeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rebollo Hernández Julieta, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

El 80% de residuos sólidos generados en la Ciudad de México son producidos por los pañales desechables por ello se han desarrollado alternativas atractivas donde se implementa el uso de pañales ecológicos para una rápida biodegradación del material.  Por lo tanto, para que un material sea biodegradable es necesario la capacidad de experimentar una descomposición por metabolismo. Es decir, procesos que conlleven el uso de organismos vivos, principalmente hongos y bacterias en presencia de oxígeno (biodegradación aeróbica). Estos procesos metabólicos producen dióxido de carbono, agua, biomasa, y minerales. (Isabella, 1985). Por ello la finalidad del proyecto es generar la biodegradación del pañal con el hongo Pleurotus ostreatus, se busca que el pañal sea una fuente de carbono para el crecimiento y desarrollo de este, dándole un valor agregado en la producción de metano en una biodegradación anaerobia.



METODOLOGÍA

 Se eligió para la parte experimental la microfibra y el inserto de bambú ya que son los que ocupan mayor porcentaje del pañal puesto que son la parte absorbente de este. Ya que se eligieron las telas de estudio, estas se cortaron en pequeños cuadros de 2x2 cm aprox. Se utilizaron 5 tiempos cada uno con su triplicado con ello un total de 15 muestras más el triplicado del blanco por cada muestra dando un total de 18 muestras por tipo de tela. Se preparó el medio de cultivo liquido Sivakumar. Una vez pasados los 12 días de cultivo del hongo, el medio nutritivo se filtró con membranas de fibra de vidrio con 2 µm de tamaño de poro. Para así comenzar con la determinación de actividades enzimáticas las cuales son Manganeso peroxidasa (MnP) y lacasa, Demanda Química Oxígeno (DQO) para conocer la cantidad de materia orgánica que se oxida, azúcares reductores, con el fin de conocer la concentración de glucosa para el desarrollo de  una prueba de potencial metanogénico.  


CONCLUSIONES

Se concluye que el único materia biodegradable del pañal ecológico con el hongo Pleourotus oestratus, es el inserto de bambú el cual funciona como fuente de carbono para el crecimiento y desarrollo del mismo de acuerdo a las determianciones  de Manganeso peroxidasa, lacasa, azucares reductores y Demanda Química de Oxigeno. Asi mismo se determina que la regulación del pH inicial del medio es muy importante no sólo por el factor por sí mismo sino por posibles interacciones con otros compuestos.
Regla Corona Diana Nefertiti, Universidad de Guadalajara
Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)

CUANTIFICACIóN DE POLIFENOLES Y ACTIVIDAD ANTIOXIDANTE POR ESPECTROFOTOMETRíA UV-VISIBLE EN EL CHILE HABANERO (C. CHINENSE JACQ.)


CUANTIFICACIóN DE POLIFENOLES Y ACTIVIDAD ANTIOXIDANTE POR ESPECTROFOTOMETRíA UV-VISIBLE EN EL CHILE HABANERO (C. CHINENSE JACQ.)

Regla Corona Diana Nefertiti, Universidad de Guadalajara. Asesor: Dr. Manuel Octavio Ramírez Sucre, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En Yucatán el chile C. chinense es comúnmente llamado habanero. Este chile se encuentra distribuido en toda la península, donde se observan diferentes formas, colores y tamaños del fruto. Como cultivo, tiene gran importancia económica para los productores de hortalizas en el estado de Yucatán: ocupa el segundo lugar, después del cultivo del tomate, en cuanto a superficie cultivada. La mayor superficie de cultivo se encuentra en la parte norte del estado, y contribuye con más de 90 por ciento del volumen de la producción estatal, la cual se comercializa y se consume en fresco, principalmente. El conocimiento de los requerimientos agroclimáticos para cultivar el chile habanero permitirá ubicarlo en los sitios más adecuados para su desarrollo y productividad en la región. Los factores edafológicos y climáticos que limitan la adaptación, desarrollo y producción del chile habanero en Yucatán son tipo de suelo, clima, plagas que lo afecten, entre otros. En el estado de Yucatán existen dos diferentes suelos donde se cultiva el chile habanero lo cual origina una gran variabilidad en la producción y rendimiento del fruto; en base a eso se realizó este trabajo para evaluar  el desarrollo del fruto en dos diferentes tipos de suelos (negro y rojo), maduración (verde, verde - naranja, naranja) y tipo de secado (horno, leofilizado). Durante la estancia Verano de Investigación se realizó la cuantificación de polifenoles y actividad antioxidante por espectrofotometría UV-Visible en el chile habanero (C. chinense Jacq.)



METODOLOGÍA

Se cosechó el cultivo cinco en suelos negro y rojo, que se dividió en cinco cosechas de las cuales los chiles recolectados se pesaron, contaron, midió color y humedad para posteriormente secar por dos métodos, horno y liofilización, una vez secos se pulverizaron y se procedió a realizar la extracción para la determinación de polifenoles y actividad antioxidante. La metodología empleada fue de tipo  cuantitativa, para ello se utilizó  un Espectrofotómetro UV visible marca TERMO FISHER, tanto para polifenoles como para actividad antioxidante. La cuantificación de polifenoles se llevó a cabo por el método de Folin Ciocalteu, la de actividad antioxidante  por inhibición del radical de DDPH. Para determinar si existieron diferencias significativas en la concentración de los mismos debido a los diferentes suelos empleados para el cultivo así como debido a la maduración y el tipo de secado, se realizaron  análisis estadísticos de Varianza de dos vías  empleando el programa Statgrafics Centurion XV.1


CONCLUSIONES

Se realizaron análisis del cultivo cinco, del cual se obtuvieron cinco cosechas más unas muestras realizadas con tratamiento químico y tratamiento orgánico. También se obtuvieron muestras para la determinación de la vida de anaquel el fruto. En los análisis para el cultivo se diagnosticó en la cosecha uno que tanto para tierra negra como para tierra roja la concentración de polifenoles totales en las muestras eran mayores utilizando el horno como tipo de secado. Para la cosecha dos siendo la más completa se determinó que en tierra roja existía mayor concentración con madurez verde; cambiando en la madurez verde, ya que en esta su mayor concentración existía en la tierra negra y obteniendo la misma tendencia para la madurez naranja. Para la cosecha tres se determinaron que en tierra negra la mayor concentración se asentaba en la maduración naranja, al contrario de la tierra roja, ya que en esta la mayor concentración se obtuvo en la maduración verde-naranja. Para la cosecha cuatro la concentración fue mayor en tierra roja. De igual manera para los tratamientos su concentración fue mayor en tierra roja. Para la vida de anaquel se pudo decir que para ambas tierras se obtuvo mayor concentración en el estado de madurez verde. Para actividad antioxidante, la cosecha uno indico que para los tres tipos de maduración la tierra negra genero mayor porcentaje. En la cosecha dos para tierra negra se obtuvo mayor porcentaje primeramente con maduración naranja, siguiendo la verde-naranja y finalmente verde; siendo de la misma manera para la tierra roja. Para la cosecha tres se obtuvo mayor porcentaje para ambos tipos de tierra en la madurez verde-naranja. Para la cosecha cuatro y vida de anaquel se determinó el mayor porcentaje en la tierra roja; siendo lo contrario en la cosecha cinco y en los tratamientos químicos y organicos.
Regla Felix José Eliseo Bernabet, Universidad de Guanajuato
Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato

ANáLISIS DE LA PROFUNDIDAD DE LESIONES CUTáNEAS CANCERíGENAS


ANáLISIS DE LA PROFUNDIDAD DE LESIONES CUTáNEAS CANCERíGENAS

Regla Felix José Eliseo Bernabet, Universidad de Guanajuato. Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el cáncer de piel es un mal que aqueja a nuestra sociedad, siendo uno de los tipos de cáncer más común. Entre los tipos de cáncer de piel se encuentran los melanomas, lesiones cutáneas debido a una falla genética en los melanocitos, células especializadas que dan pigmentación a la piel. Es causante de la gran mayoría de las muertes relacionadas con este tipo de cáncer debido a su agresividad. Una oportuna detección permitiría la reducción de la tasa de mortalidad relacionada con el melanoma. Actualmente se cuenta con diversos métodos de detección tanto invasivos y no invasivos. Entre los métodos no invasivos se encuentra la cámara térmica infrarroja la cual aprovecha la diferencia de comportamiento térmico entre el tejido sano y maligno, dando lugar a una pronta detección mediante secuencias de enfriamiento en la piel del paciente. En el presente trabajo se propone mediante modelos numéricos aprovechar de una mejor manera la cámara térmica infrarroja al variar geometrías y dimensiones de lesiones cutáneas, teniendo como finalidad determinar la influencia de estas en la respuesta obtenida en la cámara térmica infrarroja, y así, poder determinar dimensión y profundidad del tumor de manera aproximada.



METODOLOGÍA

La geometría utilizada se obtuvo del estado del arte como parámetros iniciales a comparación donde obtienen una gráfica de temperatura en tejido sano y con lesión, y nosotros de manera numérica obtenemos una muy aproximada. Una vez verificada la geometría, se varían tres parámetros enfocados en la geometría del melanoma, los tres parámetros son: la profundidad (h) , el diámetro (w) y la forma del melanoma. Para la profundidad, debido a que en este trabajo se pretende simular tres clasificaciones de melanoma T1a, T2a y T3a, varían conforme profundidad de Breslow, y siendo de menor a mayor gravedad, nos permitirá conocer cómo es que la temperatura superficial en la piel varia de clase en clase de melanoma. Para esto se llevaron a acabo nueve casos con los parámetros variados. MODELO MATEMÁTICO Y MÉTODO DE SOLUCIÓN Se obtiene un modelo matemático para lograr simular la técnica de medición por imágenes infrarrojas. Con la cual se pretende detectar si un melanoma es maligno o benigno, y cuan avanzado es, como el objetivo de este trabajo es el determinar los parámetros que afectan mayormente al detectar con esta técnica y mostrar si se logra cuantificar lo avanzado que esté la lesión cancerígena con solo obtener la temperatura superficial, se seleccionaron 9 casos de estudio, con los cuales se deberá obtener la diferencia de temperatura entre la piel sana y la zona dañada, con estos resultados ver la proporción en que afectan las variaciones que tienen los parámetros. Se realizo el análisis de los modelos matemáticos, este hace uso de técnicas de elemento finito y así resolver las ecuaciones diferenciales acopladas a las capas de la piel, con sus distintas propiedades características para los procesos de transferencia de calor igual a los que se tienen en la piel humana. Primero, se expone a convección natural la temperatura superficial. Posteriormente, se enfría el tejido a temperatura constante de 20 °C, la elección de esta temperatura se obtiene en base a la lectura en el estado del arte, ya que con esta temperatura es suficiente para enfriar la piel y se obtiene una minimización de incomodidad en los pacientes. El tiempo de enfriamiento es de 60 segundos con este se logra llegar a la profundidad deseada que es en la zona muscular, ya que podría suceder el caso en que la lesión maligna llegue a esta zona, además de esto, se encuentra que al enfriar por 60 segundos a temperatura constante de 20 °C, la diferencia de temperatura es alta a comparación de otros tiempos y este gradiente de temperatura mayor se encuentra al segundo 41 del tiempo de recuperación. Por ello es que después de la etapa de enfriamiento, se pone a recuperación térmica, donde la condición de frontera de la superficie es a convección natural como se hizo en los valores iniciales, en estado transiente y por 60 segundos, lo cual abarcara para conocer al tiempo específico de 41 segundos la diferencia de temperatura entre tejido sano y tejido lesionado que obtendremos. PROPIEDADES DE LA PIEL Las propiedades necesarias para el modelo matemático, varían dependiendo la capa de la piel, estas propiedades son usadas para la ecuación de biocalor dada por Pennes, con el cual se describe la distribución de temperatura en cada una de las capas de la piel. Otros parámetros necesarios por conocer y que se tomaron en cuenta fueron las propiedades termofísicas de la sangre las cuales ayudaran para utilizar como condiciones de frontera inferiores de nuestra geometría, estas también dadas de otra bibliografía en el estado del arte. ANÁLISIS DE SENSIBILIDAD haciendo análisis a un diseño de 2 a la con los resultados de diferencia de temperatura máxima entre tejido sano y zona con el melanoma maligno en la superficie para cada uno de los nueve casos como respuesta de salida y así interpretar que factores de entrada contribuyen mas al efecto de salida. En base a esto y dado a que el diseño es un 2 a la 3, con un punto intermedio, se obtienen datos dónde se observa que si la contribución de cada fuente de variación es mayor el porcentaje tienen importancia en la respuesta, significa que los efectos principales el diámetro (h), la forma geométrica y las interacciones del diámetro con la forma geométrica. Ahora con un análisis de varianza de la diferencia de temperatura entre tejido sano y tejido lesionado, y un diagrama de Pareto se obtiene la probabilidad normal de estos efectos, y se comprueba que esos factores importantes en la influencia para la temperatura superficial son: el diámetro (h), la forma geométrica y las interacciones del diámetro con la forma geométrica.


CONCLUSIONES

Con un diseño 2 a la 3 e interpretando se llega a conocer que el diámetro (h), la forma geométrica y las interacciones del diámetro con la forma geométrica son parámetros de entrada que harán cambiar la respuesta de salida con mayor significancia, con este análisis se obtiene que si el diámetro y la forma geométrica se varían en dos niveles, la diferencia de temperatura cambiara altamente, pero la profundidad al ser el parámetro de mayor relevancia para conocer en qué etapa se encuentra el melanoma maligno, tiene menor significancia, debido a que el cambio en la temperatura superficial no se ve tan afectada como con los otros dos parámetros pero también existe un cambio y con el conocimiento de ese cambio de temperatura, no solo se conocerá si es parte cancerígena sino también interpretar el avance y así tomar decisiones importantes para el paciente sobre lo procedente a eliminarlo, en caso de detectarlo oportunamente.
Rendón Rabadán Lucero, Instituto Tecnológico de Iguala
Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala

ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.


ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.

Manuel Garcia Juan, Instituto Tecnológico de Iguala. Rendón Rabadán Lucero, Instituto Tecnológico de Iguala. Sotelo Sotelo Selena, Instituto Tecnológico de Iguala. Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Debido a la preparación de la información para la acreditación de la carrera de Ingeniería en Gestión Empresarial, surge la necesidad de resolver las condiciones de estancia en la institución a través de la trayectoria educativa de cada estudiante de esta carrera.            Este desconocimiento de información radica en no saber las causas del rezago educativo, deserción, reprobación y obtención de reconocimiento de logros académicos, movilidad estudiantil, estancias en el extranjero, eficiencia terminal y titulación, entre otras.  Derivado de lo anterior se requiere analizar la información requerida de la trayectoria escolar de los estudiantes de Ing. en Gestión Empresarial de cohorte 2018.



METODOLOGÍA

Se tomó como referente a la cohorte 2018 de la carrera de Ing. En Gestión Empresarial del Instituto Tecnológico de Iguala, a partir de la construcción de una muestra, realizando encuestas y estudios de investigación en línea a profundidad, para saber las causas que conllevan a los alumnos a la deserción, graficando los resultados obtenidos para analizar cuál es la causa principal que hace que esta situación se presente en el instituto tecnológico de iguala. Diseño y elaboración de la encuesta. Se formularon las preguntas para la encuesta, luego se elaboró el diseño de la misma en google. Aplicación de la encuesta: Estudiantes de la carrera de Ingeniería en Gestión Empresarial de 2° a 8° semestre dieron respuesta a la encuesta que se les aplicó en el Laboratorio de Programación, acompañados de un investigador docente y un estudiante asesorado. Actualización de datos estadísticos por cohorte generacional. Se nos otorgó  un usuario y contraseña por las autoridades correspondientes del Instituto para poder ingresar al portal del SII y obtener datos específicos de cada estudiante del cohorte generacional 2015. Una vez accesado se revisó la situación académica de los estudiantes por medio de su retícula y kardex. Se actualizó la información  de la base de datos en una matriz concentradora. Análisis e interpretación de la información obtenida. Con la información recabada de las encuestas se graficó cada una de las preguntas para analizar a detalle los problemas a los que se enfrentan los estudiantes. Análisis comparativo de las estrategias implementadas por la institución. En equipo se hizo la comparación de las estrategias que ya aplica el Instituto y que no han funcionado en su totalidad. Análisis FODA. Se realizó en equipo un análisis FODA de las fortalezas que tiene el Instituto, las debilidades que se tienen, las oportunidades que se presentan y las amenazas que atentan a los estudiantes. Formulación de estrategias a implementarse. En equipo se aportaron diferentes puntos de vista, para la formulación de las estrategias basándonos en el análisis FODA. Plan estratégico propuesto. Se elaboró en equipo las partes que conforman el plan estratégico, como son la introducción, misión, visión, diagnóstico de la situación actual y un plan de acción que incluye las líneas de acción que se realizarán.


CONCLUSIONES

De acuerdo con la investigación que se realizó en el Instituto Tecnológico de Iguala a la carrera de Ingeniería de Gestión Empresarial, se observaron los parámetros que conllevan al rezago educativo, deserción y reprobación de los estudiantes. El estudio de esta investigación se llevó a cabo realizando diferentes actividades como son, aplicación de encuestas a los alumnos de dicha carrera abarcando las generaciones del 2014 al 2018, análisis de las respuestas graficando resultados para llegar a un resultado más eficaz, entre otras. Dichas actividades permitieron identificar las causas que generan, que los estudiantes tengan algún problema en el trayecto de su carrera. Para definir de manera más precisa  las causas se analizaron aspectos importantes como: aspectos institucionales, económicos, académicos y afectivos. Con los resultados que arroja esta investigación, se obtuvo información  necesaria y confiable, que sirvió como base para proponer estrategias que sean pertinentes y aplicables al contexto del Instituto Tecnológico de Iguala. Al proponer estas estrategias se espera que el Instituto las lleve a cabo logrando así, que todo estudiante que elija esta carrera pueda culminar con ella en el momento y tiempo oportuno.
Rendon Salas Carlos Eduardo, Universidad Autónoma de Sinaloa
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

CARACTERIZACIóN DE LA CáMARA DE PROFUNDIDAD INTEL REALSENSE D435


CARACTERIZACIóN DE LA CáMARA DE PROFUNDIDAD INTEL REALSENSE D435

Rendon Salas Carlos Eduardo, Universidad Autónoma de Sinaloa. Soto Zepeda Gloria Elisa, Universidad Autónoma de Sinaloa. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La cámara con sensor de profundidad Intel® RealSense™ serie D400 utiliza visión estéreo para calcular la profundidad. Tanto las versiones D415 como D435 funcionan con USB y constan de un par de sensores de profundidad, un sensor de RGB y un proyecto infrarrojo.  Las cámaras de profundidad tienen distintas aplicaciones tales como navegación autónoma de robots, reconocimiento de gestos, reconstrucción 3D, realidad aumentada y medición de objetos. La aplicación para la cual se utilizó en esta ocasión fue para medir la profundidad de la banda de rodamiento, para saber el desgaste de los neumáticos.



METODOLOGÍA

Convencionalmente el desgaste de los neumáticos se mide tomando la profundidad de distintos segmentos del neumático con un instrumento llamado profundímetro, un medidor de la profundidad de la banda de rodamiento, que puede detectar un patrón de desgaste irregular, de una mejor manera que midiendo la profundidad visualmente. Esto permite que la causa sea identificada y corregida antes que el desgaste irregular arruine el neumático. El procedimiento que se lleva a cabo es complejo y requiere de bastante tiempo debido a que se tienen que tomar varias medidas en distintos puntos del neumático, esta herramienta puede tener ciertas variaciones si no se toma la medición de manera correcta, lo que nos llevó a buscar una alternativa para perfeccionar este procedimiento mediante el uso de la cámara de profundidad Intel Realsense D435. Utilizando la cámara y con la ayuda del software Intel Realsense Viewer, ajustando los parámetros de la Resolution, Exposure, Laser power, Disparity Shift, Depth Units pudimos obtener como resultado una imagen clara de distintos neumáticos y con una precisión en el orden de los milímetros. Cambiando la configuración de la visualización de profundidad obtenemos una imagen en escala de grises, siendo la parte mas clara la mas cercana a la cámara y la parte mas oscura la mas lejana a la cámara. Antes de realizar pruebas con los distintos neumáticos fue necesario hacer la calibración de la cámara con ayuda del software Dynamic Calibrator, una vez calibrada la cámara se hicieron pruebas midiendo distintos objetos conocidos para concluir midiendo los neumáticos comprobando así que coincidiera con los resultados obtenidos con el uso del profundímetro.


CONCLUSIONES

Se realizaron mediciones con el profundímetro a 5 neumáticos distintos, mismo que fueron medidos posteriormente con la cámara, los resultados que obtuvimos con la cámara a comparación de los realizados con el profundímetro fueron más precisos y sin variaciones. Con los resultados obtenidos pudimos comprobar que el uso de las tecnologías de las cámaras de profundidad puede llegar en un futuro no muy lejano dejar obsoleto el uso de herramientas en el procedimiento de medir la profundidad de la banda de rodamiento, como lo es profundímetro, debido a que las cámaras nos permiten hacer mediciones a partir de una imagen, sin tantas variaciones, sin esta incertidumbre del error humano, de igual manera de una manera rápida y confiable, donde no es necesario tener conocimientos previos del tema.
Restrepo Martinez Brian, Universidad Católica de Pereira (Colombia)
Asesor: Dr. Olga Lucia Ocampo López, Universidad Autónoma de Manizales (Colombia)

APLICACIóN E IMPACTOS DEL ESTUDIO DE TIEMPOS Y MOVIMIENTOS EN LA INDUSTRIA


APLICACIóN E IMPACTOS DEL ESTUDIO DE TIEMPOS Y MOVIMIENTOS EN LA INDUSTRIA

Restrepo Martinez Brian, Universidad Católica de Pereira (Colombia). Sánchez Martínez Rodrigo, Universidad Católica de Pereira (Colombia). Asesor: Dr. Olga Lucia Ocampo López, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El vertiginoso avance de la tecnología en un entorno donde el cliente cada vez cuenta con más opciones para obtener el producto que desea, obliga a las empresas a fortalecer la capacidad para suplir dichas necesidades en el menor tiempo posible, sin dejar de lado la calidad. Para lograr, con suerte, mantenerse en el mercado. Pero reducir movimientos en los procesos se torna difícil para las empresas, y mucho más si adolecen de capacidad monetaria para la implementación de tecnología, sin embargo, la ingeniería de métodos que según el libro ingeniería industrial: métodos, estándares y diseño del trabajo: Implica el análisis en dos tiempos diferentes durante la historia de un producto. Primero, es responsable del diseño y desarrollo de varios centros de trabajo donde el producto será fabricado. Segundo, debe estudiar continuamente estos centros de trabajo con el fin de encontrar una mejor forma de fabricar el producto y/o mejorar su calidad. (Reyes, 2009) Ofrece diversas herramientas que permiten no solo reducir tiempos y movimientos en el proceso, sino también aumentar el rendimiento de las máquinas y operarios inmersos en este.



METODOLOGÍA

El desarrollo del artículo se centra en la revisión y recolección de información relacionada a la aplicación de la ingeniería de métodos, específicamente el estudio de tiempos y movimientos en los diferentes procesos que abarca la industria, realizando una segmentación de los documentos encontrados dependiendo del tipo de producto o procesos estudiados. La clasificación se divide en 1) industrias, que abarca la automotriz, calzado, textil y maquinaria. 2) Agroindustria, esta engloba todo lo relacionado a la transformación, manipulación o recolección de alimentos como café, cacao, chontaduro, carnes y lácteos. 3) Logística, abarca los centros de distribución. Además, se realizaron diferentes visitas a una microempresa de la región y talleres que atañan el objeto de estudio de la investigación, permitiendo aumentar el horizonte de conocimiento e identificar de forma práctica los procesos y sus dificultades.


CONCLUSIONES

Los resultados obtenidos mediante la revisión de literatura se dividen en industria, agroindustria y calidad alimentaria, cada uno de ellos compuesto por temáticas acordes al campo y sus respectivos autores. INDUSTRIA: Automotriz: Gutiérrez et al. (2018) - Vélez et al. (2013) - Fuentes & Rojas (2018) Calzado: Andrade, Del Rio & Alvear (2019) - Parra, Ballesteros & González (2017) Textil: Rodríguez, Chaves & Martínez (2014) - Fuentes et al. (2016) Maquinaria: Ruíz et al. (2017) CEDI: Henríquez et al. (2018)   AGROINDUSTRIA: Café: Martínez et al. (2005) - Tavares et al. (2019) Cacao: Tinoco & Ospina (2010) - Aguirre (2017) - Plúa & Cornejo (2015) Chontaduro: Godoy et al. (2006) Carnes: Argote, Velasco & Paz (2015) - Ramírez & Quiliche (2018) - Bellido, Villar & Esquivel (2016) Lácteos: Mosquera, Duque & Villada (2008) Madera, aprovechamiento forestal: Alvis & Sotelo (2009) - Nájera (2010)   CALIDAD E INODUIDAD ALIMENTARIA: Importancia: Vázquez & Labarca (2012) - Fonseca, Muñóz & Cleves (2011) Gestión: Mercado (2007) - Arispe & Tapia (2007)   Tras la revisión de los artículos se logran identificar las diferentes técnicas para el estudio de tiempos y  la determinación de un tiempo estándar, como lo son: Therbligs, Muestreo del trabajo, MTM, cronometro a cero, datos estándar, entre otros. También herramientas para representar de forma gráfica los movimientos como diagrama de flujo, procesos, estaciones de trabajo etc. Todas estas técnicas facilitan la identificación de las demoras, el cálculo de costos y cambios que se deben realizar en las operaciones, convirtiéndose en una herramienta imprescindible para la gerencia en el momento de tomar decisiones. Además, por medio de la visita técnica a la empresa Myrluz se realiza una propuesta de distribución en planta, y con el consentimiento de la persona encargada se lleva a cabo su aplicación, la cual generó una reducción significativa en los movimientos del proceso y por ende, un aumento en la productividad, permitiendonos un acercamiento práctico a los temas estudiados en la investigación.
Reyes Antonio Claudio Antonio, Universidad Veracruzana
Asesor: Dr. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE SISTEMA DE SEPARACIóN BASADO EN SIMULACIóN PARA LA RECUPERACIóN DE ETILENO OBTENIDA POR DESHIDROGENACIóN OXIDATIVA DEL ETANO


SíNTESIS DE SISTEMA DE SEPARACIóN BASADO EN SIMULACIóN PARA LA RECUPERACIóN DE ETILENO OBTENIDA POR DESHIDROGENACIóN OXIDATIVA DEL ETANO

Reyes Antonio Claudio Antonio, Universidad Veracruzana. Asesor: Dr. Mayra Ruiz Reyes, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

El etileno, es un compuesto orgánico vital para la industria química. Actualmente, se produce etileno a partir de etano mediante craqueo a vapor de una corriente de etano. Sin embargo, la pirólisis requiere un gasto de energía que al final se traduce en costos elevados de producción, además de la producción de CO2 y CO. Una alternativa que parece factible es la deshidrogenación oxidativa del etano (Che-Galicia et al. , 2015). No obstante, una de las limitantes es la formación de CO2 mediante la reacción del etileno con O2, aumentado la conversión, pero, no la selectividad del etileno. Investigadores proponen, la recuperación del etileno; el cuál, implica nuevos retos en el desarrollo de propuestas de procesos de separación del etileno puro. Se pueden emplear heurísticas para las secuencias de separación, tales como, las propuestas por (Henley & Seader, 1981). Lo anterior implica grandes cantidades de energía y equipos muy costosos. El mecanismo de reacción para la producción de etileno presenta reacciones secundarias cuyo avance de reacción compite con la selectividad hacia la producción de etileno. La temperatura, presión de operación y distribución de reactivos son variables que afectan el rendimiento del sistema. Por lo que, el objetivo de este estudio es proponer un sistema de separación reactiva que sea capaz de llevar a cabo la reacción de DHO del etano y recuperación del etileno formado sin afectar el rendimiento del sistema. Para ello, se realiza la caracterización de las corrientes frescas del proceso a partir del cálculo de propiedades termodinámicas. Luego, tomando como base las condiciones de operación del sistema de reacción reportado en la literatura (Che-Galicia et al., 2015), se realiza la síntesis del proceso basado en simulación con ayuda del software Aspen Plus, integrando los requerimientos del proceso de reacción y separación de forma simultánea, con el fin de identificar las variables críticas del proceso. Con ello, seleccionar las variables de operación que maximicen el rendimiento del proceso y realizar un análisis de sensibilidad para determinar la flexibilidad del sistema.



METODOLOGÍA

A partir del análisis de los diagramas T-xy se identificó la factibilidad de separación de componentes mediante el empleo de operaciones unitarias por contacto de fases. Así como, la identificación de la región térmica de operación y su interacción con la temperatura de reacción para la producción de etileno. El agua es el disolvente más barato; el etileno es retenido por el agua (Dean, 1967), ya que, es completamente miscible. Por el contrario, el CO2 es significativamente soluble en agua. La solubilidad está controlada por la ley de Henry, y esta, aumenta cuando se trabaja a presiones superiores. Como variables del proceso inicial, la columna de separación reactiva se trabajó a 1 atm, sin caídas de presión. La columna de absorción reactiva se modeló empleando 15 unidades de transferencia, con 1 m de altura para cada etapa. Con distribución alterna de catalizador. En el análisis preliminar se evaluó el efecto de la proporción GAS-IN/SOLVENTE considerando una solución acuosa de MEA al 12.99 % mol y 0.01% mol de CO2 en la corriente SOLV-IN para la absorción de los óxidos de carbono formados a partir de las reacciones de la DHO del etano. Se utilizó el modelo de RadFac en Aspen Plus con tipo de cálculo por equilibrium para la absorbedora,  empleando empaques estructurados Sulzer Mellapak 250Y, en modo Interactive sizing.El modelo que se adoptó para el cálculo de propiedades termodinámicas como la reacciones de amina, se basó en el trabajo de (Agbonghae, Hughes, Ingham, Ma, & Pourkashanian, 2014). El conjunto de reacciones y parámetros cinéticos para la DHO del etano se tomó a partir de lo reportado por la literatura (Che-Galicia et al., 2015).   Se empleó la herramienta Especificación de diseño, con el fin de determinar la cantidad de solvente óptimo, para la absorción de CO2. Se realizó un análisis de sensibilidad, a presión y temperatura constante, para determinar la relación optima de GAS-IN/SOLVENTE y un análisis paramétrico de temperatura y presión, para determinar la dependencia de la producción del etileno y establecer las variables que maximicen el rendimiento del proceso. Para el análisis presión, es necesario el uso de un Transfer, para mantener ΔP=0 en la columna. Para el escalamiento del sistema, se contempló el 50 % de la producción de Pemex en el año 2018 En este trabajo de estudio, la producción de 2.1 Ton/año se obtuvo en una columna de 0.44 m de diámetro por 1 m de altura, por lo que, se requerirían 138 910 tubos aproximadamente, lo cual implica, para trabajos posteriores realizar un análisis respecto al mecanismo de distribución de alimentaciones laterales a lo largo de la columna.


CONCLUSIONES

La implementación de una alternativa no convencional, concretamente absorción reactiva, para la recuperación de etileno en una escala industrial, requiere de conocimientos de diseño conceptuales. La simulación del proceso muestra resultados viables, esto debido a que, en cuanto se produce el etileno es recuperado por el agua, y el CO2 producido, es recuperado por la solución de la MEA; y todo llevado a cabo en una sola columna de absorción reactiva. Es importante mencionar que, la modelación es una herramienta útil para un diseño preliminar. En este punto, la simulación, nos muestra el comportamiento que tiene la producción de etileno, disminuyendo la liberación de CO2 al ambiente. Para tener un modelo de simulación confiable, es vital, establecer las variables óptimas que maximicen el proceso, por medio de un análisis paramétrico. En suma, se puede analizar en futuros estudios, mecanismos diferentes de dosificación de la solución de aminas, así como, un mejor control, para las reacciones de la DHO y temperatura, o bien, acoplar sistemas de servicios auxiliares a lo largo de la columna, para amortiguar los cambios térmicos, con el objetivo de tener un diseño más completo para un nivel industrial.
Reyes Carrera Manuela, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua

ESTUDIO DE INTERFACES CEREBRO-COMPUTADORA


ESTUDIO DE INTERFACES CEREBRO-COMPUTADORA

Reyes Carrera Manuela, Instituto Tecnológico Superior de Ciudad Serdán. Sanchez de Jesus Paola, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua



PLANTEAMIENTO DEL PROBLEMA

Las emociones forman parte del día a día de las personas, y a través de las emociones se puede estudiar el comportamiento humano y su interacción con el entorno. Este proyecto explora el área de Interfaces Cerebro Computador o Brain Computer Interfaces (BCI), en el cual se utiliza una diadema Emotiv1 para recolectar señales electroencefalográficas (EEG) que pueden procesarse para generar comandos que permitan a una persona interactuar con la computadora. Una estadística del INEGI del 2010 indica que el 5.1% del total de la población en México presenta una discapacidad y de esas cifras arriba del 50% presenta problemas de movilidad (caminar o moverse). Alrededor del 27% tienen discapacidad visual, 8.5% problemas mentales, y 4.4% presenta dificultades para poner atención y en el aprendizaje. El desarrollo de aplicaciones BCI podría facilitar la inclusión de personas con discapacidad en espacios educativos ya que a través de la diadema se puede proveer de un medio de comunicación.



METODOLOGÍA

Se utiliza una diadema Emotiv Insight la cual cuenta con 5 electrodos para la recolección de datos EEG. El software propietario de Emotiv se usa para estudiar las señales EEG, la recolección de datos del usuario, la detección de gestos y de estados mentales, y finalmente el envío de datos hacia una escena digital desarrollada en Unity. El software EmotivPRO permite observar el tipo de señales EEG recolectadas con la diadema. Utilizando una aplicación desarrollada en Unity para realizar ejercicios de trabajo de memoria de corto plazo se recolectaron datos del usuario. La aplicación muestra por 5 segundos un subgrupo de objetos y agotado el tiempo presenta una matriz con el conjunto total de objetos colocados aleatoriamente. El usuario debe recordar cada uno de los objetos presentados inicialmente. Con esta información se aplicó un clasificador de eventos de memoria, desarrollando en Python por otro estudiante de la UACH. Este ejercicio nos permitió comprender la aplicación de interfaces BCI para captar patrones de eventos. Mediante el software Emotiv Control Panel se estudiaron otros recursos de trabajo con la diadema EEG. Por ejemplo, se trabajó con la calibración de la diadema, se exploró las señales generadas para estados afectivos de enganche, interés, relajación, estrés y emoción, eventos que se utilizan en el desarrollo de aplicaciones que adaptan su contenido de acuerdo a alguna condición afectiva de la persona. También se estudió le detección de expresiones faciales como parpadeo, sorpresa, entre otros. Se generaron comandos mentales para controlar una escena 3D disponible en el software Emotiv. Se estudió el uso del sensor inercial disponible en la diadema para por ejemplo controlar el apuntador del ratón en la computadora. Con el software Emotiv Emokey se continuó el estudio de la generación de comandos mentales asociados a la actividad cerebral detectada con la diadema. Se trabajaron algunos ejemplos disponibles con el SDK de Emotiv para la captura de señales y comandos mentales desde otras aplicaciones de software desarrolladas en C#, Java y Python, por ejemplo. Una herramienta adicional es Emotiv Composer con la cual es posible simular eventos que pueden ser utilizados para evaluar el desempeño de los programas externos. Finalmente, se trabajó el desarrollo de una escena en Unity que debe recibir eventos de la diadema para controlar el desempeño de la escena virtual. Adicionalmente a la diadema, en la etapa final de la estancia se están integrando eventos de temperatura y luz recolectados con un dispositivo Arduino con el objetivo de enriquecer el control de la escena virtual.


CONCLUSIONES

El área de investigación en Interfaces Cerebro Computadora resulta muy interesante ya que a través del desarrollo de aplicaciones basadas en esta tecnología se pueden ofrecer recursos de apoyo a personas con discapacidad. El trabajo con la diadema Emotiv permitió comprender las diferentes fases de desarrollo que deben cubrirse para generar interfaces humano-computadora que permiten la interacción natural, es decir, con gestos o comandos mentales en sustitución del teclado y el ratón. El software proporcionado por Emotiv facilitó la comprensión de la recolección, registro, entrenamiento, y generación de eventos EEG. La lectura e integración de eventos EEG en contenido digital permite visualizar el desarrollo de herramientas educativas para apoyar a personas con discapacidad.
Reyes Dávila Karen Lizbeth, Instituto Tecnológico de Pachuca
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

CAPTURA DE CO2 Y NIVELES DE CONTAMINACIóN ATMOSFéRICA EN LA ESTACIóN DEL METROPOLITANO EL NARANJAL, LIMA - PERú, 2019


CAPTURA DE CO2 Y NIVELES DE CONTAMINACIóN ATMOSFéRICA EN LA ESTACIóN DEL METROPOLITANO EL NARANJAL, LIMA - PERú, 2019

Reyes Dávila Karen Lizbeth, Instituto Tecnológico de Pachuca. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

La estación EL Naranjal del sistema de transporte Metropolitano en la Ciudad de Lima se encuentra ubicado en la intersección de las avenidas Túpac Amaru y Chinchaysuyo del distrito de los Olivos, donde se desarrolla un alto flujo vehicular (buses, automóviles y motocicletas) que emplean combustibles en su mayoría gasolina y diésel siendo los agentes externos que emiten gases de efecto invernadero (CO,CO2,SO2,ppm y otros) y otros como agentes internos (buses del metropolitano) que emplean gas natural como combustible, incrementando emisiones de contaminación ambiental. Dicha estación, concentra en su interior una circulación 20 mil usuarios finales en horas punta (7:00 am - 9:00 am / 7:00 pm - 10:00 pm) (El Comercio, diario oficial del Perú, 2018), los usuarios finales, tardan de 30 a 40 minutos en tomar los buses del metropolitano lo que al día en total pierden de 1:30 a 2 horas a sus destinos. La infraestructura interna de la estación, no va en función de la demanda de los usuarios finales porque no cuentan con: espacios suficientes ni condiciones medio ambientales para el confort y el bienestar, sobre todo para los usuarios más vulnerables (niños, adultos mayores, mujeres embarazadas). Todo ello, asociado a los productos de combustión interna del flujo vehicular. Lo que genera altos niveles de contaminación atmosférica captados directamente por los usuarios, ya que el terminal no cuenta con ningún tipo de envolvente arquitectónica o medio informativo a través de las TICs que permita conocer desde su hogar o punto de partida las condiciones medioambientales de la estación, Según, The World Air Quality Projectel que el Distrito de los Olivos - Lima, lugar donde se encuentra ubicada la Estación EL Naranjal tiene un ICA 102, lo que significa, que se encuentra dentro del rango (ICA 101 - 150) dañino a la salud de los grupos sensibles o vulnerables.



METODOLOGÍA

Se desarrolló una investigación correlacional cuantitativa, experimental, proponiendo una alternativa de solución; para reducir los niveles de CO2 en el interior de la Estación EL Naranjal diseñando una columna de absorción de gases utilizando NaOH con agua a contra corriente bajo el principio teórico de la reacción: CO2+ NaOH=Na2CO3 + H2O Siendo necesario establecer una relación entre el coeficiente global de  transferencia de masa de los flujos líquido y gas utilizados en la operación para poder determinar una escala física del prototipo El diseño de la columna de absorción deberá ser de vidrio  pyrex, de 89 mm de diámetro interior,  rellena con anillos de vidrio rasching (1/2´´). Para llevar a cabo la operación el gas ingresara por la base y el líquido por el tope de la columna (en contracorriente). Ensayando a varias condiciones de operación con distintas razones de flujo de líquido/flujo de gas y distintas concentraciones de CO2 en el aire, para ello se harán mediciones a distintas horas del día. Utilizando flujos constantes de aire (10-25 L/min  y 0-15 L/min de CO2) y flujos de agua o solución de  sosa cáustica al 0.1% p/p, entre 0.5 y 3.5 L/min.  Cada ensayo requerirá una duración de 20 minutos, esperando 15 minutos entre cada ensayo logrando condiciones estacionarias de operación en la columna y estandarizar, anotando en cada practica  la presión atmosférica, velocidad del viento, temperatura ambiental, tomando muestras de líquido  efluente (H2O y NaOH), la cual se midieron el  pH, las concentraciones de carbonato e hidróxido mediante titulación y/o cromatografía de gases en la salida de gases de interés (aire más limpio). Se realizando 2 tipos de prácticas: Primer experiencia se realizó con herramientas e instrumentos  domésticos debido a la limitación de un ambiente especializado donde obtuvo CO2  puro, haciendo reaccionar 10 ml de ácido aceitico con  1 g de carbonato de sodio en un recipiente hermético evitando algún tipo de fuga de gas.  Posteriormente, se mezclaron en una botella 1 g de NaOH y 5 ml de agua potable (relación 1:5) para adicionar en la botella el CO2 producido, haciéndolo reaccionar y obtener y obtener sales de carbonato de sodio, resultando en un lapso de 3 horas (sin fuerza impulsora) que la botella quedara aplastada  debido al vacío que se generó al consumirse el CO2 en el interior. La segunda experimentación; se empleó un simulador Aspen Plus V9, que en condiciones ideales la columna de absorción opera una mezcla de dióxido de carbono con monóxido de carbono, nitrógeno, oxigeno, óxido de azufre, partículas disueltas en el aire, eliminando el CO2 en un 98%. Con dicho resultado me llevo a determinar que dicho proceso puede ser llevado al campo real donde se encuentra la problemática. Con el apoyo del software Visio, se diseñó un prototipo físico ubicado a lo largo de la cobertura (zonas de embarque) donde las columnas de absorción de gases harán su trabajo, al igual que los compresores de aire que están siendo controlados por un rotámetro para conocer el flujo volumétrico, un estanque de agua potable que circula para lavar el gas y una salida de aire que será suministrada a los usuarios finales de la estación. Se desarrolla una app libre, para que antes, durante y después del viaje tengan en cuenta las condiciones medio ambientales tales como: Temperatura, humedad, presión y densidad del aire lo que le permitirá elegir al usuario  sí esta opción es viable o sí desea utilizar un modo de viaje alterno.


CONCLUSIONES

Mediante el diseño de la columna de absorción  se comprobó la disminución  significativamente de los niveles de CO2 para el confort y bienestar de los usuarios finales de la estación El Naranjal del Metropolitano. Dicho prototipo presenta sistemas de control y monitoreo necesarios para preservar la seguridad e higiene durante su funcionamiento (confirmando el principio de absorción de gas correctamente). El aire estará libre de CO2 a temperatura ambiente que será percibido por las personas en la estación, precisando un exhaustivo monitoreo para comprobar la efectividad constante del sistema físico en coordinación con la base datos obtenidos mediante el uso de la app que se encuentra alcance de los usuarios. .
Reyes Delgado Josue Gabriel, Instituto Politécnico Nacional
Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)

GENERACIóN DE RUTAS PARA DRONES PARA EVITAR ATAQUES PIRATAS.


GENERACIóN DE RUTAS PARA DRONES PARA EVITAR ATAQUES PIRATAS.

Reyes Delgado Josue Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Carlos Alberto Lara Alvarez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El comercio marítimo es una actividad que se realizan desde hace miles de años en todo el mundo, y es de gran importancia económica para la mayoría de los países. Para aprovecharse de esto, surgieron los primeros piratas, los cuales se encargaban de interceptar a los barcos mercantiles, atacarlos y finalmente saquearlos de todo lo que transportaban. Los UAV (Unmanned Aerial Vehicles) o mejor conocidos como drones aéreos nacieron como una herramienta militar en la guerra, sirviendo principalmente para transportar bombas que hundirían barcos en la segunda guerra mundial; sin embargo, actualmente convivimos con muchos de ellos de forma cotidiana para retratar todo tipo de lugares y cosas, e incluso siendo parte vital de gran parte de la industria.



METODOLOGÍA

La primera parte de esta estancia consistió en aprender a programar en lenguaje C++, este lenguaje se considera un buen inicio por su amplia variedad de aplicaciones académicas y en la industria y sirve como base aprender a cómo funcionan otros lenguajes de programación. Esto consolidó los conocimientos que adquirí en el bachillerato, en el área de programación orientado a la robótica. Así, se estudió el libro de Fundamentos de programación: Algoritmos, estructura de datos y objetos de Luis Joyanes Aguilar. Se resolvieron problemas simples, en su mayoría matemáticos, a partir de la generación de algoritmos que permitieran ingresar los datos necesarios para los mismos. Los algoritmos realizados fueron hechos en un inicio de manera online en la página de paiza.io, y después en el entorno de desarrollo integrado de Dev-C++, en el que finalmente realizaría el producto final. Conforme al paso de las semanas generé algoritmos cada vez más complejos para la resolución de otros problemas, ejemplo de ello fue uno que al ingresar cualquier número determinaba si este era o no un número primo. La segunda fase, consistió en la selección de un problema de investigación. Asistí a la Escuela de Verano organizada por CIMAT Zacatecas, donde se expusieron temas sobre la ingeniería de software, criptografía, interacción humano-computadora, desarrollo de videojuegos y bioestadística. Además, se revisaron diversos artículos científicos en el área de colaboración de drones en el que se escogió el artículo UAVs versus Pirates: A Pheromone-based Swarm Monitoring Method por Ruiwen Zhang, Tom Holvoet, Bifeng Song, y Yang Pei, donde se seleccionó el problema de colaboración de drones para ataques piratas a barcos mercantes. Utilizando el lenguaje de programación se realizó la simulación de un entorno en el que un barco mercante y un barco pirata son generados en diferentes puntos aleatorios de la orilla y que van a interceptarse en un punto aleatorio del entorno, por lo que el enjambre de drones tiene la función de avisar al barco mercante del ataque antes de que estos crucen.


CONCLUSIONES

Finalmente, durante la estancia adquirí enormes conocimientos en el campo de la programación y la robótica, incluso con conocimientos más allá de lo aplicado al producto final, y que me servirán muchísimo para mi futuro puesto que al estar aún en bachillerato todo esto me ayuda para conocer aún más mis opciones sobre futuros estudios y futuros proyectos, e incluso con aplicaciones a mi campo actual. El algoritmo realizado actualmente se encuentra en fase de pruebas para su futura aplicación en el campo.
Reyes Espinosa Aldo Francisco, Universidad Politécnica de Texcoco
Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara

IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.


IMPLEMENTACIóN DE MINI PUNTO DE VENTA EN RASPBERRY PI 3.

Chipol Seba Bryan Antonio, Universidad Autónoma del Estado de México. Cortes Martinez Jesus Miguel, Universidad Politécnica de Texcoco. Reyes Espinosa Aldo Francisco, Universidad Politécnica de Texcoco. Asesor: Mtro. Horacio Gómez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La adquisición de un punto de venta para la mayoría de las Pymes suele ser costoso por los altos precios que los proveedores ofrecen, pues no solo implica un sistema, también se necesita una estructura completa para el buen funcionamiento y administración del sistema. De acuerdo con el estudio realizado por Zoho Corp, empresa india desarrolladora de software, estima que el 6% de las Pymes en México utilizan las Tecnologías de la Información TIC para mejorar el rendimiento de  la empresas (Villafranco, 2017). Las tecnologías de la información son las que le permiten a las Pymes aumentar su productividad y por ende ser más competitivas (Vaca, 2017). Según la OCDE, la productividad en las empresas es de 6.3 veces mayor a las microempresas, un 2.9 mayor a las pequeñas y un 1.7 superior a las medianas empresas. Tal productividad se debe a la economía de escala con la que cuentan, experiencia en el mercado y uno de los factores importantes son las Tecnologías de la Información (Villafranco, 2017).   Como la mayoría de las Pymes no tienen conocimiento de esta nueva tecnología aplicada en el uso de Raspberry Pi, se tendrán que analizar métodos para introducir estos servicios al mercado de una forma confiable otorgando iguales y mayores beneficios a los puntos de venta que actualmente existen en México. De acuerdo con el INEGI, la mayoría de las empresas son consideradas Pymes. Por lo tanto, esto brinda un alto rango en el mercado para introducir esta nueva modalidad de servicio para la administración de la compra-venta de dichas empresas (INEGI, 2017). A nivel nacional, en el sector de alimentos y bebidas, el 97% de las unidades económicas son micro y pequeñas empresas con un número de empleados por establecimiento menor o igual a diez (CANIRAC, 2016).   A partir de estos fundamentos se plantea el desarrollar un punto de venta que sea económico y eficaz para una microempresa del área de alimentos y bebidas, ya que el establecimiento Coffee Hanna tiene la problemática de controlar las ventas sin tener que adquirir un sistema de punto de venta costoso y que este sea mayor a las necesidades básicas de esta pyme.



METODOLOGÍA

Como primer punto se tiene que instalar el S.O. en el Raspberry. Dentro de este punto tenemos dos opciones proporcionadas por la página oficial de Raspberry Pi por un lado tenemos el S.O. Noobs y por otro a Rasbian a lo que seguiremos los pasos proporcionados por la página.  Los pasos proporcionados por la página guían hasta la instalación del S.O. en la Raspberry Pi a lo cual se procederá a hacer la carga de los servicios necesarios. Dentro del presente link se puede acceder a la mencionada pagina oficial de Raspberry: https://projects.raspberrypi.org/en/projects/raspberry-pi-getting-started/2 Una vez iniciada la Raspberry es necesario obtener las últimas actualizaciones del sistema operativo dentro de la terminal con los siguientes comandos:  Recordando que es importante conectar la Raspberry a una red con acceso a internet. sudo apt-get update            sudo apt-get upgrade          Se debe seguir con la carga y configuración de los servicios necesarios para el punto de acceso (Access Point). Que posteriormente cumplirá el propósito de alojar al sistema punto de venta. Se procede con la instalación y configuración de Apache: sudo apt-get install apache2 Para verificar si se llevó a cabo la instalación puedes introducir el siguiente comando. sudo nano /var/www/html/index.html Para cumplir la función de gestionar las bases de datos se usará Mariadb. El siguiente comando va a instalar este servicio. sudo apt-get install mariadb-server Ahora toca instalar el servicio de PHP. En este punto se recomienda primero revisar cual es la versión más reciente de PHP con el siguiente comando. sudo apt-cache search php7-* Dependiendo de la salida del anterior comando se elige la versión más reciente por ejemplo de la versión más reciente es 7.3 se aplicará el siguiente comando: sudo apt-get install php7.3 Lo único que cambiará será la parte de la versión. Al terminar con la instalación se debe configurar PHP para que trabaje con MySQL. Lo cual va permitir que PHP trabaje con bases de datos. sudo apt-get install php7.3-mysql La configuración de PHPMyadmin es necesaria ya que es de utilidad para controlar las bases de datos de manera gráfica. Esta configuración se logra gracias al siguiente comando. sudo apt-get install phpMyAdmin Ahora es necesario agregar la configuración de PHPMyadmin en Apache.conf por lo que es necesario agregar el siguiente comando: Sudo nano /etc/apache2/apache.conf Este comando abrirá un archivo dentro del cual se debe ir al final para ingresar la siguiente línea, esto con la finalidad de que el servidor web sea capaz de conocer PHPMyadmin como un sitio. Include /etc/phpmyadmin/apache.conf Los siguientes pasos son para crear su Access Point desde la Raspberry, dando facilidad de poder visualizar el punto de Venta desde un Smartphone dando la facilidad de una manipulación del Mini punto de Venta. Abriendo la posibilidad de crear algunas otras herramientas para la optimización de dicho Sistema.


CONCLUSIONES

La mayoría de las pequeñas empresas han empezado a implementar un software que les simplifique el trabajo. Actual el impacto de las computadoras de tamaño reducido (SBC) llamadas Raspberry, los cuales incluyen el sistema operativo Raspbian, existen otras opciones como Arduino en las cuales es necesario programarlos para realizar ciertas actividades. Las empresas interesadas en esta nueva tecnología que ofrece el uso de un Software y Hardware para un fin en específico, en este caso para implementar un mini punto de venta y dentro de este tener una base de datos con los productos o servicios que ofrece la pequeña empresa, lo cual es una opción viable para reducir los costos, tener un control de los productos y también a destinar menos dinero a estos servicios ya que ahorran en  costos de compra e instalación de servidores y acceso a internet, con esta implementación se cuenta con un punto de acceso que proporciona una red WiFi configurada con el proveedor de servicios de internet (ISP) y de igual forma ingresar de forma local para instalar, configurar y administrar el punto de venta mediante el uso de un Smartphone.
Reyes Hernández Raúl, Instituto Tecnológico de Pachuca
Asesor: M.C. Olga Luz Atencia Herrera, Universidad Católica de Colombia (Colombia)

SUPERFICIE DE RODADURA PARA CICLORUTAS Y CICLOCARRILES MEDIANTE LA IMPLEMENTACIóN DE TEXTILES.


SUPERFICIE DE RODADURA PARA CICLORUTAS Y CICLOCARRILES MEDIANTE LA IMPLEMENTACIóN DE TEXTILES.

Reyes Hernández Raúl, Instituto Tecnológico de Pachuca. Asesor: M.C. Olga Luz Atencia Herrera, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente las ciclorrutas y ciclocarriles forman parte de muchas ciclovías que hay en distintas ciudades del mundo, y la superficie de rodadura es a base de mezclas bituminosas, concreto, adoquín/baldosa y gravilla compactada. Generalmente el material más utilizado es de mezclas bituminosas, ya que de acuerdo a la Guía de ciclo-infraestructura para ciudades colombianas es el material que más se adecua a exigencias que se requiere para la superficie de rodadura de cualquier ciclovía, pero sin embargo en cuestión de las cilorrutas y ciclocarriles son solo de uso para bicicletas, por lo que los materiales antes mencionados no son del todo pensado en la seguridad del ciclista contra caídas y amigable con el medio ambiente, por lo que en este verano de investigación se eligió investigar acerca de los textiles y su reciclaje para generar una base de datos sobre este material y se pueda estimar que tan favorable pueda ser el uso de este materia como posible superficie de rodamiento.



METODOLOGÍA

Se seleccionaron tres conceptos básicos para la base de esta investigación, los cuales son pavimentos, textiles y ensayos de pavimentos y textiles, por lo que se realizaron 3 consultas mínimo en fuentes como libros, tesis, y revistas de confianza en diferentes temas que involucraran los conceptos básicos antes mencionados, para posteriormente realizar sus respectivos resúmenes, destacando los puntos más importantes de estos documentos, y a la par generar una base de datos por medio del programa Zotero, para finalmente plasmar el contenido más importante de la base de datos generada en los resultados y tener una base de datos en el programa Zotero.


CONCLUSIONES

Durante la estancia del programa DELFIN se rescató información importante de diversos documentos acerca de pavimentos en ciclo-infraestructura, contaminación generada por textiles, Ensayos de pavimento de mezcla bituminosa y textiles, esfuerzos que reciben los textiles, así como sus respectivos equipos para determinar estos esfuerzos y programas que sirven para modelados de textiles. Además, la bibliografía de estos documentos fue recabada en el programa Zotero y se espera a completar con más información para obtener una mejor base de datos que pueda ser de utilidad para investigaciones más a fondo del tema. Por ultimo lo que se puede percibir con la información recabada, que este es un buen tema de investigación por el hecho de que la basura textil es muy contaminante, y el reciclaje para el uso de superficie de rodadura de ciclocarriles y ciclorrutas es una buena alternativa para reducir un poco esta contaminación, sin embargo aún faltan varios temas por investigar para lograr establecer si es posible realizar un prototipo de superficie de rodadura de una ciclorruta o ciclocarril a base de textiles reciclados y si este puede ser funcional.
Reyes Villafranca Jose Pedro, Instituto Tecnológico de Tláhuac
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

DATA SCIENCE APLICADO A DATOS DE REDES SOCIALES.


DATA SCIENCE APLICADO A DATOS DE REDES SOCIALES.

Reyes Villafranca Jose Pedro, Instituto Tecnológico de Tláhuac. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las redes sociales se han convertido en uno de los recursos de información más importantes hoy en día, siendo estas uno de los elementos más importantes para cualquier plan de marketing. De igual forma uno es tos sitios que forman parte de la web 2.0, albergan gran cantidad de información variada, con muchas clases de tópicos y contenidos, desde texto simple, imágenes (fotos, dibujos, memes), hasta videos. Simplificando la manera de describir una red social podemos decir, que es una manera de comunicar e interactuar entre distintos usuarios en un contexto social, en la que las conversaciones e interacciones se dan por medio de conversaciones y comentarios, incluyendo otro tipo de interacciones (me gusta, likes, compartidos, etc…). Por lo tanto, se realizará miseria de datos a estas plataformas con la intención de poder observar el comportamiento de temas sociales, en particular el tema tratado será el de caravana migrante, pues el principal objetivo será el de interpretar el impacto que tiene este fenómeno en la sociedad mexicana, el comportamiento, patrones y tendencias que son fuente de este fenómeno.



METODOLOGÍA

Se construyó un dataset con memes o fotos relacionado con algún trending en redes sociales, en este caso de estudio se determinó el tema Caravana Migrante, para realizar un análisis de los sentimientos en memes fotos y publicaciones. El análisis de la información obtenida través de las imágenes recolectadas, se realizó con base a los siguientes criterios: Identificar memes del trending que generen humor-risa   Identificar memes del trending que generan odio   Identificar memes del trending neutros (no dan risa, ni dan coraje) Dentro de un meme o imagen se puede hallar gran cantidad de criterios e información, sin embargo, los datos de interés serán únicamente la reacción que genera este fenómeno y su contenido, es por tal razón que se tomó la decisión de únicamente tomar, las principales características que son descritas a continuación: Número de likes   Localización de las personas que dan like   Nombre del perfil donde se identificó el meme   Si es público o no   Los primeros 5 a 10 comentarios   El proceso que se siguió para la construcción del dataset fue el siguiente: Se descargaba el meme En un archivo de Excel se llenaban las columnas con los datos recabados siguiendo los criterios ya descritos. Etiquetar los datos con las siguientes clases: odio, humor, neutro. Una vez recolectados los datos y construido el dataset, se comenzó la siguiente fase la cual consiste en el análisis de los datos, por medio de algoritmos de Machine Learning. Comenzamos por aplicar algoritmos de agrupación o de clustering, en particular el algoritmo de simple K-MEANS, para poder identificar los grupos que generan los datos, esta herramienta necesitaba definir el número de clusters que se desean obtener, en este caso ya se había identificado 3 grupos. De igual forma se utilizó el algoritmo de regresión lineal, para poder crear un modelo matemático, que busque tendencias y patrones específicos a partir de los datos proporcionados, este algoritmo genera un cierto número de iteraciones que le permite determinar culés son los mejores parámetros para la creación del modelo. A partir de los modelos obtenidos, resultado del procesamiento que se aplicó a todo el conjunto de datos se generó patrones de estadística detallada la cual fue documentada en un archivo de google doc. Con base en estos patrones se pudo generar gráficas que detallan los resultados obtenidos del caso de estudio. Finalmente, se mediante las gráficas, así como con el modelo resultado de los algoritmos se trata de dar una interpretación de que describa el comportamiento del fenómeno migratorio en México.


CONCLUSIONES

Al realizar esta estancia de verano he adquirido conocimientos sobre tópicos específicos sobre data science. Que abarca temas selectos sobre minería de datos, machine learning, inteligencia artificial, así como estadística. Los cuales permitieron el desarrollo pleno de este proyecto, mediante el uso práctico del manejo de datos, e implementaciones de algoritmos. De igual forma he tomado plena conciencia de que la realización de proyectos de este tipo, requieren más tiempo y un estudio aún más profundo para poder realizar modelos que describan de una óptima manera el comportamiento de fenómenos, para logra tener mejores resultados y de esa manera predicciones más precisas.
Reyna Balderas Frida Karina, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

GESTIóN AMBIENTAL PARA EL DESARROLLO SUSTENTABLE MUNICIPAL: ALTAMIRA, TAMAULIPAS


GESTIóN AMBIENTAL PARA EL DESARROLLO SUSTENTABLE MUNICIPAL: ALTAMIRA, TAMAULIPAS

Reyna Balderas Frida Karina, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Gestión Ambiental que hoy conocemos se ha construido mediante la interacción de un complejo conjunto de factores económicos, sociales, culturales, políticos y ambientales que se remontan al momento mismo del poblamiento del territorio. La Primavera Silenciosa de Rachel Carson (1962) conmovió la conciencia norteamericana. En los países industrializados la preocupación alcanzó su punto más alto a principios de los años setenta ante los graves daños registrados por la lluvia ácida, los pesticidas y los efluentes industriales, que motivó la realización de la Conferencia de Estocolmo sobre el Medio Ambiente Humano. El tema ambiental alcanzó una mayor prioridad en las agendas estatales, y se inició la introducción de la visión de la gestión ambiental de Estado, que generó nuevas instituciones y políticas, y que se superpuso a la visión minera de los recursos naturales renovables, a la visión de su uso racional, y a la visión conservacionista, que superviven hasta nuestros días. La Conferencia de las Naciones Unidas sobre Medio Ambiente Humano y la Conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo (CNUMAD), realizadas en 1972 y 1992, respectivamente, son dos hitos de la historia de la segunda mitad del siglo XX, que tomamos como puntos de referencia para la exposición de los antecedentes históricos de la gestión ambiental en la última década. Estocolmo marcó una polarización entre las prioridades del desarrollo económico y la protección ambiental que ha dominado el debate entre los países ricos y pobres, y entre los grupos de interés al interior de los países, que se ha prolongado hasta el presente, y aún no está plenamente resuelta. (ONU, 1997). La planificación ambiental estratégica puede definirse como un instrumento para implementar los lineamientos de una planificación en el largo plazo de objetivos ambientales y sustentables en el territorio, considerando tanto las iniciativas privadas como de gobierno. En el caso de México la planeación ambiental surge en el marco del paradigma del desarrollo sustentable, al cual se le incorporaron los acuerdos de la Agenda XXI, el Convenio sobre la Biodiversidad y el Convenio sobre el Cambio Climático, y se le propone como una estrategia normativa para regular la relación hombre-naturaleza (Aguiluz, 2001). Teniendo como Objetivo: Determinar los Componentes de la Gestión Ambiental  vinculados con los Programas y Acciones del Plan Municipal de Desarrollo en la administración 2018 -2021, caracterizándolo de manera semaforizada a fin de definir las acciones y estrategias  para determinar Proyectos de Ingeniería Ambiental que contribuyan en el  Desarrollo Sustentable Municipal para Altamira, Tamaulipas.



METODOLOGÍA

El Trabajo de Investigación, tendrá un enfoque mixto, sustentado en el método de analizar teorías con enfoque cualitativo, al realizar acopio y análisis de Bibliografía Especializada, en la Planeación Ambiental y Estadísticas Socio-Ambientales y de Enfoque cuantitativo, que serán recolectados en el campo objeto de estudio. Consideramos que nuestro Trabajo de Investigación es de Método inductivo, para Hernández Sampieri, R., et al (2006, p.   107) el método inductivo se aplica en los principios descubiertos a casos particulares, a partir de un enlace de juicios; Análisis documental, gabinete y de campo al realizarse visitas a las oficinas y entrevistas con funcionarios municipales de la actual administración, de manera cualitativo con respecto a la Implementación de la Administración Ambiental, los componentes, jurídicos - normativos y de Reglamentación en  materia ambiental, de política Ambiental, como el Ordenamiento Ecológico de Territorio, Impacto Ambiental, Educación y Participación Comunitaria, entre otros.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos por medio de información relevante con la Planeación Ambiental y los Programas y Acciones en materia ambiental y de Desarrollo Sustentable, correspondiente al Plan Municipal de Desarrollo para el Altamira, Tamaulipas Administración 2018 - 2021 y el Plan Estatal de desarrollo Tamaulipas 2016 -2021, así como la experiencia gratificante en campo de  realizar visitas y entablar una comunicación directa por medio de entrevistas con las Autoridades Municipales encargadas en la materia. Las cuales manifestaron su disposición e interés en el estudio, el cual señalaron que podría ser de gran utilidad para ellos, ya que son acciones y programas que buscan enaltecer y dignificar la calidad de vida de la comunidades. Es importante resaltar que en esta fase de diagnóstico  se genero una base de datos relevante la Al determinar los componentes de la Gestión Ambiental para el Desarrollo Sustentable Municipal, y realizar una caracterización por medio de la semaforización nos hizo vislumbrar el potencial a desarrollar  en un futuro próximo, realizar un estudio comparativo con la Ciudad de Armenia, Departamento de Quindío en la República de Colombia, dado que en el periodo 2019 -3 se estará realizando una estancia por parte de la alumna.
Reyna Ruiz Sorani Ivonne, Universidad Politécnica de Tecámac
Asesor: Mtro. Refugio Antonio Bernal, Universidad Politécnica de Tecámac

ANáLISIS E IMPLEMENTACIóN DE SERVICIOS DE GEOLOCALIZACIóN EN EL PROCESO DE CALIDAD DE ESTANCIAS Y ESTADíAS EN LA UNIVERSIDAD POLITéCNICA DE TECáMAC


ANáLISIS E IMPLEMENTACIóN DE SERVICIOS DE GEOLOCALIZACIóN EN EL PROCESO DE CALIDAD DE ESTANCIAS Y ESTADíAS EN LA UNIVERSIDAD POLITéCNICA DE TECáMAC

Reyna Ruiz Sorani Ivonne, Universidad Politécnica de Tecámac. Asesor: Mtro. Refugio Antonio Bernal, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

En la Universidad Politécnica de Tecámac existen tres etapas en el proceso de estancias y estadías que vinculan a los alumnos de esta Universidad con empresas relacionadas en su campo profesional: Primera estancia, segunda estancia y estadía.  De esta manera se pretende que los estudiantes desarrollen proyectos reales en beneficio de la empresa poniendo en práctica las competencias que han ido adquiriendo a lo largo de los tres cuatrimestres anteriores que han cursado hasta el momento de iniciar con cada una de las etapas. Todas las empresas que están dispuestas a recibir estudiantes de esta universidad son agregadas a la base de datos del sistema SUIEUPT,  actualmente hay más de 850 empresas y esta cifra va en aumento, aunque geográficamente no se tiene visualización de la ubicación de cada una, tampoco se visualiza cuáles son activas o inactivas.  



METODOLOGÍA

El sistema SUIEUPT contiene el apartado de Administrar empresas donde se lleva a cabo la captura de los registros de cada empresa y visualizar información de cada una de ellas. Se analizó el apartado para poder agregar campos necesarios a la Base de Datos y al formulario. Se incorporó un formulario donde se usó un mapa para recoger los valores de Latitud y Longitud de la ubicación de cada empresa registrada. Se agregaron campos en el mismo formulario para saber si la empresa está bloqueada y desde que fecha está activa o inactiva. Se realizó otro formulario donde se pueden seleccionar las empresas por carrera, período, ciclo escolar y etapa, arrojando la suma de los alumnos con proyectos reales en proceso, concluidos y cancelados.  


CONCLUSIONES

Con el uso de estos servicios de geolocalización y geocodificación de google, se ha podido obtener el número de alumnos que han estado en empresas cercanas o lejanas a la Universidad, los que no han concluido sus proyectos o se encuentran actualmente realizando sus estancias o estadías en las diversas empresas localizadas en el mapa.
Reynaga Cobián Rabí Salvador, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima

MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA


MODELO DE MARKETING DIGITAL PARA PYMES EN EL ESTADO DE COLIMA

Chan Ek Carlos Lauriano, Consejo Quintanarroense de Ciencia y Tecnología. Dzul Kinil Merly Estrella Darany, Consejo Quintanarroense de Ciencia y Tecnología. Flores Bañuelos Mariana, Universidad de Guadalajara. Reynaga Cobián Rabí Salvador, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Isabel Guerrero Garcia, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

En el ámbito tecnológico encontramos la clave para tratar al comercio electrónico como una actividad económico-comercial única, pero es necesario hacer énfasis en la división del comercio tradicional y el comercio electrónico. Puesto que el comercio electrónico ofrece diversas bondades a todos los diferentes agentes económicos. No obstante, sigue existiendo la problemática sobre los medios digitales más eficaces y con mayor publicidad para el ofrecimiento de oportunidades de marketing para abarcar la mayor parte del mercado y que tanto los productores, proveedores de bienes/servicios incluyendo usuarios logren el tener acceso y la transmisión mundial a la unificación de hacer uso de las herramientas disponibles de e-commerce para mayor esparcimiento de forma sencilla y económica. La mayor problemática que enfrentan las PyMEs en el estado de Colima es que en ocasiones se sienten limitados y les es difícil la divulgación de sus productos ya sea que para el primer caso sean pequeñas empresas que están comenzando y quieren vender solo en línea, para el segundo caso porque ya están establecidas, pero aún no tienen reconocimiento ni físico ni digitalmente, o en tercer caso porque ya tienen resultados, pero buscan complementarlo para tener aún más éxito. Para solucionar la anterior problemática se elaboró esta investigación que permitirá el desarrollo de un modelo de Marketing Digital empleando el uso de tecnologías y herramientas especializadas para la segmentación de mercado.



METODOLOGÍA

Se utilizó la metodología de Diseño Centrado en el Usuario (DCU), es la aplicación en la que se practica la interacción persona -ordenador, se basa en la participación de las personas en busca de las necesidades del usuario por medio de procesos de diseño y evaluaciones, descubriendo la usabilidad y experiencia de uso, pasando por distintas etapas de diseño hasta llegar al usuario final. También se utilizó como método de medición una encuesta en línea de doce preguntas de opción múltiple elaborada en Google Forms, dirigida a las personas de dos AGEB en Villa de Álvarez del estado de Colima, con una población de 1721 habitantes en la AGEB 10021 donde incluye tres colonias y 2557 habitantes en la AGEB 10290 donde incluye dos colonias, la muestra fue de 278 personas. Gracias a la encuesta se concluyó que la mayoría de los encuestados esta entre los 15 y 30 años de edad, el 96% tiene un teléfono celular inteligente, el 92.7% de los encuestados respondió que si cuenta con acceso a internet lo cual no es limitante para hacer compras en línea y un 77.7% de los encuestados dijo que ha comprado por Internet, vemos que el porcentaje de las compras en línea disminuye a comparación de los usuarios que tienen acceso a internet  lo cual nos comprueba que existen varios obstáculos para hacerlo, uno de ellos es la falta de publicidad  y divulgación por parte de las PyMEs, un 32% de los encuestados también dicen que no hacen compras en línea por ser inseguras, esto le da un plus a nuestra intención ya que la permuta es directa con el cliente  y le da un grado más alto de confianza, el 94.3% de los encuestados expresan que siempre que hacen las compras en línea buscan los mejores precios, también es ventajoso para que las PyMEs  puedan ofrecer  sus productos sin que se eleve el precio a terceros. Entonces nos percatamos que los métodos utilizados son de buen provecho para el seguimiento y realización de la aplicación requerida por las PyMEs. Como resultante de los métodos utilizados realizamos el siguiente diseño en donde se plantea la descripción del Proceso paso a paso: Como primer paso seleccionaremos el producto a vender. Se tomarán 3 fotos desde diferentes ángulos del producto o se puede agregar imágenes desde la galería. Escribir el nombre del producto a vender. Se registrará una descripción específica del producto incluyendo medidas y/o peso. Se debe ingresar precio y existencia del producto a vender. Se registran los datos de contacto incluyendo la forma de pago, ya sea efectivo o tarjeta. Se genera una imagen o PDF incluyendo todas las especificaciones del producto. Se descargará o compartirá la imagen o el PDF generado.


CONCLUSIONES

Sobre los objetivos del proyecto concluimos que las herramientas tecnológicas que utilizamos si traen beneficios en cuanto al refuerzo en las PyMEs ya que encuentran menores barreras de mercado, lo que brinda un panorama donde tenga una mayor posibilidad de obtener clientes potenciales y por consiguiente generar mayores reducciones de costos ya que esto posibilita que empresas no tengan la necesidad de obtener un establecimiento de venta de sus productos y/o servicios al cliente de manera presencial. Se planteó el prototipo de la aplicación generalizando la descripción de sus procesos, interfaces, clases y/o módulos, que se tendrá un desarrollo innovador y fácil para las PyMEs a futuro.
Reynoso Ríos Marina, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

ESTUDIO DE LA BIOACTIVIDAD EN CONDICIONES ESTáTICAS DE CERáMICAS PIEZOELéCTRICAS BIOCOMPATIBLES


ESTUDIO DE LA BIOACTIVIDAD EN CONDICIONES ESTáTICAS DE CERáMICAS PIEZOELéCTRICAS BIOCOMPATIBLES

Reynoso Ríos Marina, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la incidencia de enfermedades asociadas al sistema músculo-esquelético ha ido en aumento, por dos factores: la alta frecuencia de ocurrencia de accidentes que conllevan al padecimiento de contusiones y fracturas, el segundo el incremento de la morbilidad de enfermedades degenerativas asociadas a la edad. Por lo anterior, se requiere el diseño, síntesis y caracterización de materiales que puedan ser implantados sin generar reacciones adversas en el tejido circundante. Uno de los cerámicos más estudiados para estos propósitos es la Hidroxiapatita (HAp), siendo ésta el fosfato de calcio termodinámicamente más estable al pH, temperatura, y composición del fluido fisiológico. Sin embargo, la velocidad de degradación del biocerámico no coincide con la velocidad de generación de nuevo tejido. Se han buscado alternativas usando mezclas para darle mayor tasa de reactividad. [Ramesh et al 2011, Belluci et al 2016]. El biovidrio (BG) es uno de los cerámicos más usados. El 45S5 que tiene el índice de bioactividad más alto de las composiciones del sistema cuaternario Na2O-CaO-SiO2-P2O5,  éste en contacto con el hueso, genera un enlace interfacial con fuerza mecánica comparable con la fuerza de la cerámica vítrea en volumen.  La piezoelectricidad de los huesos, se ha reportado que la estimulación eléctrica generada por la piezoelectricidad inherente del sistema óseo puede tener efectos positivos sobre el crecimiento y diferenciación de las células y el crecimiento de los tejidos [Rajabi et al 2015]. El bismuto es conocido como un metal verde por su baja toxicidad, este material tiene un comportamiento no dañino para las células, debido a la alta estabilidad de su estructura cristalina obtenido después del proceso de síntesis. Por tal motivo con la ejecución del proyecto de verano científico se planteaó el estudio del efecto de la adición de una fase bioactiva como la Silicocarnotita (85/15 Hidroxiapatita/vidrio bioactivo) en las propiedades eléctricas y bioactivas del piezoeléctrico base Bi, con el objetivo de identificar la contribución de cada material en el desempeño de los compósitos en fluido corporal simulado.



METODOLOGÍA

Síntesis de polvos La obtención de los polvos de Silicocarnotita se realizó a través de la mezcla de hidroxiapatita de origen bovino y vidrio bioactivo (45S5) en un molino de alta energía Spex, la mezcla fue sometida a un tratamiento térmico a 1220 °C por 5 hrs. El piezoeléctrico base Bi fue obtenido mediante la molienda en molino planetario de Bi2O3, TiO2 y Na2CO3,  se dejó secar por 12 hrs, se calcinó en una mufla Felisa a 920°C por 5 hrs, se molió en un molino Spex, y se tamizó para obtener partículas de un diámetro menor a 44μm. Fabricación de cerámicas densas Los polvos de BNT fueron molidos en Spex y tamizados para obtener partículas por debajo del MESH 350. Posteriormente en un mortero se mezclaron los polvos de BNT y SC en proporciones 100/0, 97.5/2.5, 95/5, 92.5/7.5 y 90/10. Para la conformación de los cuerpos en verde se pesaron 0.4g de polvo y se compactaron en una prensa uniaxial usando un dado de 10 mm de diámetro a una presión de 2MPa por 5 min, para obtener una mejor compactación se usó una prensa isostática a 25MPa por 10 min. Finalmente, los cerámicos densos se sinterizaron a 1140°C con un tiempo de sostenido de 5 hrs. Los cerámicos densos sinterizados se desbastaron hasta obtener un espesor de 700 mm, se pintaron electrodos de plata en cada cara de la pastilla y se recocieron en una mufla Felisa a 400°C por 1 hra. Caracterización de las muestras La distribución del tamaño de partícula de BNT puro, SC y  90/10 BNT/SC se midió tres veces con un difractómetro láser (HELOS / BR, Sympatec GmbH, Clausthal-Zellerfeld, Alemania). Las mediciones se realizaron utilizando una técnica RODOS para polvo seco, donde las muestras se sometieron a presión de aire a 0,2 bar. La caracterización estructural se realizó por difracción de rayos X con una radiación de CuKa monocromática (l = 1.5406 Å) operando a 40 kV y 44 mA. Los patrones de DRX se registraron entre 20 y 70º en una escala de q y 2q en pasos de intervalos de 0,02º con un tiempo de integración de 5s por paso. Para caracterizar y cuantificar los parámetros estructurales, el análisis Rietveld de los patrones de DRX se realizó utilizando GSAS®. La caracterización de la microestructura de las cerámicas sinterizadas, se realizó mediante microscopía electrónica de barrido, a un voltaje de aceleración de electrones de 10 kV y un detector de electrones retrodispersados. El proceso de biomineralización in vitro en las muestras cerámicas se estudió utilizando el fluido corporal simulado H8264 (Sigma-Aldrich, Alemania). La capacidad del compuesto cerámico para formar apatita después de la inmersión en la solución de Hank se evaluó siguiendo el estándar ISO / FDIS 23317: 2007 (E) para muestras de cerámica y polvos. Las cerámicas sinterizadas se sumergieron en 20 ml de solución de Hank y se expusieron durante 0, 3 y 6 días a 37 ºC.


CONCLUSIONES

Se obtuvieron un total de 12 cerámicos por composición, en un barrido de 0 a 10% de Silicocarnotita con pasos de 2.5%. Mediante XRD y SEM fue posible determinar que no se generaron fase secundarias o productos de reacción entre el BNT y la SC. Por medio de SEM y EDS fue posible confirmar la presencia de la SC en forma de núcleos de tamaños alrededor del BNT. Se evaluó la capacitancia y pérdida dieléctrica de las cerámicas fabricadas mediante dos equipos diferentes, Piezotest y analizador de impedancia, encontrando resultados similares por ambas técnicas. Los cambios morfológicos en la superficie de las cerámicas evidenciaron la formación de apatita después de la inmersión en solución de Hank.
Rico Calderon Elizabeth, Instituto Tecnológico de Morelia
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

CORROSIóN DEL ACERO EN ESTRUCTURAS DE CONCRETO HIDRáULICO CON RELACIóN A/C DE 0.45 Y 0.65.


CORROSIóN DEL ACERO EN ESTRUCTURAS DE CONCRETO HIDRáULICO CON RELACIóN A/C DE 0.45 Y 0.65.

Rico Calderon Elizabeth, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el concreto de refuerzo es uno de los materiales de construcción más usados en las grandes urbes; sin embargo, si no se tienen las medidas adecuadas éste concreto puede deteriorarse por la influencia de factores ambientales que están presentes en nuestra vida cotidiana: como el dióxido de carbono, iones cloruro, sulfatos, etc., provocando la corrosión del acero lo que a su vez  disminuye la vida de servicio de nuestras estructuras y por lo cual, también aumentan los costos por restauración. 



METODOLOGÍA

Para poder realizar cualquier prueba de durabilidad se debe caracterizar todo el material con el cual se van a realizar los especímenes, por lo cual se sacaron Masas volumétricas (Seca y varillada), densidad, porcentaje de absorción, tamaño máximo (Grava) y módulo de finura (Arena) para poder obtener consecuentemente el diseño del ACI. El diseño del ACI (NMX-C- 155-ONCCE-2014) permite obtener un diseño de mezcla óptimo aprovechando de forma eficiente las propiedades de los materiales. Después de hacer el diseño se utilizan las cantidades que nos arrojó el método del ACI para realizar especímenes de 10cmx20cmx5cm; en éstos diseños se toma en cuenta el uso del 0.45 y 0.65 de relación de agua/ cemento con el uso para ambos de grava triturada por lo cual se obtienen masas de los agregados distintas ya que el agua y el cemento se adaptan a ésta relación.  Después de hacer la mezcla se pasa a realizar la prueba de revenimiento (NMX-C-156-ONNCCE-2010) esta va a tener límites de tolerancia dependiendo para lo que se diseñe. Finalmente, se procede a vertir la mezcla dentro de los moldes (con engrasamiento previo; además, en nuestros especímenes se insertaron dos varillas de acero (Corrugadas grado 42 de   de diámetro con área de exposición de 21.7 ) y en medio una varilla de grafito. Al finalizar su fabricación se colocaron los especímenes dentro de bolsas de plástico para evitar que el acero que está expuesto empezara a oxidarse; después del mes se pusieron en curado de cloruro de sodio al 3.5% de su peso. Para conocer la velocidad de corrosión por polarización lineal (TxDOT 0-4825-1) es necesario preparar una solución salina, lo cual es vital ya que nos asemeja la zona de las costas, es decir, dónde el concreto reforzado se encuentra en las condiciones más agresivas por cuestión de la alta salinidad. Otra parte importante para conocer la corrosión es el armado de la celda electroquímica con los siguientes elementos: Electrodo de Referencia, grafito.  Electrodo de Trabajo, varilla de acero de 3/8 de diámetro  Contraelectrodo, barra de acero anexa de acero grado 42. Solución salina, al 3.5% de NaCl en peso En estas pruebas testigo se utilizó la inmersión en ésta solución salina durante un mes como equivalente con la exposición al agua de mar para observar el fenómeno de la corrosión por ciclos. El intervalo de prueba se realizó de -0.02 V a +0.02 V con una velocidad de barrido de 0.125 mV/s con un equipo de Gamry, un electrodo de referencia de grafito (ASTM-G5, 2004) y como contra electrodo una barra de acero grado 42. Es importante mencionar que antes de realizar la prueba es necesario verificar las perturbaciones eléctricas no sean mayores a ±20 mV en el potencial de corrosión o intensidad de corriente (CYTED-DURAR, 1998). Para darle valores numéricos a la prueba hay que realizar la gráfica corriente vs voltaje que nos da directamente el sistema, el mismo que nos arroja el resultado de la resistencia total a la polarización la cual se divide entre el área atacada para obtener la resistencia a la polarización en Ω/  (Rpl). Se debe tener en cuenta que en ocasiones se pueden tener valores altos de las pendientes y esto es debido a la alta resistencia a la polarización lo cual significa que el acero de refuerzo va a estar en mejores condiciones. Para obtener la conversión de los valores de la velocidad de corrosión se debe hacer uso de la Ley de Faraday (ASTM-G102, 1999). Al haber obtenido la Resistencia a la Polarización Lineal se procede a calcular la densidad de corriente de corrosión mediante las ecuaciones de Stern y de Geary. Si se cuenta con el valor total de la corriente, la densidad de corriente se calcula con (ASTM-G102, 1999). Finalmente se aplican las siguientes fórmulas para conocer la velocidad de corrosión en términos de velocidad de penetración.


CONCLUSIONES

Para obtener los resultados de la velocidad de corrosión en nuestras muestras testigo (0.45 y 0.65) tuvimos qué basarnos en la red Durar (1998) para conocer la velocidad de corrosión. Ambas mezclas muestran en la primera etapa resultados favorables a la corrosión, sin embargo, las gráficas no nos muestran una alta variación entre las etapas realizadas a distintas edades, esto es debido a los cambios de las condiciones del sistema electroquímico. En cuanto a la Testigo 0.65, ésta empezó con valores similares a la testigo 0.45, es decir, con baja velocidad de corrosión, sin embargo, mientras más duraba en la solución salina su gráfica sí mostró cambios significativos en la curva por lo cual, el acero de refuerzo se estaba corroyendo con mayor velocidad. Concluimos que la relación agua/ cemento es muy importante, a menor relación hay mayor resistencia de la estructura; hablando en aspectos económicos, la mezcla de 0.45 va a tener un costo inicial más alto, sin embargo, la prueba de corrosión nos muestra que si se construye con 0.65 habrá un gasto inicial bajo, sin embargo, se tendrá que dar un mantenimiento continuo para evitar la corrosión.
Rico Rodriguez Rubén Iván, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANáLISIS Y MEJORA DE LOS PROCESOS DE MANUFACTURA POR MEDIO DE ENERGíAS RENOVABLES EN LA “BENEFICIADORA DE HULE EL FéNIX, S.A. DE C.V.”.


ANáLISIS Y MEJORA DE LOS PROCESOS DE MANUFACTURA POR MEDIO DE ENERGíAS RENOVABLES EN LA “BENEFICIADORA DE HULE EL FéNIX, S.A. DE C.V.”.

Rico Rodriguez Rubén Iván, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

Debido a la región y por ende la localización de las instalaciones de la comisión federal de electricidad (CFE) del municipio; en donde estas mismas requieren de un mantenimiento especial y constante, para qué el servicio funcione de manera eficiente, pero en los últimos meses ha sido todo lo contrario, afectando en gran manera la eficiencia y distribución de la energía eléctrica, y en lo que respecta a la empresa Beneficiadora de hules el Fénix, perjudicando su producción y eficiencia de trabajo en la misma. Esto se debe de que en un cierto día de la semana, el suministro de la energía eléctrica se ve reducida, generando variaciones de voltaje, u otros inconvenientes; ocasionando a la empresa no pueda llevar a cabo su producción de hule de manera correcta, ya que la energía eléctrica no alimenta el suficiente voltaje a los equipos y/o motores, afectando la vida útil de los mismos, por qué lo que los voltajes y cargas eléctricas no son los correctos. En consecuencia a este problema, la empresa no tiene más opción que detener completamente sus operaciones, afectando su eficiencia en productividad y competitividad al perder la producción del día y a su vez tener una pérdida monetaria.   



METODOLOGÍA

Para la metodologia se realizo un diagnostico enfocado en el primer objetivo, que era investigar las caracteristicas climatologicas y atmosfericas de la zona que den ventaja para el uso de panels solares. Para ello, se estuvo investigando de diferentes fuentes que revisaran los estados climatologicos del municipo las Choapas, a lo que se concluyo que por la zona los inviernos son cortos, calinetes, mayormente despejados y mojado mayormente durante el año. Tomando que la ventaja de cielos despejados en la zona, la energia solar que se da en la localizacion de la empresa, dan un punto mas a favor para el uso de paneles solares. Recibiendo durente el periodo mas resplandeciente del año se reciben entre 6,3 a 6,8 kWh/m2 aproximadamente, y esto ya es un excelente incidencia solar durante ese periodo y ya durante el periodo mas ocscuro de año se reciben entre 4,4 a 4,8kWh/m2 y que aun asi es muy considerable ese promedio ya que es el minimo para la implementacion de paneles. Tomando en cuenta las variaciones y cambios climatologicos y atmosfericos que se puedan presentar.  Una vez revisado el primer objetivo, lo que siguio fue averiguar que paneneles fotovoltaicos son los mas convenitentes para usar en la empresa y como existen difecentes celdas fotovoltaicas, siendo las de tipo monocritalinas presentan mayor efectividad (15 a 18%), siguido de las policristalinas (12 a 14%) y las de menor eficiencia son las amorfas (menor a 10%), siendo estas ultimas no aptas para su implementacion. A lo que se investigo a una empresa en México que se encarga de distribuir paneles solaraes hechos en Alemania, que son implementados de una manera diferente o lo que comunmente se realiza la instslacion, estos paneles son instalados como fachada y sutituye las tejas comunes. Como ventajas, la intalacion de estos paneles en forma de tejas pueden llevar cualquer orintacion a el sol sin necesidad de tener un angulo especifico, teniendo una libertad angular de 4 hasta 90 grados, la instalacion de estos lo realiza la misma compañia que los distribuye, alta capacidad de produccion, cuanetan con efecto autolimpiante, resistentes ante huracanes, cuentan con una variedad de tejas, son lijeras ocupando 14 kg por metro cuadrado, dan una vista una presencia mas amplia. A lo siguente, comunicarse con la empresa para averiguar que paneles serian los mas convenietes para este caso. La recomendacion de su catalogo fueron los Quad-Economy, son celdas policristalinas, muestran una eficiencia promedio al 18% (mayor a que se tiene registrado), con una capacidad de 39.6W por teja ó 158Wp/m2, un voltaje de circuito abierto: 5.76V, corriente de corto circuito de 8.8A y con un tiempo de eficiencia de 25 años con 80% de capacidad nominal.  Ya que en otras empresas que se encargan de esta tecnologia, se tiene que instalar paneles acoplados al techo, que tengan estrictamente un angulo de instalacion, su eficiencia se ve afectada por los cambios climatologicos, a mayor mantenimento, etcetera, a en comparacion a esta distribudora que dan mas ventaja ante estas caracteristicas. Como ultimo, en la empresa se le ralizo una encuesta a emplados de piso y a otras personas de la empresa que estuveran mas concientes sobre el tema de la electricidad y que al mismo tiempo mostrar la propuesta de usar paneles, recomendado a la empresa que se estuvo investigando y contactando para saber mas del tema. A lo que se obtuvo una mayor aprovacion a la idea por parte de los trabajadores concientes del tema. Haciendo entrada a mi hipotesis, en que la empresa haga conciencia en impementar alternativas energeticas para que sus procesos y areas funcionen de manera optima.


CONCLUSIONES

Para esta parte, que la empresa haga por su parte tambien una investigacion mas a fondo y que considera en implementar este tipo de tecnología para generar su propia electricidad y al mismo tiempo pueda reducir costos de electricidad de manera eficiente, y que al ser ejecutada esta idea, que las espectativas y resultados sean los esperados a un largo plazo, afectado de manera positiva la productividad de la empresa.  
Rico Valenzuela Pedro Arturo, Instituto Tecnológico de Culiacán
Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara

EVALUACIóN DE LA RESISTENCIA AL IMPACTO DE PIEZAS DE ROTOMOLDEO A PARTIR DE PE RECICLADOS Y VIRGEN.


EVALUACIóN DE LA RESISTENCIA AL IMPACTO DE PIEZAS DE ROTOMOLDEO A PARTIR DE PE RECICLADOS Y VIRGEN.

Canales García Rodolfo, Instituto Tecnológico de Morelia. Rico Valenzuela Pedro Arturo, Instituto Tecnológico de Culiacán. Asesor: Dr. Milton Oswaldo Vázquez Lepe, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente la industria al elaborar piezas por el proceso de rotomoldeo utiliza material pulverizado 100% virgen. Se plantea llegar a un equilibrio en donde se varie material reciclado en forma de hojuela con material virgen sin afectar las propiedades mecánicas a las cuales las piezas en su practica pudieran llegar a ser sometidas.



METODOLOGÍA

Para la preparación de nuestras mezclas se utilizaron tres tipos de PE reciclado y PE en polvo virgen. Y los porcentajes de las mezclas fueron de 100% virgen, 60 virgen-40 reciclado, 50 reciclado-50 virgen, y 40 virgen–60 reciclado. Elaborando así tres piezas por tipo de PE reciclado. Se utilizo el equipo de rotomoldeo para la elaboración de las muestras, el proceso se llevo a cabo en caliente y frio con 30 min en cada parte del proceso. Se elaboraron un total de 10 piezas . Despues, las muestras se cortaron manualmente en 10 secciones por muestra utilizando como cortadora una segueta. De cada pieza se utilizaron 4 caras que fueron enumeradas y estas fueron divididas en dos partes iguales superior e inferior. Para poder tener las probetas fue necesario utilizar un equipo de compresión y suaje para pruebas de impacto y otro de tipo A4 para pruebas de tensión. Despues, para los ensayos de impacto se utilizo la maquina de impacto tipo charpy; y previamente se prepararon las probetas de acuerdo a la norma realizando una muesca, obteniendo así un ancho de 10.16mm. En esta maquina obtuvimos la resistencia de cada una de las probetas. Mientras que para la realización de estas pruebas fue necesario utilizar una maquina de ensayos universales, la probeta es sujeta por las mordazas del equipo para después proceder a comenzar la prueba, cada prueba fue a 1kN y a 5mm/min.


CONCLUSIONES

De acuerdo a las evaluaciones mecánicas a las que fueron sometidas nuestras probetas se observo que resiste mejor el impacto cuando se tiene material reciclado en la mezcla con material virgen. Mientras que en las evaluaciones de tensión presenta mejores propiedades el material 100% virgen ,en los materiales compuestos se ve afectada en gran medida ya que la composición no es homogénea, dando como resultado zonas débiles en la pieza. Por lo general las piezas elaboradas por rotomoldeo no están sujetas a tensión por lo cual se ven beneficiadas en su tenacidad y de acuerdo a su aplicación se variaría la cantidad de reciclado para obtener mayores propiedades mecánicas de impacto sacrificando la porosidad de la pieza final.
Rincon Herce Jackelyne, Instituto Tecnológico de Querétaro
Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)

FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA


FABRICACIóN DE PRóTESIS DE RODILLA MEDIANTE MANUFACTURA ADITIVA

Cebreros Arellano Kenya Fernanda, Instituto Tecnológico de Sonora. Pinto Diaz de Leon Patrick, Universidad Autónoma de Baja California. Rincon Herce Jackelyne, Instituto Tecnológico de Querétaro. Asesor: Dr. Juan Manuel Alvarado Orozco, Centro de Ingeniería y Desarrollo Industrial (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El cáncer infantil es la principal causa de muerte por enfermedad en mexicanos entre 5 y 14 años de edad, conforme a las cifras preliminares en 2013 reportadas en el Sistema Estadístico Epidemiológico de las defunciones (SEED). Entre estas cifras se encuentra el osteosarcoma que es el cáncer más común" que afecta a personas jóvenes de entre 10 y 30 años, donde se detectan entre 100 y 150 nuevos casos al año en México. Se desarrolla principalmente en los huesos largos, con mayor frecuencia en los de las piernas, pero a veces también se presenta en los huesos de los brazos o en la pelvis. Este cáncer suele desarrollarse a partir de los osteoblastos (son las células del hueso encargadas de sintetizar la matriz ósea, por lo que están involucradas en el desarrollo y crecimiento de los huesos), por esto existe una mayor incidencia de este cáncer en los niños que están en el proceso de crecimiento y como la mayoría de los casos de osteosarcoma afecta a los huesos largos como el fémur, genera un problema en el funcionamiento de la rodilla, creando la necesidad de una prótesis. Se tienen datos de que en México se presentan 3 casos por cada 100 mil habitantes de reemplazo de rodilla al año, esto comparado con los 125 nuevos casos promedio que se suman anualmente es muy poco. Esto se debe a que la operación es muy costosa y que la mayoría se van al extranjero a realizarse la operación. Cabe mencionar que el costo de la operación dentro del país es menor comparado con otros. En México no existe la producción de prótesis, al tener que importar la prótesis desde otro país encarece el costo final de la operación.  Por esto nace el interés y la necesidad de crear una infraestructura para la fabricación de prótesis, reduciendo el costo de la prótesis, y poder recurrir a los hospitales mexicanos donde se hacen estas operaciones ayudando a la economía del país desde ambos sectores. Otra inquietud es que estas prótesis importadas solo se pueden conseguir en los tamaños de: grande, mediano y chico. La manufactura aditiva es una opción viable para la fabricación de piezas de geometrías complejas y personalizadas, como lo es la prótesis. Por este motivo se propone como buena opción para la fabricación de la prótesis, permitiéndonos desarrollar una prótesis adaptada a la medida que requiera nuestro cliente.



METODOLOGÍA

El proyecto en el que colaboramos se divide por tareas y actividades específicas estas son: en el primer año tenemos el diseño, modelado, análisis, simulación, optimización de procesos y fabricación, funcionalidad de la superficie y prueba biológica; en el segundo año tenemos las pruebas mecánicas y su implementación en el mercado y por último en el tercer año se trabajará en el rediseño y optimización de la prótesis. Nosotros estuvimos colaborando en las etapas de: diseño, modelado, análisis, simulación, optimización de proceso y fabricación. En la parte de diseño y modelado, se tomó como base del diseño una prótesis fabricada en titanio que ya es implantado en niños con cáncer en México, por reingeniería se escaneo en 3D para dimensionar la geometría exacta y a partir de esto se hizo el modelado en 3D en el software CAD (SOLIDWORKS). Posteriormente se procedió a la parametrización en SOLIDWORKS, donde se crearon tablas con diferentes datos de altura y peso de los niños que determina las dimensiones óptimas para cada rango de edad para la prótesis. El análisis FEA es una simulación mecánica de los elementos antes de su fabricación, mediante un software CAE que nos permite evaluar y simular el diseño de la prótesis. En este software llamado ANSYS podemos escoger cualquier material que este en su librería o bien buscar las propiedades físicas y químicas del material y agregarlo, se buscaron diferentes materiales y se procedió a agregarlos a una librería nueva, esto con el fin de definir el material más adecuado para la prótesis. También se puede hacer un análisis con varios materiales en un mismo proyecto, y así encontrar la mejor combinación de materiales para la prótesis. Antes de pasar a la fabricación se elige el proceso adecuado y para piezas metálicas, actualmente se utiliza la tecnología de cama de polvos (DMLM), estuvimos específicamente trabajando con un equipo de la empresa Concep Laser, con el modelo M2. Nos familiarizamos con el proceso que esta tecnología usa en la fabricación de piezas, donde se tienen varias etapas: preparación de datos, operación del equipo, post-proceso (varias opciones del post-proceso.). En la parte de preparación de datos se utilizaron softwares tales como materialise (MAGICS) para orientar y añadir los soportes necesarios para lograr la mejor impresión de la prótesis, buscando optimizar el uso del material y evitando un post-proceso largo y complejo. Hablando del post-proceso tenemos varias formas de remover las piezas creadas por MDLM de su plato de impresión, la más sencilla es con herramientas de trabajo manual, pero cuando están muy adheridas al plato se tiene que proceder a cortarlas con un equipo maquinado convencional. Cuando estuvimos involucrados en la parte del proceso de la máquina, tuvimos que tener medidas de seguridad, se debe usar un equipo de seguridad conformado por mascarilla facial, bata y botas de seguridad, teniendo el mayor cuidado con el polvo metálico con el que se trabaja, cuando se trabaja con titanio, este tiene un alto grado de inflamabilidad.


CONCLUSIONES

Nos enfrentamos con diferentes problemas en el desarrollo de este proyecto, pero estos problemas nos hicieron reforzar los conocimientos que teníamos respecto a los temas con los que se trabajaron. A lo largo de esta estancia tuvimos tareas grupales e individuales, en todas trabajamos en la realización o mejoramiento tanto de los manuales de operación de la M2 como de los software que utiliza para la preparación de datos, modelado y el análisis FEA. También presentamos una propuesta de optimización de la prótesis y creamos una placa de probetas que evalúa las capacidades de impresión del equipo M2 que se ubica en el consorcio CONACYT en manufactura aditiva.
Rios Beltran Arturo, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra

DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.


DESARROLLO E IMPLEMENTACIÓN DE UN SISTEMA PARA EL CONTROL DE LA BIBLIOTECA EN LA UNIVERSIDAD POLITÉCNICA DEL MAR Y LA SIERRA.

Gómez Lizárraga Yesica, Universidad Politécnica del Mar y la Sierra. Quintero Gandara Emmanuel, Universidad Politécnica del Mar y la Sierra. Rios Beltran Arturo, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Abraham Hi Rivera, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En la UPMyS se cuenta un espacio asignado como biblioteca en el cual durante el ciclo escolar 2017-2018, la institución contó con un total de 1,154 libros y para servicio de las Carreras de Ingeniería Agroindustrial, Ingeniería en Tecnologías de la Información y Licenciatura en Negocios Internacionales. En el ciclo 2018 - 2019 se abren 4 carreras adicionales (Licenciatura en Administración de empresa turísticas, Ingeniería en Producción animal, Ingeniería en Agrotecnología y la Licenciatura en Fisioterapia todo esto obligó a la UPMyS a hacerse de más acervo bibliográfico, así como de buscar apoyo para la construcción del edificio de biblioteca. Actualidad se está terminando el edificio de biblioteca de la UPMyS, que contara con equipo de cómputo, muebles, y estantes con un mayor número de acervo bibliográfico, por todo esto la biblioteca ya no podrá ser administrada por una sola persona, ni de la misma manera en la que ha estado llevando control de las existencias, prestamos de los libros, ya que estos se llevan a cabo mediante una libreta en la que la persona encargada hace las anotaciones correspondientes, este tipo de practica incurre en el descontrol, pues en ocasiones no sabe al momento a quien se le presto un ejemplar, así como el hecho de cuando  alumnos o profesores buscan un ejemplar en específico la búsqueda manual en los registros lleva demasiado tiempo, problema que se acrecentara al concluir dicha obra y aumentar el número de ejemplares. 



METODOLOGÍA

Para el desarrollo de este proyecto se utilizó la metodología de desarrollo de software de tipo Cascada, ya que es metodología sencilla de llevar acabo y se adapta bien a proyectos no mayores de a 6 meses. El proyecto fue dividido en etapas para su desarrollo puesto que así es como lo marca esta metodología de cascada, no es posible iniciar una etapa sin haber concluido en la que se esta trabajando. Se dividió el proyecto en dos fases; Fase 1: RED y Fase 2: Desarrollo de software, a su vez cada fase se dividio en 5 etapas; Análisis, Diseño, Desarrollo, Implementación y Prueba. Las Fases pueden trabajarse de forma simultanea mas el orden de las etapas en cada fase tiene que ser secuencial. Fase 1: Red. Análisis. En esta etapa sea analizo detalladamente la situación actual de la Red de comunicaciones de la UPMyS. Diseño. En esta esta se selecciono el tipo de tecnología que se utilizaría para llevar la conexión de red hasta el nuevo edificio, así como el diseño de la red y las VLANS necesarias. Desarrollo. Se llevaron acabo configuraciones de forma virtual para probar el desempeño y comportamiento de la red. Implementación. Se implementaron las tecnologías necesarias, así como los trabajos físicos y lógicos para el funcionamiento óptimo de la red. Pruebas. Una vez instaladas y configuradas las tecnologías se llevaron acabo unas series de pruebas dando así la finalización de la primera fase. Fase 2: Desarrollo de software. Análisis. En esta etapa sea analizo detalladamente los procesos de biblioteca  de la UPMyS. Diseño. En esta esta se seleccionó el tipo de tecnología que se utilizaría para desarrollar el nuevo software de biblioteca acorde a los procesos de este departamento. Desarrollo. Se plasma en código el diseño realizado en la etapa de diseño. Implementación. Se implemento el software de biblioteca. Pruebas. Una vez instalado el software y se pasa a esta etapa para cerciorarse que funciona de forma correcta.


CONCLUSIONES

En conclusión hemos analizado el diseño de cada parte del sistema bibliotecario de una forma metódica, donde cada integrante ha aclarado propios puntos de vista para un resultado final con el sistema, así como también cada función de ello para luego hacer pruebas identificando errores y funciones faltantes.
Rios Campos Adriana, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

MAZATLáN SITIO WEB


MAZATLáN SITIO WEB

Rios Campos Adriana, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Dar a conocer la cultura de Mazatlán, Sinaloa ya que dentro de la ciudad se encuentran diversos lugares históricos de los cuales sería de gran interés visitar por parte de los turistas de otras ciudades, países o así mismo locales. Este sitio web para turista es de gran ayuda para aquellas personas que les guste vacacionar en esta ciudad ya que podría ser que no sepan a donde llegar o no saben que cultura se tiene así como sus lugares históricos. Este sitio web los ayudara a dar una vista de todo lo que se encuentra en la ciudad para que así cuando se llegue a ella tener una idea de lo que se quiere conocer. Ya que hay sitios web que en su contenido no muestran la historia real o imágenes inéditas sobre los lugares. Dar a conocer la cultura y lugares históricos de la ciudad de Mazatlán, Sinaloa a los turistas por medio Mazatlán Sitio Web.



METODOLOGÍA

Para eso se realizará un sitio web donde se muestre lo que es Mazatlán a todos aquellos turistas que estén interesados en saber sobre la historia de monumentos, gastronomía, centro histórico, flora y fauna más emblemáticos que se encuentren. Para poder realizar esto se realizó la investigación de los lenguajes con los que programaremos el sitio web que serán HTML Y CSS esto se realizó la primera semana. Se tuvo un curso de (responsive design) en línea se realizó durante dos semanas. Para eso se utilizó la metodología scrum, también su maquetación de este mismo para ver visualmente como va quedar se realizó durante dos semanas, mientras en la programación del sitio web se realizó con (responsive design) donde fuera funcional para escritorio, tablet y móvil todavía está en proceso, e igualmente está en proceso el saber cuáles pueden ser los problemas futuros y como mejorar este sitio web llamado testing.


CONCLUSIONES

Durante la estancia de verano se adquirieron los conocimientos de programación web para realizarlo en (responsive design), como maquetar adecuadamente para la visualización de la página para que llame la atención de este a las personas que lo visiten, sin embargo, todavía está en proceso de terminación, se espera que se termine y sea visualizado para que las personas puedan visualizar el sitio web y así tener una mejor experiencia en su visita a Mazatlán, Sinaloa.
Rios Cespedes Wendy Yamiled, Universidad Autónoma de Guerrero
Asesor: Dr. Juan Manuel Rodriguez Torres, Universidad de Guanajuato

IMPACTO DE LA VEGETACIÓN EN LA MODIFICACIÓN DE ISLAS DE CALOR


IMPACTO DE LA VEGETACIÓN EN LA MODIFICACIÓN DE ISLAS DE CALOR

Rios Cespedes Wendy Yamiled, Universidad Autónoma de Guerrero. Asesor: Dr. Juan Manuel Rodriguez Torres, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A nivel mundial, el territorio ha experimentado un proceso de urbanización que cambia de manera sustancial las condiciones físicas, climatológicas, cobertura y uso de suelo al aumentar las áreas construidas con materiales impermeables y disminuyendo consecuentemente las zonas de vegetación, por lo que se modifica, el balance de energía, los hábitats naturales y el valor estético del paisaje. Las Islas de Calor Urbano (ICU), se define como el aumento antropogénico de la temperatura del aire superficial en zonas urbanas densamente construidas. En algunas ciudades de la República Mexicana, este fenómeno en los últimos años se hace presente cada vez más, debido a la disminución de áreas verdes entre otros factores que contribuyen a su existencia como la acumulación de calor en estructuras, pavimentos, los automóviles, etc. La mayor problemática que se presenta esta relacionada con la salud de las personas, la ausencia de calor provoca la disminución de viento por lo que consecuentemente se genera contaminación, afectando la vida de los residentes. Así tambien esto recae sobre la economía, debido a su aumento de energía necesario para la climatización de los edificios.



METODOLOGÍA

Esta investigación fue teórica, por lo que se llegó a la revisión de fuentes bibliográficas de diferentes artículos. Se consulto diferentes definiciones sobre las Islas de Calor Urbano, así como también de como la vegetación modifica el entorno de una ciudad. Seleccionando y comparando información de diversos autores. Comparando métodos de identificación de las ICU en diversas ciudades de la República Mexicana. Encontrando diferencias existentes entre una isla de calor y otra, en relación con su intensidad, forma y calor antropogénico, se suele coincidir con diversos aspectos comunes y patrones que se suelen repetir en casi todos los casos. Una vez concluido se comparó las definiciones de tipos de ICU. El impacto que genera la vegetación en el entorno urbano, modificando en la parte ambiental, social y en lo económico. Trayendo consigo beneficios de mejoramiento como una mejor calidad del suelo, mejorando la calidad del aire y la retención de humedad. Se identifico como es que influye la problemática de la vegetación en México en los espacios urbanos, mencionando los problemas que enfrenta las áreas verdes.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las Islas de Calor Urbano y ponerlos en práctica en la detección de este fenómeno dentro de las zonas urbanas. Así como tambien como la vegetación modifica el medio urbano y adquiriendo alternativas para la reducción. Con la investigación de este fenómeno, es tomar conciencia de que podemos buscar alternativas de materiales de construcción; promoviendo más extensas las áreas verdes en las zonas urbanas para la reducción.
Rios Diaz Brandon Miguel, Instituto Tecnológico de Iguala
Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala

ELABORACIÓN Y ACTUALIZACIÓN DE MÉTODOS DE TRABAJO EN EL ÁREA DE SACO


ELABORACIÓN Y ACTUALIZACIÓN DE MÉTODOS DE TRABAJO EN EL ÁREA DE SACO

Rios Diaz Brandon Miguel, Instituto Tecnológico de Iguala. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El estudio de métodos  es una de las más importantes técnicas del estudio del trabajo, que se basa en el registro y examen crítico sistemático de la metodología existente y proyectada utilizada para llevar a cabo un trabajo u operación en pocas palabras se basa en  realizar un estudio de micro movimientos que consiste en dividir el proceso de producción en pequeños movimientos para poder calificarlos como eficientes o no . Debido a la actualización del sistema de retribución del personal de la empresa TRAJES INIGUALABLES DE S.A DE C.V se llevaron a cabo unos cambios en los métodos de las operaciones, en la elaboración del saco y pantalón. Se cambiaron algunos estándares de tiempo en las operaciones, se movieron algunas operaciones de lugar debido a la distribución de la planta, todos estos cambios implican la necesidad de actualizar los métodos de trabajo. Por consiguiente, es necesario la actualización de los métodos de trabajo, y a falta de algunos por cambios u operaciones nuevas la elaboración de estos.



METODOLOGÍA

Se realizaron  observaciones visuales en la empresa TRAJES INIGUALABLES DE S.A DE C.V para el conocimiento del proceso de fabricación de sacos, de las cuales se procedieron a identificar y conocer cada una: 1) Delanteros y espalda 2) Mangas 3) Cuellos 3) Vistas 4) Ensamble 5) Terminado 6) Plancha  7) Revisado final Ya identificando las  secciones , se procedió a conocer el proceso más a fondo con ayuda del ingeniero a cargo de la producción, supervisores  y operarios se fueron identificando las operaciones  de las secciones , se realizó un diagrama de operaciones de proceso , el cual nos da la ventaja de  visualizar más a detalle el proceso , poder explicar el proceso  a otros e incluso  identificar cualquier problema que se  llegara a presentar en la línea de producción , por lo tanto es correcto decir que un diagrama de operaciones es una necesidad para la documentación mejor de un programa completo. Concluido el diagrama de operaciones de proceso, se llevó a cabo una distribución de planta debido a que la línea de producción de saco es muy extensa se procedió a la elaboración del layout de la primera sección, la cual se tuvo que hacer un recorrido, por toda la sección e identificación de la localización de cada objeto que abarca, cabe mencionar que para esto realizaron medidas de cada espacio, entre otras herramientas para el mejor desarrollo de la actividad. Una  vez terminado, se realizó un estudio de tiempos sin estándar en diferentes secciones , esto para tener conocimiento de las prendas que produce el operario por hora, cabe mencionar que cada operación maneja un tiempo estándar que son los tiempos elementales que se obtienen mediante estudios y que se almacenan para usuarios posteriores , esto también para sacar la eficiencia del mismo, esta herramienta nos ayuda a una mejor producción y mejor productividad en el proceso ya que en la actualidad la mayoría de las empresas u organizaciones medianas y grandes en México realiza estudios y aplicaciones para aumentar su productividad. Sin embargo, frecuentemente se confunden los términos productividad y producción. Productividad es la relación cuantitativa entre lo que producimos y los recursos que utilizamos y producción se refiere a la actividad de producir bienes y/o servicios. Por consiguiente se llevó acabo el estudio de métodos,  que es una de las más importantes técnicas del estudio del trabajo, que se basa en el registro y examen crítico sistemático de la metodología existente y proyectada utilizada para llevar a cabo un trabajo u operación en pocas palabras se basa en  realizar un estudio de micro movimientos que consiste en dividir el proceso de producción en pequeños movimientos para poder calificarlos como eficientes o no .La empresa TRAJES INIGUALABLES DE S.A DE C.V  tenía unos métodos de trabajo de operaciones que  debido a la actualización del sistema de retribución del personal, se llevaron a cabo unos cambios , así como también se llevó acabo la actualización del formato de estructuración del método ,  como tal presentando una propuesta nueva , se consiguió que se quedara el formato presentado , continuando así la realización de los métodos por actualizar.


CONCLUSIONES

Durante la estancia de verano se logro adquirir conocimientos prácticos y teóricos en el área de producción asi como  ponerlos en práctica con las técnicas de los métodos de trabajo, diagrama de operación, toma de tiempos sin estándar, la producción que brinda un operario por hora, por día etc.., distribución de planta, sin embargo, se logró también minimizar el tiempo requerido para la ejecución de trabajos, al ser un trabajo extenso aún se encuentra en la fase de realización de nuevos métodos de trabajo y se espera que al culminar el trabajo, los métodos sean más entendidos , sencillos y eficientes con la finalidad de aumentar la productividad de la empresa TRAJES INIGUALABLES DE S.A DE C.V.
Rios Garcia Karla Zulema, Universidad de Sonora
Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas

REVISIóN DEL ESTADO DEL ARTE DE BTC EN MAMPOSTERíA PARA VIVIENDA CLIMáTICAMENTE INTELIGENTE


REVISIóN DEL ESTADO DEL ARTE DE BTC EN MAMPOSTERíA PARA VIVIENDA CLIMáTICAMENTE INTELIGENTE

Rios Garcia Karla Zulema, Universidad de Sonora. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad la utilización del  BTC es mínima en ciudades urbanizadas, ya  que no existe una norma que rige la resistencia que debe tener, sin embargo es apto para la construcción de una  vivienda. Su material natural ofrece un bajo costo en su elaboración. Además de presentar resistencia a comprensión, tiene propiedades térmicas que brindan un confort a los habitantes de la vivienda que el bloque de concreto no puede ofrecer y lo que es más importante enmarca el contexto de sustentabilidad. Existen diversas formas de diseños, cada uno permite el aumento de ciertas propiedades, tal es el caso del BTC utilizado en la Vivienda climáticamente inteligente ubicada en la UNACH, en donde en vez de ser un paralepipedo convencional se le agregan perforaciones convirtiéndose en bloque de alta resistencia, así mismo existen varios diseños articulados que permiten la distribución de energía, provocada por ondas sismológicas.



METODOLOGÍA

Las construcciones con tierra han sido el modo de construcción más antiguo utilizado por nuestros antepasados, siendo uno de los mejores materiales que son capaces de adaptarse al contexto de construcción sustentable. Existen diferentes formas de trabajar la tierra en las construcciones de viviendas, como lo es el ejemplo de el bloque de tierra comprimida. Bloque de Tierra Comprimida Se obtienen a partir de la mezcla de tierra (82,75%), arena (6,20%) y cemento (11,03%), para luego ser compactada. El material debe ser cernido previamente al mezclado y estabilizado"(Revista Facultad de Ingeniería, UP, 2011). Sin embargo  se han estudiado los diferentes diseños que se pueden hacer utilizando como material principal la tierra, tal cual como los BTC articulados. Éstos son "bloques fabricados como elementos básicos de un sistema constructivo de encajes, esto permite tener una fijación sin mortero". (Juan C. Calderón, 2013). Ellos funcionan tal y como lo hace un lego de juguete, es decir existen dos tipos de cara en el bloque, una con perforación para encajar exactamente al bloque debajo de él y del otro lado la articulación que sujetará al BTC de arriba. La ventaja de la utilización de este tipo de bloque articulado es implementar el mismo proceso de producción de un BTC convencional, pero al diseñarlo con articulaciones que permitan encarjar una pieza con otra, asegura la estabilidad del muro sin la utilización de mortero. Estos diseño se logran al utilizar una prensa mecánica similar a CINVA- RAM, en donde el molde ya contiene las perforaciones o articulaciones que se le agregaran al bloque.  Para los siguientes bloques no se encontraron las especificaciones en sus dimensiones o estudios que demuestre la resistencia a compresión. Sin embargo se crearon bloques a escala, para optar por la mejor opción al evitar el desplazamiento horizontal de cada modelo representando el movimiento sísmico y observar como estos  reaccionan a él aplicando nuevos diseños. A cada uno de estos se le hicieron articulaciones, y se probó  la resistencia al desplazamiento horizontal, poniendo las parejas de bloques de manera que amarren con sus articulaciones, a continuación se colocó en un pedazo de madera, para posteriormente   imitar el movimiento de las ondas sísmicas y ver cómo reacciona cada par de éstos: BTC (doble perforado)  utilizado en el prototipo de vivienda climáticamente inteligente, al hacer la prueba anteriormente mencionada, mostró muy poco desplazamiento de sus piezas, lo que indica que las perforaciones que tiene, permiten la resistencia al movimiento horizontal. Bloque articulado sección laberinto o como lo llamo el arch. Juan Carlos BaSC (bloque articulado suelo-cemento), su diseño en forma de un mini laberinto aumenta la estabilidad y resistencia al movimiento, además que se puede unir sin necesidad de la utilización de mortero. Bloque articulado BaSC lll tambien llamado por el autor Juan Carlos, este fue uno de los mejores en la prueba sometida,ya que sus articulaciones hacen que este se mueva al mismo tiempo que el movimiento simulado como un sismo, lo que permitirá que el muro hecho con este tipo de bloque,  absorba la energia provocada durante un fenomeno como estos y evite daños en él. Sin embargo aun no existen estudios que comprueben lo que este tipo de BTC articulado puede lograr hacer. Es importante mencionar que para el verdadero análisis del BTC es de gran importancia someter a pruebas de resistencia a la comprensión húmeda y seca a cada uno de los bloques mostrados anteriormente, resistencia a la erosión, así como la composición adecuada de material con el cual se hará, para poder aplicar ampliamente la norma NTC 5324, ya que esta tiene valores a base de Bloque suelo cemento, y sus ensayes aplican para aquellos cuyo BTC no tiene perforaciones. Para los BTC que son estabilizados con cal, se aplica la norma NMX-C-508-ONNCCE-2015 y NMX-C-513-ONNCCE-2015, la cual establece los ensayos y especificaciones que deben aplicarse a este. Él cual se puede usar en la construcción de muros (común, protegido, para revestir, vista, estructural).


CONCLUSIONES

Se reconoce que al inicio de la investigación se pensó hacer un análisis estructural de cada diseño, pero no fue posible su realización, por lo cual se pretende seguir con el estudio para mostrar valores que puedan respaldar el uso del BTC con articulaciones según las normas, ya que como se puedo observar  pueden ser muy efectivos para una construcción sismo resistente, y apto para la vivienda climáticamente inteligente.  
Rios Hernández Karla Greta, Instituto Tecnológico de Iguala
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN


OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN

Garcia Muchacho Leonardo, Instituto Tecnológico de Iguala. Pinchao Villota Diana Carolina, Universidad Católica de Pereira (Colombia). Rios Hernández Karla Greta, Instituto Tecnológico de Iguala. Vazquez Castrejón Cynthia Itzel, Instituto Tecnológico de Iguala. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Guerrero es uno de los estados más importantes de México en cuanto a la explotación de minerales, ya que este estado es una zona rica en oro y plata por estar ubicado en el Cinturón de oro del pacifico (región que más facilidades ofrece en términos geológicos para extraer metales como oro y la plata). Esta idea surge de la necesidad que tienen las personas de este estado en querer explotar estos minerales en sus hogares para suplir sus necesidades básicas, el 60 % del territorio nacional tienen dueño, por tal motivo los microempresarios buscan asesoramiento para extraer el mineral en cuanto al contenido de minerales valiosos y de esta forma proseguir con la explotación de sus terrenos. Se requiere obtener minerales con contenido valioso (oro o plata), mediante la implementación de un proceso de optimización basado en dilución de valores y flotación de minerales.



METODOLOGÍA

Diseño y preparación de materiales y equipos Se eligió el tipo de muestras mineralógicas para su molienda y análisis metalúrgico, se realizó la rotulación de frascos para poder identificar las diferentes muestras de minerales con las cuales se va a trabajar. Para la trituración de las rocas se utilizaron herramientas como el marro y una plancha de acero como base, se hizo el proceso de molienda en el molino de mano. Teniendo la muestra reducida de tamaño (molida), se depositan en los frascos rotulados, se ordenó en números de muestras que se tuvo para procesar. Los minerales identificados son: Caliza, Andesita y Azurita. Reducción de tamaños Se redujo el tamaño de las muestras usando el molino de bolas (molienda 15 min) este proceso se lo hizo con las muestras de los minerales identificados. Se procedió al proceso de recuperación de valores metálicos, si la muestra es un oxido ésta debe diluirse en ácido nítrico al 10% para saber si tiene plata y si tiene oro se hace la lixiviación con cianuro al 10% y si es un sulfuro se somete al mineral al proceso de flotación (BULK). Ensaye por fusión (fundición) El proceso a seguir con las muestras que pasaron por dilución (cianuración) se le preparó un fundente, como resultado de la fundición de las tres muestras se obtuvo residuos de la fundición del mineral andesita y de la azurita se obtuvo algo de residuo. Además, se trabajó con una nueva muestra (concentrado I) se tienen 182.5 gr, se cuartea la muestra de concentrado alemán, por ende, 91.25 gramos pasan por dilución de valores y el resto de la muestra pasan por fundición. Por el método de dilución de valores este mineral no tuvo plata, pero al hacer el proceso de fundición se obtuvo un pequeño botón de plata. Copelación Se realiza el proceso de copelación para las muestras de las que se han obtenido pequeños residuos de algún metal valioso después de la fundición (azurita, andesita y concentrado I), para ello se necesitó: una mufla u horno eléctrico a una temperatura de 800 °C.  De la muestra concentrado alemán se obtuvo oro, su peso fue de: 0.046 gr. Apartado Se llevó a cabo: LA TEORIA DE LA ELECTRONEGATIVIDAD,ESTUDIADA POR PAULING, para ello se tuvo en cuenta la electronegatividad del cobre y plata (los dos son de 1.9) ambos elementos tienen la misma capacidad de atraer electrones hacia sí, si se los deja juntos. Se comprobó esta teoría y se fundió lo que se obtuvo. El diámetro del cobre disminuyó y se obtuvo 0.05 gr de plata después de la fundición, es decir, que se recuperó el 42% de este metal. Se comprobó la teoría de la electronegatividad de Pauling con respecto a la fuerza de electronegatividad sobre transferencias iónicas, tal es así, que también el cobre se disuelve en el ácido y forman nitrato de cobre color azul, es decir, así como deposición de la plata metálica en el cobre, en función del resultado obtenido se hizo el mismo proceso con un mineral de los que se han venido estudiando (andesita). Se hicieron cálculos para determinar el volumen de la varilla de cobre que se perdió después de la reacción con el ácido, y se concluye que se pierde un 43.4176% de su volumen. Procedimiento de flotación Se llevó a cabo la Pruebas Batch de laboratorio: se diseñó un sistema el cual consta de un taladro de columna, una celda metálica y un compresor, una vez se puso en funcionamiento el sistema  en la celda metálica se colocó agua, mineral andesita (muestra n.6), reactivo Xantato AERO 343-22%, Espumante CC-580-7p (alcohol alifático), Aerofloat 242 el tiempo de acondicionamiento fue de 10 min, se hizo control del pH, el paleteo se lo hizo cada 2 segundos (en un recipiente se colocó la espuma que resultó de la flotación). Cuando el proceso terminó se procedió a pasar el concentrado a un filtro de vacío, con el fin de obtener el mineral concentrado seco y pasarlo posteriormente a fundición, se obtuvieron 117 gramos de mineral concentrado. Se hizo la fundición y se obtuvo un botón de plomo con plata, se realizó la copelación para determinar si posee algún mineral valioso, como resultado se obtuvo un pequeño botón de plata el cual tuvo un peso de: 0.3062 gramos. Se concluye que de 1 kilo de mineral se pueden obtener 117 gr de concentrado de este mineral y de 30gr de concentrado de mineral se obtuvieron 0.3062 gr de plata. Por lo tanto, de 1000 gr (1 kilo) = 10.203 gr de plata,1 ton (1000 kg) = 10,203.3 gr de plata = 10.203 kg de plata.


CONCLUSIONES

Durante la estancia de verano científico se lograron adquirir conocimientos teóricos y prácticos en el proceso de la obtención de minerales valiosos. Se hicieron diseños de los métodos para determinar cuál proceso era el más óptimo en la obtención de metales como oro o plata de los minerales que fueron objeto de estudio, los métodos utilizados del proceso fueron: dilución de valores, la teoria de la electronegatividad estudiada por Pauling y flotación. Siendo el ultimo el más eficaz cumpliendo así el objetivo del proyecto de Optimizar el proceso en la obtención de minerales valiosos, en los procesos ya mencionados la recuperación de mineral fue mínima y en la flotación el índice de recuperación fue mayor.
Rios Quintero Karely Berenice, Universidad Autónoma de Sinaloa
Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara

USO DE PLASTIFICANTES DE ORIGEN NATURAL Y SU EFECTO SOBRE LAS PROPIEDADES MECÁNICAS DE POLI(ÁCIDO LÁCTICO).


USO DE PLASTIFICANTES DE ORIGEN NATURAL Y SU EFECTO SOBRE LAS PROPIEDADES MECÁNICAS DE POLI(ÁCIDO LÁCTICO).

Arias Plata Nancy, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rios Quintero Karely Berenice, Universidad Autónoma de Sinaloa. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El agotamiento del petróleo y los crecientes problemas ambientales asociados con la contaminación causada por los plásticos han generado un gran interés en la producción de materiales obtenidos a partir de recursos renovables, con potencial biodegradable, como una alternativa a los plásticos convencionales. Actualmente, uno de los polímeros biodegradables con mayor capacidad para remplazar estos plásticos es el poli(ácido láctico), también conocido como PLA, el cual es obtenido de la fermentación del ácido láctico. El PLA presenta propiedades mecánicas interesantes, sin embargo, presenta una alta rigidez, principal inconveniente para ser utilizado en aplicaciones que requieren flexibilidad en diversos sectores.  En el presente proyecto, desarrollado durante la estancia de verano de investigación, se utilizó aceite de soja y aceite de aguacate, así como hule natural, como plastificantes, con el objetivo de disminuir la rigidez del PLA, así como aumentar la tenacidad y deformación a la ruptura.   



METODOLOGÍA

Los materiales utilizados en el presente estudio fueron: Poli (ácido láctico) (PLA) 3251-D grado inyección. Como aditivos de origen natural, se emplearon aceite de aguacate refinado y blanqueado, a partir de desechos de la producción de aguacate (Persea americana), aceite epoxidado de soya marca Pantopox, así como hule natural SGR 10, obtenido del árbol Hevea Brasiliensis. Teniendo en cuenta las diferentes propiedades fisicoquímicas de los aditivos, se realizaron tres tipos de mezclas: 90% de PLA con 10% de aceite de aguacate refinado. 90% de PLA con 10% de aceite epoxidado de soya. 90% de PLA con 10% de hule natural. Para una mejor manipulación del hule en el proceso de mezclado, se cortaron pequeños trozos de este y posteriormente se molieron en condiciones criogénicas (empleando nitrógeno líquido) en un pulverizador de muestras plásticas (Retsch ZM 200).  Posteriormente, las mezclas fueron colocadas en un horno a 70° C durante aproximadamente 24 horas con la finalidad de reducir su humedad. Una vez transcurrido este tiempo, cada mezcla se introdujo en una extrusora de doble husillo paralelo (Process 11 ThermoFisher) los cuales giraban a una velocidad de 100 RPM, obteniendo filamentos delgados, utilizando el siguiente perfil de temperatura: 140, 150, 160, 170, 170, 160, 160 y 150 °C, y una velocidad de alimentación de aproximadamente 250 g/hora.. Los filamentos fueron llevados a una peletizadora, con el objetivo de obtener gránulos de cada mezcla, los cuales se secaron nuevamente en un horno a 70° C por un periode de aproximadamente 24 horas.  Finalmente, se procedió a moldear tres placas de 5 x 5 in de cada material, utilizando 37 gramos de pellets por placa, en una termo prensa hidráulica para muestras de plástico. Posteriormente, se cortaron dos tipos de muestras en las placas con una cortadora láser, la primera con una geometría correspondiente a probetas tipo V (tipo hueso o mancuerna) para ser ensayadas en una máquina universal de ensayos mecánicos (INSTRON 3345) de acuerdo con la norma ASTM D638, y la segunda en probetas rectangulares de 12.7 x 127 mm, a las cuales se les realizó un corte en forma de muesca triangular y se ensayaron de acuerdo a la norma ASTM D6110 en un impactador Charpy (INSTRON CEAST 9050).  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las pruebas mecánicas que se realizan para la cuantificación de las propiedades de los plásticos y compósitos. Con la realización de este proyecto se llegó a la conclusión de que el aceite de soya mejoró el desempeño mecánico significativamente en comparación con los otros aditivos, al incrementar considerablemente la deformación a la ruptura del PLA de 3.5 a 10.0467%.  
Ríos Velázquez Jonathan Rubén, Instituto Politécnico Nacional
Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León

CARACTERIZACIóN ELECTROQUíMICA DE ACERO AVANZADO DE ALTA RESISTENCIA FERRITICO BAINITICO 590 Y 780 MPA


CARACTERIZACIóN ELECTROQUíMICA DE ACERO AVANZADO DE ALTA RESISTENCIA FERRITICO BAINITICO 590 Y 780 MPA

Ríos Velázquez Jonathan Rubén, Instituto Politécnico Nacional. Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La falta de prevención así como del mantenimiento a elementos y/o materiales que se encuentran expuestos a medios que pueden provocar corrosión, es una de las principales razones por las que los mencionados elementos y/o materiales fallan desde física y química hasta mecánicamente, causando así problemas en su funcionamiento y dependiendo del sistema en el que estén implementados, pueden representar un riesgo para el usuario.



METODOLOGÍA

A través de muestras de 1.5cm x 1.5cm, se estudiará la metalografía del Acero Ferritico Bainitico de 590 y 780 MPa para conocer su microestructura interna con el microscopio óptico, tanto superficial como lateralmente. Y con el microscopio electrónico de barrido se conocerán los elementos presentes en el material, así mismo con apoyo de la pistola analizadora de fluorescencia de rayos se identificaran a los mencionados elementos de aleación presentes en el material. Posteriormente a través de otras muestras de 1.5cm x 1.5cm y 2cm x 3cm del Acero Ferritico Bainitico de 590 y 780 MPa respectivamente, se realizarán pruebas electroquímicas (Curvas de Polarización Potenciodinámicas y Ruido Electroquímico) las cuales se llevarán a cabo en presencia de distintos electrolitos, los cuales son agua H20, cloruro de magnesio MgCl, Cloruro de Calcio CaCl2 y Cloruro de Sodio NaCl, todos con una concentración de 3.5% y de esta manera estudiar su comportamiento a la corrosión  en dichos medios, para posteriormente analizar, interpretar y comparar los datos obtenidos. 


CONCLUSIONES

A través de la metalografía y de pruebas electroquímicas, se logró estudiar las propiedades y el comportamiento que tendrá el Acero Ferritico Bainitico de 590 y 780 MPa en presencia de un medio corrosivo. De igual manera se analizó la diferencia existente entre los dos tipos de aceros, en presencia de distintas soluciones, conociendo así las ventajas y/o desventajas que se tendrían al utilizar este tipo de aceros en una aplicación en la que este en presencia de los electrolitos anteriormente mencionados.
Rivas Avila David Adal, Universidad Autónoma de Nayarit
Asesor: M.C. Alberto Gutièrrez Martìnez, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO DE UN SENSOR PARA SEGUIMIENTO SOLAR


DISEñO DE UN SENSOR PARA SEGUIMIENTO SOLAR

Rivas Avila David Adal, Universidad Autónoma de Nayarit. Asesor: M.C. Alberto Gutièrrez Martìnez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Hoy en día existen diferentes alternativas para la obtención de energía renovable, una de ellas es la energía solar en donde se aprovecha la radiación solar la cual se puede convertir en energía térmica y/o eléctrica. El propósito de la investigación realizada fue el diseñar un sensor capaz detectar el movimiento del solar a lo largo del día y así ajustar continuamente el modulo conforme el sol cambia de posición para así lograr obtener una mayor incidencia solar optimizando el proceso de producción de energía entre un 30 y 40% a comparación de uno fijo.Hoy en día existen diferentes alternativas para la obtención de energía renovable, una de ellas es la energía solar en donde se aprovecha la radiación solar la cual se puede convertir en energía térmica y/o eléctrica. El propósito de la investigación realizada fue el diseñar un sensor capaz detectar el movimiento del solar a lo largo del día y así ajustar continuamente el modulo conforme el sol cambia de posición para así lograr obtener una mayor incidencia solar optimizando el proceso de producción de energía. 



METODOLOGÍA

Se realizó una investigación sobre las tecnologías actuales utilizadas para proyectos aplicados a un seguidor solar como también un estudio de mercado sobre las tecnologías predominantes y su precio. Con base a esto se identificó el tipo de sensores comunmente utilizados y asi realizar una comparacion para determinar los sensores a implementar. Existe otro tipo de tecnologías las cuales actualmente están empezando a ser desarrolladas, donde la forma del sensor es la de una pirámide, el cual juega con la óptica y las sombras formadas por las vértices de la pirámide las cuales hacen sombra con forme le da la luz del sol en sus lados. Este tipo de diseño resulto ser bastante llamativo, por lo cual se eligió para poder determinar la eficacia que este tiene para obtener una máxima incidencia de luz solar. En un principio se elaboraron 3 pirámides con diferentes materiales: acrílico, vidrio y vidrio ahumado.Lo siguiente que se realizó fue la elaboración de dos placas de circuitos con diferentes sensores, una con LDR y la otra con fotodiodos. Se utilizó el microcontrolador WAVGAT y la interfaz de arduino para la elaboración del algoritmo de control del motor con base a la lectura de los sensores. Una vez verificado el funcionamiento de las placas lo siguiente fue montar la pirámide de acrílico sobre la placa con los fotodiodos, los resultados obtenidos fueron buenos, sin embargo, el tipo de material con el que fue hecha la pirámide solamente es útil en luminosidad baja, ya que al experimentar con este material y con el vidrio directamente a la luz del sol al no existir ningún tipo de filtro de luz (esto debido a que son transparentes) este hace que los valores de lectura de los sensores no varían tanto conforme la posición del sol cambia. Por ende se decidió utilizar la pirámide hecha con el vidrio ahumado, la polarizado ayuda a limitar la cantidad de luz solar que reciben los sensores, por lo tanto, se tomó la decisión de utilizar vidrio ahumado. Se formaron dos pirámides, una en donde en el interior estaría la placa con los fotodiodos y en la otra estarían las LDR. Se realizaron pruebas a lo largo del día para determinar cuál tipo de sensor es el más adecuado para utilizar en el prototipo final del seguidor solar. Estas mediciones se tomaron de forma periódica a lo largo del día en diferentes ángulos: 45, 30, 15, 0. -15, -30, y -45 grados respectivamente, en intervalos de una hora. Esto con el fin de poder obtener valores entre sensores y compararlos para determinar su efectividad y su funcionamiento. Los valores obtenidos por los sensores LDR varían más y son menos precisos que a comparación de los valores de los fotodiodos, y se comprueba lo dicho anteriormente en la teoría sobre el comportamiento de los fotodiodos y es que son valores más lineales (se verá más adelante en las gráficas), es por este motivo el cual se eligieron los fotodiodos como los sensores a utilizar en el seguidor solar. Posteriormente los valores obtenidos en estas mediciones serán de ayuda para comprobar la efectividad del seguidor. Lo siguiente que se realizó fue el prototipo (la base) elaborada principalmente de madera con la excepción del acrílico usado para sostener la placa perforada de cobre como también la pirámide de vidrio ahumado en el cual va montada la pirámide. Se utilizó un servomotor para realizar el movimiento de base de acrílico donde va la placa, de esta manera es en la que cambian los grados de inclinación en la que se encuentra el sensor. Una vez obtenidos los valores de los sensores en el prototipo se realizó la comparacion entre los valores obtenidos con los fotodiodos en diferentes ángulos (45, 30, 15, 0, - 15, - 30, -45 grados respectivamente), y los valores obtenidos con las LDR. Para posteriormente compararlos con los valores del seguidor solar (el que cambia constantemente su posicion), esto mediante la graficacion de los valores.


CONCLUSIONES

A lo largo de la estancia de investigación realizada en la Universidad Michoacana de San Nicolás de Hidalgo se logró adquirir conocimiento teórico sobre la importancia de la energía solar, usos y aplicaciones como también el procedimiento a seguir para la investigación y el desarrollo de nuevas tecnologías con base a lo que se tiene en la actualidad, algo que se tomó en cuenta desde un principio es en dejar en claro la diferencia entre la cantidad de energía solar que se obtiene en una base fija a comparación con una base con un eje de movimiento. Para esto se realizó el diseño de un sensor capaz de detectar el cambio de la posición del sol a lo largo del día, esto con el fin de que el sensor siempre se encuentre en el punto donde hay una mayor incidencia de luz solar aumentando en un 30% el proceso de la obtención de energía (ya sea térmica o solar). Se espera que el sensor sea implementado en procesos de obtención de energía eléctrica aplicado a los paneles fotovoltaicos como también en la obtención de energía térmica aplicado a un horno solar.
Rivas Guerra Yessica, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

SíNTESIS DE NANOCATALIZADORES DE NúCLEO MEMBRANA PARA OBTENCIóN DE BIODIESEL


SíNTESIS DE NANOCATALIZADORES DE NúCLEO MEMBRANA PARA OBTENCIóN DE BIODIESEL

Rivas Guerra Yessica, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los problemas ambientales que se han generado por el alto consumo de combustibles fósiles y el proyectado agotamiento de las reservas de estos se han agravado comúnmente, por tal motivo se han desarrollado nuevas técnicas para la síntesis de combustibles que sean renovables, siendo un punto de interés el uso de nanocatalizadores para la obtención de biodiesel, estos son necesarios para que ocurra la transterificacion  y sea posible alcanzar una alta velocidad en la producción de biodiesel provenientes de aceites vegetales. Los procesos catalíticos se aplican cada vez más en el desarrollo de biocombustibles. Los nanocatalizadores Core Shell desempeñan un papel importante en la mejora y calidad del producto y el logro de condiciones operativas óptimas. Los nanocatalizadores con un área de superficie específica alta y una actividad catalítica alta pueden resolver los problemas más comunes de los catalizadores heterogéneos, como la resistencia a la transferencia de la masa, el consumo de tiempo, la desactivación rápida y la ineficiencia. En este sentido, se han incrementado los intentos de desarrollar nuevos tipos de nanocatalizadores. Entre los diferentes biocombustibles producidos a partir de la biomasa a biodiesel ha sido reportada utilizando diversas materias primas comestibles o no comestibles. En la mayoría de los estudios de investigación, la aplicación de nanocatalizadores mejora la eficiencia de rendimiento en condiciones operativas relativamente suaves en comparación con los nanocatalizadores a granel. Los nanocatalizadores Core  Shell se requieren de manera crítica para la reducción del costo de los catalizadores y para evitar la generación de desechos en aplicaciones industriales. Precisamente, el OHBa tiene un efecto catalítico, es ligeramente soluble en aceites vegetales, se recupera fácilmente de la masa de reacción por filtración y se puede regenerar y reutilizar, para así acelerar la reacción de transterificacion para el biodiesel.



METODOLOGÍA

Mediante el método sol-gel se sintetizó el núcleo del catalizador con partículas de Bario. En 50 ml de agua tridestilada, se diluyeron 0.5 gramos de hidróxido de bario y 0.5 gramos de nitrato de potasio se agitó constantemente durante 48 horas a una temperatura de 50  a 80 gramos. Posteriormente se hizo un tratamiento con punta de sónica iones para dispersar las partículas de bario, se caracterizaron mediante UV-vis y SEM. La membrana del catalizador se realizó con un biopolimero a una temperatura de 60°C agradezco se agregando 0.5 gramos de cloruro de aluminio, las partículas dispersas de Bario y 0.5 gramos de quitosano, adicionalmente se agrego cáscara de coco molida en el molino de bolas a una concentración de 0.02 gramos/ml, el cual es un material poroso lo que facilita la arquitectura del catalizador. Finalmente se elimino el líquido contenido mediante un mechero busner u se calcinó a una temperatura de 400°C posteriormente se molino en molino de bolas y se caracterizó en el equipo SEM.


CONCLUSIONES

El método sol-gel en conjunto con  tratamiento con la punta de sindicación resultó una alternativa para la dispersión de partículas teniendo en la caracterización SEM  un tamaño aproximado de 200 a 300 nanómetros. El molino de bolas permite la disminución de tamaño de partículas de materiales sólidos Las partículas de bario tienen una alta actividad catalítica lo que permite la generación de biodiésel a partir de aceite de cocina. Se Establecio una ruta de síntesis de los nanos catalizadores Core Shell para la generación de biodiesel.  
Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia)
Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)

FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL


FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL

Hernández Franco Mariana, Universidad Veracruzana. Herrera Fletes Denyce, Instituto Tecnológico de Tepic. Lopez Parra Vanessa, Instituto Tecnológico de Tepic. Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia). Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea. Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este documento se planteará una comparación entre la manufactura tradicional y la manufactura aditiva por impresión en 3D para la fabricación de una prótesis transtibial de modo que se resuelva la cuestión: ¿Por qué el proceso de manufactura aditiva es mejor que el proceso de manufactura tradicional?



METODOLOGÍA

Este documento es un proyecto de investigación de tipo cualitativo en el que se pretende hacer una comparación entre la fabricación de una prótesis de extremidad inferior transtibial a través de manufactura tradicional y manufactura aditiva, con el objetivo de analizar las dos modalidades de la manufactura y determinar el impacto que estas generan desde una perspectiva multi criterio que comprenda el aspecto ambiental, social y económico. Para la identificación del problema se realizará un Value Streaming Map (VSM), con la finalidad de identificar la raíz del problema, las causas y los efectos del problema. Para la recopilación de información se hará una revisión del estado del arte y análisis de la bibliografía encontrada en bases de datos de artículos científicos.


CONCLUSIONES

La manufactura aditiva se ha proyectado para reemplazar a la manufactura tradicional; emplear la impresión en 3D para transformar un modelo digital en un objeto físico presenta ciertas ventajas y se considera como un proceso de manufactura sustentable. Sin embargo, actualmente carece de cierta rigidez necesaria para su introducción total en la industria manufacturera. Esto representa un desafío para la ingeniería y un gran avance para la industria en su objetivo por llegar a la industria de la tecnología y la digitalización.
Rivera González Jonathan Jovany, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

PROCESOS DE TRANSFORMACIóN DEL ACERO AISI M2 A TRAVéS DE TRATAMIENTOS TéRMICOS PARA CONOCER SUS PROPIEDADES ADECUADAS EN LA CREACIóN DE HERRAMIENTAS DE ALTA VELOCIDAD.


PROCESOS DE TRANSFORMACIóN DEL ACERO AISI M2 A TRAVéS DE TRATAMIENTOS TéRMICOS PARA CONOCER SUS PROPIEDADES ADECUADAS EN LA CREACIóN DE HERRAMIENTAS DE ALTA VELOCIDAD.

Rivera González Jonathan Jovany, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Dentro de la cotidianidad de los días, se puede observar casi en cualquier sitio, la presencia del acero, no solo en protecciones para puertas y ventanas, también en utensilios de cocina y herramientas de taller. En muchas ocasiones, o por lo menos en la mayoría de las personas, se nota una falta de conocimiento con respecto al proceso de transformación que se le da al acero para servir como herramienta útil en su área de utilización designada; martillos, brocas, discos de desbaste, vigas, etc. Como consecuencia, existen los malos trabajos y con poca ciencia que presentan un peligro para el operario de dichas herramientas, perdiendo calidad en el material. El presente trabajo enfocado al acero para herramientas de alta velocidad AISI M2 como material testigo, permitirá acercarse más a la ciencia de los tratamientos térmicos, cuál es su importancia, por qué y cuándo aplicarlos de manera que sean de la mejor calidad posible con respecto a un TT adecuado.



METODOLOGÍA

Las herramientas, métodos y procedimientos utilizados para llegar a la finalización del estudio y dar respuesta a la hipótesis planteada se divide en cinco fases que consisten en: Fase 1: Investigación relativa a los procedimientos a realizar. Entrar a páginas confiables, que contenga información oficial. Buscar artículos relacionados al tema y al acero AISI M2. Comprender de forma teórica los procesos, las palabras técnicas, definiciones y fenómenos que ocurrirán al llevar a cabo el procedimiento completo y así fundamentar la información de una manera integral. Fase 2 Caracterización del material de suministro. Seleccionar el material con el que se trabajará; Acero para herramientas de alta velocidad AISI M2. Medir el material a 1 cm con el flexómetro. Cortar el material de 1 cm aprox. Utilizando la máquina hidráulica de cortado. Devastar el material en condición de suministro con distintos tamaños de lija; 80, 100, 120, 150, 180, 220, 240, 280, 220, 240, 280, 320, 360, 400, 500, 600, 1000, 1200 Y 1500. Pulir con alúmina utilizando la maquina pulidora con paño nuevo. Ataque químico con nital al 3%; 97% de alcohol y 3% de ácido clorhídrico. Tomar las micrografías a distintos aumentos con el microscopio de platina invertida. Análisis metalográfico. Fase 3: Tratamientos térmicos y proceso de soldadura Diseñar los tratamientos térmicos de acuerdo con la norma AISI y al diagrama CCT y TTT del acero para herramientas de alta velocidad AISI M2; son cinco distintos tratamientos térmicos, los cuales indican diferentes temperaturas a la cual debe someterse la muestra. En el diseño de los tratamientos se incluyen los cálculos de tiempo de permanencia que se le da de acuerdo al espesor de la muestra. Realizar los tratamientos térmicos a cada una de las muestras; son 5 muestras o probetas que serán sometidas a tratamiento térmico. Se utiliza un horno térmico para hacer este proceso. Realizar el proceso de soldadura en una muestra, usando el tipo de soldadura, electrodo y voltaje Fase 4: Caracterización del material tratado térmicamente y en proceso de soldadura. Devastar uno por uno los materiales tratados térmicamente y sometido a proceso de soldadura con distintos tamaños de lija; 80, 100, 120, 150, 180, 220, 240, 280, 220, 240, 280, 320, 360, 400, 500, 600, 1000, 1200 Y 1500. Pulir con alúmina utilizando la maquina pulidora con paño nuevo. Ataque químico con nital al 3%; 97% de alcohol y 3% de ácido clorhídrico. Tomar las micrografías a distintos aumentos con el microscopio de platina invertida. Análisis metalográfico. Fase 5: Análisis de resultados. Analizar todas las muestras desde su microestructura, sus propiedades mecánicas y perfiles de dureza. Se comparan una a una.


CONCLUSIONES

Los tratamientos térmicos son la clave y la base para que un acero funcione como debe hacerlo en su área de designación, ya sea que se ocupe para la fabricación de brocas, discos de desbaste, chaflanes, clavos, élices., o alguna otra herramienta. Siempre debe realizarse un tratamiento térmico o varios para que el material funcione de la manera deseada y con la calidad deseada. Por otra parte, la soldadura en un material siempre llega a ser un defecto, o un mal necesario, que debe remediarse con la ciencia de los tratamientos térmicos para que deje de ser un defecto en la zona afectada del acero. De manera clara y objetiva, en este proyecto se determinará la afectación de la soldadura en el acero tipo hipereutectoide y la importancia de los tratamientos térmicos.
Rivera Huerta Dulce Idalia, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEñO ANALóGICO DE UN OSCILADOR CAóTICO CON SPICE


DISEñO ANALóGICO DE UN OSCILADOR CAóTICO CON SPICE

Flores Martínez Teresita de Jesús, Instituto Tecnológico Superior de Huauchinango. Rivera Huerta Dulce Idalia, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el área de las comunicaciones tiene un gran impacto en la vida social y económica del mundo, por lo que  se ha convertido en reto el envió seguro de información a través de la red. La mayoría de los usuarios comparten información ya sea relevante o irrelevante todo los días, y el acceso a ella no es limitado, es ahí donde el envió de información se ha vuelto un riesgo para aquellos que buscan seguridad en el traslado de información, con menos probabilidad de ser robada o alterada. El Reporte Global de Riesgos 2019, publicado por el Foro Económico Mundial, indica que el fraude o robo de datos se constituye como el riesgo global con mayor probabilidad de ocurrencia en este año, después de los relacionados con el medio ambiente y los desastres naturales. El robo de datos es particularmente relevante en un contexto en el que nuestra interacción con el entorno se realiza cada vez más a través de herramientas tecnológicas: teléfonos que registran la geolocalización permanente del usuario; instituciones financieras que conocen nuestros patrones de consumo; redes sociales que permiten identificar nuestros círculos de amistades, las noticias que leemos, nuestros gustos y preferencias; relojes que conocen nuestros hábitos de deporte, de sueño y hasta nuestro ritmo cardiaco;  así como cada vez más nuevos productos y servicios que son y serán capaces de obtener información acerca de los aspectos más íntimos de la vida.



METODOLOGÍA

En primera instancia se trató con información básica de la rama de electrónica, esto para generar conocimiento funcional para las actividades posteriores, dentro de ello se optó por algunos libros, proporcionando diversas herramientas de trabajo. Dentro de este bloque se conoció más a fondo el concepto de Electrónica, principalmente enfocada al diseño de circuitos integrados, así como la tecnología necesaria para el desarrollo de los mismos. Los circuitos integrados son dispositivos que se encuentran presentes en diversos aparatos de la vida cotidiana, un circuito integrado, es conocido también como chip; es una oblea semiconductora en la que son fabricados muchísimas resistencias pequeñas, también condensadores y transistores. Un circuito integrado se puede utilizar como un amplificador, oscilador, temporizador, contador, memoria de ordenador, o microprocesador, además estos se pueden clasificar como lineal o como digital, todo depende para que sea su aplicación. Dentro del circuito integrado se encuentra un elemento muy importante llamado transistor, en este caso el transistor MOSFET (transistor de efecto de campo metal óxido semiconductor), existen dos tipos de transistores, de tipo NPN y PNP. Los MOSFET hacen posible la implementación de circuitos integrados sin la necesidad de otros componentes, como resistencias o condensadores, además de que es un elemento fundamental en la fabricación de los circuitos, llegando a colocar más de 200 millones en un chip.   Dentro de la práctica se utilizaron diversas herramientas de software como el programa TopSPICE y Hspui, que son software de simulación para observar el comportamiento de los componentes.  Después de una pequeña introducción a la lógica de funcionamiento del software TopSPICE, se empezó a trabajar con la formación de bloques integradores, sumadores y multiplicadores para la estructuración de un oscilador caótico en un circuito integrado. En relación al oscilador caótico, se comenzó con la construcción del modelo matemático del mismo, para tener las bases suficientes para su desarrollo y simulación. El lenguaje matemático es lo que describe y constituye un modelo matemático; se quiere lograr la implementación de un sistema caótico, para lo cual lo principal es tener un sistema de ecuaciones que nos generen resultados. Se utilizaron funciones saturadas definidas a tramos (SNLF), para la formulación de las ecuaciones correspondientes, empezando con: x=y y=z z=-ax-by-cz+d, fx a=b=c=d1=0.7 El diseño del sistema caótico se revisó en versión analógica, ya que se trabajó con la descripción de códigos para el diseño y simulación de los distintos bloques que lo conforman, en este caso: bloques integradores, multiplicadores y sumadores. Para el diseño de los bloques se comenzó con la descripción del código de un MOSFET, en primera estancia se trabajó tanto con transistores PNP y NPN.  La primera descripción que se realizó fue de tipo NMOS, basándose en su diagrama correspondiente se dio origen al desarrollo del código en Hspui, e igualmente se hizo con el tipo PMOS. Después del análisis de los transistores se pasó al diseño de un OTA que es un amplificador en el cual la tensión diferencial de entrada produce una corriente de salida. El diseño del código del OTA nos brindó la base para la creación de los bloques que conforman el oscilador caótico, para el desarrollo de este código se comenzó con el análisis del circuito interno del mismo, conformado por diversos transistores. El código que se realizó se debe configurar de acuerdo al tipo de bloque que se quiera realizar, en nuestro caso especialmente se trabajó con el bloque integrador, se agregó al circuito distintas variables que definen al mismo. Para lograr la integración del bloque se tiene que pasar la señal cuadrática a una señal de diente de sierra, en donde el valor del capacitor tiene un papel fundamental.  


CONCLUSIONES

Durante el periodo del verano de investigación se obtuvo información sobre el funcionamiento de software para el diseño y simulación de circuitos integrados, se trabajó con la creación de códigos para transistores y OTA, específicamente para el diseño de los bloques correspondientes a un oscilador caótico, durante el proceso de trabajo se enfocó directamente a la construcción del bloque integrador, en última instancia sólo se logró que el capacitor realice la descarga pero no la carga.
Rivera Ramos Mónica Leneth, Consejo Sudcaliforniano de Ciencia y Tecnología
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

CONCRETOS DE ALTAS PRESTACIONES


CONCRETOS DE ALTAS PRESTACIONES

Beltrán Silva Nicole, Universidad Autónoma de Sinaloa. Rivera Ramos Mónica Leneth, Consejo Sudcaliforniano de Ciencia y Tecnología. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto es el material más utilizado en la industria de la construcción a nivel mundial, sin embargo, suele ser un compuesto costoso y complejo de realizar debido al proceso de obtención de sus materias primas, por lo cual, se busca la posibilidad de utilizar distintos materiales en la elaboración de este, para así lograr mejorar sus propiedades mecánicas y físicas, siendo amigables con el medio ambiente. Dentro de los materiales que se utilizarán nos encontramos con residuos de la quema de bálsamo de caña, fibras y escamas de plástico reciclado, poliestireno reciclado y triturado. El problema que se presenta durante este proyecto de investigación es conseguir una resistencia a compresión que sea óptima en un diseño de mezcla, reduciendo el costo de producción y utilizando materiales reciclados, para así, utilizarse en la construcción de una casa habitación en zona rural.



METODOLOGÍA

Durante la primer semana se realizaron las actividades de elaboración de blocks de manera manual y obtención de perlita, el cual se utilizará como sustitución de agregado grueso para poder realizar concreto aligerado. En cuanto a la elaboración de blocks, con la ayuda de una prensa se realizó un block de prueba con una dosificación sugerida por el investigador. Para la obtención de perlita fue utilizada una herramienta creada por estudiantes, la cual consistía en una lija impulsada por un taladro manual.  Durante la segunda semana se realizó una dosificación para la elaboración de concreto aligerado con la perlita obtenida. Fueron elaborados 4 especímenes cilíndricos de 15X30cm y una viga de 15x15x60cm, utilizando el poliestireno como sustitución del agregado grueso. La viga seria ensayada a los 28 días, mientras que los especímenes cilíndricos serian ensayados a los 7, 14, y 28 según especifican la norma NMX-C-083.     Al día siguiente del colado se llevó a cabo el descimbrado de los especímenes y fueron colocados en la pila de curado. En la misma semana de trabajo se realizó la criba de ceniza de caña para utilizarla como material cementante, para la obtención de esta fueron utilizadas las mallas N°100 y N°200, además se continuo con la elaboración de blocks con una dosificación ajustada. Antes de darse por culminada la semana número 2, se realizó la elaboración de especímenes cilíndricos con dimensiones de 15X30 cm con sustitución del 15% de cemento por ceniza de bálsamo de caña. Durante la semana número 3 se llevó acabo la elaboración de especímenes cilíndricos y vigas de concreto convencional y concreto reforzado con fibras, esto para observar las diferencias entre las mezclas anteriores. Además, se llevó a cabo la elaboración de placas de concreto aligerado de 1X1X0.02m reforzadas con malla hexagonal las cuales se ensayarán mediante una prueba de carga y descarga. Por último, durante esta misma semana se llevó acabo el ensaye a compresión a los 7 días de los especímenes de la mezcla número 1 y número 2, obteniéndose 56.05 kg/cm2 y 33.64 kg/cm2 respectivamente. A pesar de ser una mezcla con la misma dosificación de los agregados, la diferencia de la resistencia entre estos dos especímenes pudo haber sido la diferencia de humedades de los agregados, o bien, el proceso de elaboración del espécimen. En la semana 4 del proyecto se llevó acabo el ensaye a compresión de especímenes cilíndricos a los 7 días de concreto convencional, concreto con sustitución de ceniza y concreto reforzado con fibras, obteniéndose una resistencia de 222.01 kg/cm2, 220.06 kg/cm2  y 218.47 kg/cm2 respectivamente. A continuación, se llevó acabo la elaboración de una placa y un espécimen cilíndrico de concreto aligerado con implementación de aditivo acelerante. En el siguiente lapso semanal se realizó el desmolde de la placa y el cilindro realizado con concreto aligerado y aditivo acelerante, se ensayaron a compresión especímenes de todas las mezclas anteriores, obteniendo como resultado: concreto aligerado: 42.81 kg/cm2, concreto con sustitución de ceniza: 253.36 kg/cm2, concreto convencional 191.57 kg/cm2 y concreto reforzado con fibras 258.12 kg/cm2.   Además fueron ensayadas las vigas que se elaboraron anteriormente, siendo aquellas de concreto con sustitución de ceniza, concreto reforzado con fibras y concreto aligerado, obteniéndose un módulo de ruptura de 50.11 kg/cm2, de 53.64 kg/cm2 y 25.76 kg/cm2 respectivamente. Por último se realizó el ensaye a compresión de los especímenes de las mezclas de concreto con sustitución de ceniza, concreto convencional y concreto aligerado con aditivo acelerante, obteniéndose como resultados 250.47 kg/cm2, 190.22 kg/cm2 y 27.55 kg/cm2 respectivamente.


CONCLUSIONES

Durante la estancia de verano se logró reforzar conocimientos previos del ámbito de tecnología del concreto, siendo así posible la realización de pruebas destructivas al concreto con distintos agregados. Se logró determinar las diferencias entre el concreto convencional y el concreto con las distintas adiciones o sustituciones mencionadas con anterioridad, obteniendo una resistencia a la compresión mayor que a la del concreto convencional (concreto con sustitución de ceniza y concreto reforzado con fibras) y su módulo de ruptura. Pudimos observar que en comparación con el concreto convencional, el concreto ligero es en promedio 77% menos resistente a la compresión, esto se debe por la sustitución de la grava por unicel al momento de realizar la mezcla de concreto. Por otro lado, el concreto adicionado con ceniza de caña es aproximadamente 32% más resistente que el concreto convencional, esto como resultado de utilizar la ceniza de caña como material cementante en sustitución del 15% del cemento total de la mezcla. Otro dato a destacar es que el concreto con adición de fibras sintéticas a los 28 días de ser realizado fue un 6.12% más resistente a compresión que el concreto convencional, cabe destacar que con esta adición, el concreto alcanzó el 80% de su resistencia en la primer semana de curado, mientras que el concreto convencional solo alcanzo el 75%.
Rivera Romero Raymundo, Universidad Politécnica de Texcoco
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
Roblero Balbuena Dorian Axel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara

CAPTACIóN DE IONES METáLICOS PB (II), CD (II) Y NI (II) EN SOLUCIóN ACUOSA A TRAVéS DE UN HIDROGEL TERPOLIMéRICO ENTRECRUZADO CON LIGNINA MODIFICADA


CAPTACIóN DE IONES METáLICOS PB (II), CD (II) Y NI (II) EN SOLUCIóN ACUOSA A TRAVéS DE UN HIDROGEL TERPOLIMéRICO ENTRECRUZADO CON LIGNINA MODIFICADA

Roblero Balbuena Dorian Axel, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los metales pesados a través de tiempo se han considerado como tóxicos, esto es debido a que son materiales no biodegradables y son bioacumulativos en los seres vivos. Uno de los problemas ambientales que más preocupa a la sociedad es la contaminación del agua por metales pesados. Por lo cual, se han empleado distintos métodos para remover estos metales del agua, uno de ellos es el uso de los hidrogeles. Los hidrogeles son materiales de cadenas poliméricas entrecruzada que al entrar en contacto con el agua tiene la capacidad de aumentar cientos de veces su tamaño hasta llegar a un equilibrio. Estos materiales tienen distintos usos como tejidos para tratamientos de quemaduras, pañales, agricultura, dosificación de fármacos, adsorción de iones metálicos, etc. Debido a sus propiedades, estos materiales han llamado la atención para la remoción de iones metálicos en aguas residuales, siendo utilizados como método de remediación, por lo que durante el verano de investigación se evaluó la capacidad de remoción de un hidrogel ya sintetizado, para los iones metálicos Pb (II), Cd (II) y Ni (II) con un tamaño de partícula definida.



METODOLOGÍA

Para la modificación del entrecruzante del hidrogel se realizó una solución de lignina en agua destilada, la cual se agitó para después tomar una alícuota y ser colocada en un baño de agua fría (0 - 4°C). Este se agitó y se agregó cloruro de acriloílo en agitación. Posteriormente, se le adicionó THF y se agitó hasta estar la solución homogénea; se dejó en reposo y se introdujo el precipitado a un horno a 55°C. Al tener la lignina modificada, se procedió a la síntesis de los hidrogeles. Esta se disolvió en agua bidestilada, agregando los monómeros AM/AAc/AMPS. La solución se transfirió a tubos de ensayo, los cuales se agitaron mientras se agregaron los iniciadores (persulfato de potasio y bisulfito de sodio) y la adición de N2(g). Después, se ingresaron en un termoagitador, para posteriormente extraerlos y colocarlos en un horno. Ya seco el material, se lavaron varias veces con agua destilada; estos se vuelven a ingresar al horno. Por último, se molieron en un mortero y se pasaron través de un tamiz hasta obtener un tamaño de partícula de 1000 - 600 µm. Se realizó una cinética de hinchamiento en agua destilada utilizando 0.1 g de xerogel, en la cual, se pesó a distintos intervalos de tiempo hasta llegar al equilibrio fisicoquímico. Después, se realizaron las cinéticas de hinchamiento en soluciones metálicas acuosas de Pb (II), Ni (II), y Cd (II) (concentración de 1000 ppm) de forma individual con pH 4, 5 y 6. En un tiempo determinado el hidrogel se recogió del recipiente y se tomó su peso. Posteriormente, el hidrogel fue devuelto a su recipiente con la solución metálica y se repitió por los lapsos de tiempo establecidos. Posteriormente, para analizar la captación máxima de los iones metálicos se preparó una solución madre para cada metal (1000 ppm), y a partir de esta solución madre se prepararon  soluciones iniciales con un pH 4,5 y 6. Cada solución se puso en contacto con 0.1 g de xerogel en 50 mL de solución metálica, con agitación de 120 rpm por 2 horas a 25°C. Las muestras resultantes fueron filtradas y diluidas para después ser analizadas por espectroscopia de absorción atómica de flama (AAS), para así, obtener las concentraciones finales de las soluciones.


CONCLUSIONES

Durante la estancia de verano se adquirieron los conocimientos teórico - prácticos para la síntesis de un hidrogel y sus aplicaciones, así como el uso de material, equipo y software para el análisis de resultados e interpretación de los datos obtenidos. Este hidrogel utilizado, no solo tiene como finalidad el remover metales, sino también el ser degradado bioquímicamente, por lo que aún no se ha finalizado dicho proyecto. Se comprendió el impacto ambiental que representan los metales pesados presentes en el ambiente, así como la importancia de buscar métodos y nuevas tecnologías que contribuyan a la solución de la problemática ambiental de nuestro país. coo resultado se me obtuvo el comportamiento del hinchamiento en agua y soluciones metálicas, en el que se observó un descenso importante al estar en contacto con los iones metálicos Pb (II), Cd (II) y Ni (II); a su vez, se logró obtener el tiempo de equilibrio del hidrogel, para así, establecer el tiempo aproximado en el cual el hidrogel lograría remover la mayor cantidad de iones metálicos posibles, además de establecer la cantidad máxima de remoción por gramo de xerogel.
Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional
Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco

IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.


IMPLEMENTACIóN DE ARQUITECTURA DE SUPERCóMPUTO PARA LA OPTIMIZACIóN DE PROBLEMAS EN UNA SMART CITY MEDIANTE IA.

Estrada Chavez Manuel Ivan, Instituto Tecnológico Superior de Ciudad Hidalgo. Franco Mora Marco Julio, Instituto Tecnológico Superior de Ciudad Hidalgo. Machain Tarula Keuri Adilene, Instituto Tecnológico del Sur de Nayarit. Nuñez Herrera Maria de los Angeles, Instituto Tecnológico de La Piedad. Ramirez Martinez Javier Agustin, Instituto Tecnológico del Sur de Nayarit. Robles Ontiveros Carlos Daniel, Instituto Politécnico Nacional. Asesor: Dr. Edgar Gonzalo Cossio Franco, Instituto de Información Estadística y Geográfica, Jalisco



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, existen problemas en la sociedad tales como (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer), entre otros) que podrían ser resueltos mediante técnicas computacionales; el impedimento es que las computadoras convencionales no tienen el poder de procesamiento necesario para resolverlos. Es por ello que nos vemos en la necesidad de proponer un proyecto que combine técnicas de HPC & AI.



METODOLOGÍA

Como parte del proyecto se trabajó según la siguiente metodología: •    KAN-BAN: Describe las tareas a realizar, marcando en que tiempo va cada una de ellas (Pendiente, Proceso o Terminada). •    HPC: Es computación de alto rendimiento que da solución a problemas tecnológicos muy complejos con un alto coste computacional. •    Machine Learning: Desarrolla técnicas que permite que las computadoras aprendan automáticamente, identificando patrones de datos. •    Data Mining: Se encarga de explorar y extraer información de grandes bases de datos de manera automática, ayudando a comprender el contenido de los repositorios de datos.


CONCLUSIONES

•   Se logró crear una GRID computacional con 7 clientes aportando donación computacional a un Servidor con S.O. Kubuntu el cuál administra, envía, verifica y valida las operaciones que realizó cada cliente. •    Fue posible predecir escenarios a problemáticas sociales (Seguridad (Delitos, Movilidad) y Sector Salud (Diabetes, Cáncer) mediante aplicación de ML.
Rocha Chávez Adrián, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia

INSTRUMENTACIóN DE REACTORES BIOQUíMICOS UTILIZANDO SISTEMAS EMBEBIDOS


INSTRUMENTACIóN DE REACTORES BIOQUíMICOS UTILIZANDO SISTEMAS EMBEBIDOS

Rocha Chávez Adrián, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Juan Alfonso Salazar Torres, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

El cultivo de las microalgas Chlorella vulgaris ha resultado muy eficaz como método para obtener sustancias biológicamente activas y compuestos químicos presentes en su medio intracelular, extracelular y de aquacultivo. La producción de aceites, biomasa y biocombustibles son algunos de los beneficios que se obtienen al cultivar este tipo de algas, sin embargo, las condiciones ambientales deber mantenerse estrictamente controladas dentro de un bioreactor de sistema cerrado con el fin de obtener el máximo desarrollo de las algas y así lograr establecer las condiciones de máximo crecimiento. Para establecer las condiciones de máximo crecimiento es necesario instrumentar el reactor bioquímico de forma electrónica y virtual para mantener en constante monitoreo y control las variables que rigen el sistema (temperatura, luxes, turbulencia, pH).



METODOLOGÍA

El monitoreo, control y análisis de las variables que intervienen en el proceso bioquímico para cultivo de las microalgas propuestas, se realiza utilizando diferentes sensores cuya respuesta es diferente. Para ello es necesario acondicionar la señal eléctrica de cada uno de ellos, de tal manera que se establezca una interfaz usuario- proceso que permita interpretar el fenómeno de manera cuantitativa. En este sentido, se emplean diferentes técnicas de acondicionamiento de señal como son: la amplificación, filtrado, y asilamiento galvánico, así como el uso de un sistema embebido para la recolección de datos de los diferentes sensores utilizados. A continuación se describe la metodología utilizada para el acondicionamiento de los sensores a los cuales se logró realizar su acondicionamiento de señal durante la estancia. Se utilizó un sensor HI-1110B de tipo potenciometrico de la marca Hanna Instruments para la medición de pH. Dicho sensor es conectado al circuito acondicionador analógico de señal diseñado por el Dr. Juan Alfonso Salazar, asesor del proyecto. Para realizar pruebas de funcionamiento, el circuito acondicionador fue montado primeramente en un tablero de pruebas (protoboard) y utilizando muestras con valores de Ph desde 1 hasta 12, se tomó lectura del voltaje arrojado por el circuito introduciendo el sensor en las muestras con valores de pH diferente. El incremento de voltaje de salida fue de 200mV por unidad de pH lo cual indica que el comportamiento de la señal de salida es lineal y adecuada para el proceso de instrumentación. Dichas lecturas fueron registradas en una hoja de cálculo para posteriormente ser expuestos en una gráfica con la cual se determinó la ecuación de comportamiento del circuito. Ya hechas las pruebas y verificado el buen funcionamiento del circuito y el sensor, fue diseñada la placa de circuito impreso PCB en el software Altium Designer y posteriormente fabricada en la maquina CNC de la marca LPKF Laser & Electronics instalada en el área de Maestría en Electrónica del Instituto Tecnológico de Morelia, finalmente se agregó antisoldante a la PCB y se soldaron los componentes correspondientes. Para elaborar el sensor de luminosidad se utilizaron 50 fotorresistencias con un arreglo serie paralelo de tal manera que el conjunto de estas se comportara como si fuera solo una de ellas.  Las fotorresistencias fueron distribuidas en una lámina de material plástico de dos capas, la primera hecha de hule con un espesor de 2mm y la segunda fue de autoadherible transparente con dimensiones de 63 x 20cm. El enrutado del circuito fue dibujado con una pluma de tinta conductora de la marca Buddy Paint para asegurar la flexibilidad de todo el sensor. El acondicionamiento de señal no se concluyó por lo que queda pendiente esta parte del sensor. Se tomó un curso básico del programa LabVIEW donde se realizaron ejercicios para conocer las diferentes herramientas del software y familiarizarse con el lenguaje G.


CONCLUSIONES

Durante la estancia de veranó se logró adquirir conocimientos teóricos del funcionamiento de los biorreactores además de nuevas técnicas de diseño de placa de circuito impreso y el conocimiento básico sobre la programación de en el lenguaje G. Los resultados obtenido más destacados en la estancia fueron la culminación del sensor de pH con el acondicionamiento de señal correspondiente y la elaboración del sensor de luminosidad diseñado por el asesor a cargo de esta estancia. En general se realizó un gran avance al proyecto, sin embargo, no fueron concluidas todas las actividades planeadas debido a lo extenso del proyecto.
Rocha Díaz Carlos Emilio, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES


COMPUESTOS LAMINADOS DE FIBRAS NATURALES CON RESINAS BIODEGRADABLES

Campos Cuiniche Pablo Esteban, Universidad Autónoma de Baja California. Colima Ceceña Mariana, Universidad Autónoma de Baja California. Figueroa Moreno Israel, Universidad Autónoma de Baja California. Rocha Díaz Carlos Emilio, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

A lo largo del último siglo, la industria aeroespacial ha generado un notable avance de innovación y mejora de nuevos materiales compuestos, los cuales buscan cumplir los requerimientos de normatividad en el área, como propiedades mecánicas y ligereza, sin embargo, presentan el inconveniente de ser contaminantes y una vez que termina su ciclo de uso ya no pueden ser reutilizados o ser reciclados. En consecuencia, se pretende genera nuevos materiales compuestos donde se apliquen polímeros a base de bioepóxicos y fibras naturales y de esta manera, generar materiales compuestos biodegradables, es decir, productos no contaminantes al medio ambiente y que puedan ser reciclados, siempre en pro de la conservación las propiedades tanto mecánicas como de ligereza requeridos en la industria aeroespacial. En este proyecto se desarrollará dos materiales compuesto a base de fibras naturales: coco y henequén con resina epóxica biodegradable.



METODOLOGÍA

Para la realización de este proyecto se utilizó resina bioepóxica SR GreenPoxy 56 reforzada con fibra de henequén y de coco formando dos materiales compuestos distintos. Dado que este subproducto tiene un grado de humedad relativamente alto, se llevó a cabo el experimento haciendo laminados tanto con fibra seca como fibra con humedad ambiente. Recorte de fibras Tanto la fibra de coco como las de henequén fueron recortadas con dimensiones de 25 x 25 cm, obteniendo 8 láminas de cada tipo de fibra, para posteriormente utilizar 4 de ellas en cada laminado. Proceso de secado El secado previo de las fibras se realizó en un horno de secado a una temperatura máxima de 100°C durante 5 horas siguiendo las condiciones estándar. La temperatura de secado se determinó en base al análisis termogravimétrico de la celulosa buscando la temperatura óptima para eliminar la humedad y no degradar la celulosa de la fibra. Una vez secas las fibras, se colocaron en el desecador para evitar que éstas adquirieran humedad nuevamente. Proceso de manufactura Para la fabricación de los materiales compuestos, se utilizó el proceso de laminado por impregnación al vacío en las 4 muestras. Previo a cada laminado, se preparó un molde de aluminio. Se colocó masking tape en el contorno del molde, esto con el fin de evitar colocar antiadherente en esas zonas y poder aplicar butilo para sellar la bolsa de vacío. Posteriormente se añadió el antiadherente utilizando un paño completamente húmedo siguiendo líneas rectas en dirección de 0° hasta cubrir la superficie del molde. Se esperaron 2 minutos y con un paño seco pasa en dirección de 90° con el fin de retirar el exceso y rellenar en las zonas donde pudo haber faltado. Después de 15 minutos transcurridos, se aplica la segunda capa siguiendo las direcciones contrarias. El procedimiento se repitió hasta completar 4 capas de antiadherente. Antes de utilizar el molde deben haber pasado mínimo 30 minutos. Sobre la orilla del molde se colocó butilo cuidadosamente. Posteriormente se adhirieron las mangueras de entrada y salida del sistema de igual manera con butilo. Conectado a las mangueras estaban las conexiones T. Como medio de difusión se fabricaron unos tubos a base de fibra de henequén envuelta en peel ply, las cuales se colocaron en la entrada y salida del sistema de vacío dentro de las conexiones T. En el centro del sistema se colocaron las 4 láminas de fibra de coco/henequén, con una placa de metal encima forrada con una película antiadherente para evitar que la placa se adhiera al laminado. Esta placa se utilizó con el fin de generar una presión uniforme y lograr un mejor acabado en el laminado. Además, se añadió una capa de peel ply de 7 x 25 cm a la entrada y salida, y una capa de Green mesh a la entrada como medios de distribución. El peel ply funciona como medio de transmisión de la resina y el Green mesh ayuda para dirigir la resina hacia las láminas de fibra. Por último, se colocó la bolsa de vació cuidando de que quedara completamente sellada con butilo, comenzando a sellarla desde la zona de la manguera de salida y haciendo presión entre la bolsa y el butilo. Una vez listo el sistema, se encendió la bomba de vacío durante 15 minutos. Seguido de esto, se preparó la mezcla de resina en un recipiente metálico y se ingresó al sistema por medio de la manguera de entrada. El flujo de ésta estuvo siendo regulando con una prensa troquelada. Después de ingresar toda la resina, se continuó aplicando vacío durante 5 horas más.


CONCLUSIONES

Se presentó un trabajo de manufactura de materiales compuestos reforzados con fibras en el que se utilizó la técnica de infusión por bolsa de vacío. Las fibras de coco utilizadas funcionaron como un buen refuerzo para el compuesto laminado, que junto con la matriz de resina bioepoxy, presentaron una buena adhesión interfacial a pesar de la humedad relativa de las fibras. De acuerdo con la experiencia adquirida en el desarrollo experimental, nos percatamos de la importancia de controlar diversas condiciones en el momento de llevar a cabo la infusión. Una de ellas es el vacío. Un buen sellado de la bolsa asegura que no existan entradas de aire, y así evitar la formación de concentradores de esfuerzos que afectan a las propiedades mecánicas del laminado, también nos dimos cuenta de la importancia de controlar la velocidad de flujo de la resina, ya que, permitir que la resina se difunda con menor velocidad, da como resultado un mejor relleno de la fibra y una superficie más homogénea y uniforme. Al final, se espera obtener laminados de fibras de coco y fibras de henequén con la capacidad de degradarse y de presentar un buen comportamiento ante esfuerzos. Para ello, se realizarán ensayos de tensión y compresión, así como también una caracterización óptica que nos permitirá predecir ciertas características del material. A partir de los resultados obtenidos, se podrá evaluar si sus propiedades son las adecuadas y si son una alternativa viable para la sustitución de algunos materiales en el sector aeroespacial.
Rochín Reyes Dhayan Isabel, Universidad Autónoma de Sinaloa
Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa

CONTROL DEL PITCH ANGLE EN TURBINA EóLICA


CONTROL DEL PITCH ANGLE EN TURBINA EóLICA

Rochín Reyes Dhayan Isabel, Universidad Autónoma de Sinaloa. Asesor: Dr. Néstor Daniel Galán Hernández, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La energía eólica busca que por medio del viento se obtenga energía mecánica la cual luego se convierte en eléctrica, logrando así evitar el uso de recursos no sustentables. Pero no solo se trata de crear un aparato que capte, sino de optimizar la materia que se otorgue. Por ende, al controlar el pitch angle (ángulo de inclinación) la potencia se mantiene constante de acuerdo a la velocidad recibida del viento, además de evitar generar un problema por sobrecarga y asi asegurar del sistema. Entonces los aerogeneradores modernos generan actualmente una parte importante de la energía electrica mundial, siendo Alemania, China, Estados Unidos e India los cuatro países que dominan el mercado de la energía eólica.



METODOLOGÍA

Primeramente se realiza el estado del arte respecto a técnicas e control del ángulo de paso en turbinas eólicas, donde se estudia de forma paticular el proceso de control para seguir un proceso teórico correcto, buscando conocer los datos como tiempo y variación angular con el propósito de elaborar un formulación adecuada. También se estudia la teoría relacionada con un micro generador-eólico de paso fijo, para así tener una mejor perspectiva de su comportamiento en el flujo de potencias, conociendo el proceso de funcionamiento del túnel del de viento, que se encarga de generar el viento incidente en la turbina eólica, así como la utilización de instrumentos como el anemómetro para medir la velocidad del viento y el tacómetro para medir la velocidad de la turbina, finalizando con la medición de voltajes generados entre las lineas del aerogenerador. En la parte de control se realizaron diagramas de flujo y de procesos por medio de bloques con el fin de crear una lógica de control. En base a las formulaciones que rigen el comportamiento del aerogenerador, se busca obtener los parámetros de entrada por medio de sensores. Al estimar la velocidad específica (λ), se puede obtener de forma experimental el coeficiente de potencia (Cp), relacionado a la eficiencia de la turbina eólica. El coeficiente de potencia depende también fuertemente del ángulo de inclinación del álabe, por lo que se calcula el ángulo, teniendo en cuenta de antemano los valores mínimos y máximos que se desea manejar en la apertura o cierre del álabe, con la finalidad de mantener una potencia mecánica constante ante incrementos de velocidad de viento. Adicionalmente, se realizan cálculos con el torque actual y anterior de la turbina, para saber si debemos reiniciar el proceso de la lógica de control o no.


CONCLUSIONES

Finalmente como resultados se tiene un diagrama de flujo sustentado matemáticamente que en un futuro se programe de manera directa en algún micro-controlador para que así un servo motor se posicione de acuerdo a la velocidad de viento regulando la potencia entregada. Además, desde el inicio del programa se estuvo trabajando en un reporte de tipo científico donde se anexó lo descrito en el planteamiento y metodología de este texto.
Rodas Cabrera Carlos Valentin, Instituto Tecnológico de Tapachula
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)


HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)

Morales Vazquez Samuel, Instituto Tecnológico de Tapachula. Pérez Arcos. Miguel Alejandro, Instituto Tecnológico Superior de Los Ríos. Rodas Cabrera Carlos Valentin, Instituto Tecnológico de Tapachula. Salazar Ruiz Miguel Ángel, Instituto Tecnológico de Tapachula. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

Actualmente los diseños de los sedimentadores de alta tasa se realizan con base en los criterios y ecuaciones recomendados en la literatura y la metodología descrita por los diversos autores es muy similar entre sí y data de varios años atrás. Los actuales diseños de tanques sedimentadores están sobredimensionados, esto hace que existan perturbaciones en el comportamiento del fluido y la presencia de corrientes preferenciales o flujos anómalos, provocando corto-circuitos y zonas muertas En este trabajo se va a realizar una revisión y evaluación exhaustiva, sobre cómo se encuentran actualmente diseñados los tanques sedimentadores de alta tasa que integran al proceso de clarificación convencional durante la potabilización, para desarrollar una metodología de diseño y recomendaciones, que permitan mejorar las condiciones de operación de las plantas potabilizadoras.



METODOLOGÍA

  Se realizó un análisis crítico de los procedimientos de diseño existentes de sedimentadores de alta tasa que se utilizan en plantas potabilizadoras, basado en una revisión bibliográfica, experiencias e investigación propia. De la revisión bibliográfica se observó que los diseños de las unidades de sedimentación se fundamentan en criterios, lineamientos, ecuaciones algebraicas, diagramas y ejemplos prácticos, que los ingenieros han transmitido desde hace varios años y que no han tenido modificaciones importantes en fechas recientes.  La metodología de cálculo propuesta por Romero J. (2000), donde utiliza ecuaciones algebraicas para determinar la carga superficial, el número de Reynolds, la velocidad de sedimentación y tiempo de residencia; sin embargo, no considera el tipo de entrada del flujo ni la posición de salida, por lo tanto, el diseño no garantiza eficiencia hidráulica del tanque sedimentador.                                                                                                                                         


CONCLUSIONES

El presente trabajo pretende sentar las bases para analizar la influencia que ejerce, la carga superficial, el ancho, el largo, la profundidad, el tipo y posición de la entrada y salida del agua en el sedimentador de alta tasa, sobre el comportamiento hidráulico- presencia de zonas muertas y cortos circuitos, para mejorar la eficiencia de la sedimentación. El objetivo principal de usar un software de Dinámica de Fluidos Computacional (CFD), es para realizar una evaluación hidrodinámica de los diferentes escenarios del sedimentador de alta tasa y encontrar las variables de respuesta y con ellos determinar la presencia de zonas de corto-circuito, así como de zonas muertas.
Rodríguez Barajas Carlos Ernesto, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo

PRUEBAS DESTRUCTIVAS Y NO DESTRUCTIVAS EN ESPECÍMENES DE MORTERO BASE CEMENTO, CON ADICIONES DE ALMIDÓN.


PRUEBAS DESTRUCTIVAS Y NO DESTRUCTIVAS EN ESPECÍMENES DE MORTERO BASE CEMENTO, CON ADICIONES DE ALMIDÓN.

Rodríguez Barajas Carlos Ernesto, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema.- Al pasar de los años se ha demostrado que el  diseño de morteros utilizados para la construcción no solo debe hacerse para lograr la resistencia del diseño requerida si no también debe diseñarse para lograr una estructura durable y resistente al ataque de diferentes agentes dañinos y a las circunstancias climáticas a las que este se vea expuesto, por lo tanto, se busca encontrar los aditivos cuya combinación con el mortero base cemento,  creen una mezcla más resistente y duradera.



METODOLOGÍA

Metodología.- La metodología empleada fue básicamente una metodología cuantitativa y cualitativa. Se realizaron diferentes estudios a especímenes diseñados y creados usando compuestos y combinaciones distintas de 3 diferentes maneras en laboratorio; en una mezcla se sustituyó el 6% del mortero por almidón de arroz, en otra el 6% del mortero fue sustituido por almidón de maíz, y en una última mezcla se sustituyó un 3% del mortero por almidón de arroz y otro 3% por almidón de maíz. Posteriormente se evaluó sus propiedades físicas: resistividad eléctrica (RE) y Velocidad de Pulso Ultrasónico (VPU); y mecánicas: Compresión Simple.


CONCLUSIONES

Conclusiones.- De la investigación realizada se obtuvieron resultados cuantitativos, los cuales se pueden comparar en herramientas visuales como tablas o graficas relacionadas con sus respectivas contrapartes. Esperando poder mejorar las propiedades físicas del mortero, como su resistencia a la corrosión, a la presión física y a otros factores naturales que se le puedan presentar si se es usado en campo destacando un poco la basta obtención de conocimiento adquirido gracias a la realización de todas la pruebas y ensayos que nos han llevado a concluir con esta investigación, se podría llegar a utilizar dichas mezclas en un futuro, con la constante análisis y experimentación hasta encontrar la mezcla que de las resistencias requeridas, haciendo un material más resistente y menos costoso de fabricar.
Rodriguez Cabriales Osvaldo, Instituto Tecnológico de Matamoros
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

EVALUACIóN DE LA CALIDAD DE FRUTOS UTILIZANDO TECNOLOGíA TERMOGRáFICA


EVALUACIóN DE LA CALIDAD DE FRUTOS UTILIZANDO TECNOLOGíA TERMOGRáFICA

Rodriguez Cabriales Osvaldo, Instituto Tecnológico de Matamoros. Vega Garza Alfonso, Instituto Tecnológico de Matamoros. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desde tiempos en que los seres humanos iniciaron con la recolección de frutos, siempre se ha tratado de ir seleccionando los mejores para su consumo, esto con el fin de tener una mejor calidad a la hora de ser consumidos o procesados. Actualmente la necesidad de una mejora continua y un gran avance tecnológico, nos ha permitido evaluar la estructura interna de algunos frutos implementando una técnica de evaluación de la calidad de productos de manera inocua, rápida, económica y no invasiva, que permita determinar alteraciones y anomalías internas para así tener una mejor calidad en el producto.



METODOLOGÍA

Se realizó una investigación sobre diversos conceptos relacionados a la termografía, conductividad térmica, y análisis de imágenes. Dicho esto, podemos decir que la conductividad térmica es la propiedad de aquellos elementos que posibilitan la transmisión de calor. Implica que, el calor pasa del cuerpo de mayor temperatura a otro de menor temperatura que se encuentra en contacto con él. La estructura interna de los frutos es diversa pero entre ellos térmicamente se comporta similar siempre y cuando no haya alguna estructura diferente dentro de ellos, como pueden ser golpes, mallugaduras, o incluso gusanos, esto implica un gran estudio, pero la ventaja de ser no invasivo, y con el fin de no modificar su estructura al momento de conocer si presenta alguna anomalía, es una ventaja que debemos aprovechar, por lo cual, se implementó una técnica basada en suministrar una serie de pulsos térmicos que nos permite evaluar el perfil de la transmisión de calor dentro del fruto y así correlacionar las anomalías térmicas con defectos internos del mismo. Se realizó una base con un diseño óptimo de sistema termográfico activo previamente diseñada de Madera de 12 de largo, 8 de ancho y 11 de Altura. Los pulsos termográficos fueron hechos desde dos lámparas de halógeno de 100 watts conectadas a fuentes de alimentación regulables de corriente directa (13 volts y 3 amperes), esto con el fin de propagar una energía térmica a la fruta con una mejor uniformidad, y elevar su temperatura en un cierto periodo. La temperatura de las frutas era ambiente por lo cual, el periodo de descenso de los frutos después del pulso electromagnético, fue grabado en una secuencia de cuadros con una cámara Infrarroja marca Xenics Gobi-640-GigE-3375, la cámara se encontraba conectada a una computadora de escritorio que contaba con el Software Xeneth64. A cada fruto se le capturaron 6 secuencias de imágenes diferentes, todo esto en relación a las 6 caras del fruto si se ve desde un punto tridimensional con el fin de que en caso de que el fruto tuviese una anomalía interna poderla analizar con mayor precisión. Una vez analizado cada secuencia de imágenes de respectivo fruto obtenidas durante el experimento nos centramos en como cambiaba o evolucionaba el enfriamiento en cada pixel de la imagen, ya que, en cierta región, a partir de un instante de tiempo se enfrió con una velocidad mayor o menor que en una región sana. Una vez analizado el fruto por seis secciones se dejó pasar unos días para tomarle capturas nuevamente. Se observó que el periodo de enfriamiento después de aplicarle el pulso termográfico era distinto al tomado por primera vez. Su periodo eras más largo, tardaba más tiempo para que el fruto regresara a la temperatura inicial.


CONCLUSIONES

Para dar termino al periodo de la estancia, el periodo de enfriamiento entre el primer análisis y el segundo análisis en una semana después de la misma fruta, se pudo determinar que la estructura interna se modificó y esto se vio demostrado en los periodos de enfriamiento después del pulso termográfico, ya que tardaba más en enfriar su temperatura. Por último, se pretende que los resultados dados por el programa en MATLAB demuestren las anomalías existentes en los frutos, después de haber sido realizado el pulso termográfico. Con el fin de poder ser empleado en las industrias de alimentos y frutos, para tener una mayor calidad en la selección de frutos.
Rodriguez Castro Hector Emiliano, Universidad Politécnica de Sinaloa
Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa

MOVIMIENTOS DE ROBOT HUMANOID BIOLOID


MOVIMIENTOS DE ROBOT HUMANOID BIOLOID

Castrejon Duran Daniela Alejandra, Universidad Politécnica de Sinaloa. González Morales Martha Carolina, Universidad Politécnica de Sinaloa. Rodriguez Castro Hector Emiliano, Universidad Politécnica de Sinaloa. Asesor: Dr. Dora Aydee Rodriguez Vega, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Un robot humanoide es aquel robot que asimila la morfología y movilidad de un ser humano con el que se pretende simular la manera en la que interactúa con su entorno. En la actualidad existen muchos kits de robótica educativa como es el caso del Bioloid, un robot humanoide que funciona mediante 18 motores dyamixel y se puede programar para que realice ciertas acciones deseadas. Idealmente se pueden programar ciertas rutinas específicas mediante su controlador principal el CM-530, sin embargo, es posible utilizar otros módulos para controlarlo; tal es el caso del ESP32, un procesador de 32 bits que es compatible con la interfaz de Arduino. La mayor problemática que se presenta al utilizar este tipo de controlador es que no se cuenta con información que pueda ser utilizada como referencia específicamente para el objetivo deseado, que es el lograr que el robot Bioloid realice ciertas acciones basándose en los colores detectados en una pista a partir de la información obtenida por una cámara, indicándole así la acción que se debe realizar.



METODOLOGÍA

Para darle resolución a la problemática, se necesitó de mucho tiempo de investigación y reconocimiento de distintos entornos de programación que, anteriormente, eran desconocidos. La primera actividad llevada a cabo fue la obtención de distintos softwares que serían usados conforme se fuera avanzando con el tajo asignado. Los softwares descargados fueron RoboPlus y  Eclipse cpp. Se dio inicio a la exploración de las plataformas, usando los motores Dynamixel y el CM 530, controlador por default del bioloid,  para simular movimientos que fueron especificados por medio de la interfaz de RoboPlus Manager, siendo esta la más sencilla de manipular al ser básicamente un contenido de las propiedades de cada motor. Se entendió la forma de cambiar ID, la definición de posición central y velocidad predeterminada. Cuando se hubo entendido el funcionamiento de Manager, se pasó a RoboPlus Motion, la cual contiene más opciones de manejo para la elaboración de movimientos. Posteriormente, se emprendió la tarea de adentrarse en el Software Eclipse cpp, el cual cuenta con una interfaz muy similar a cualquier otra destinada a la programación. Teniendo como objetivo el utilizar la placa ESP32 para el proyecto, se concentró la mayor parte del esfuerzo y tiempo en entender el funcionamiento de dicho controlador, que hasta entonces, resultaba ajeno a nuestro conocimiento. Al inicio, se llevó a cabo programación sencilla en Visual Studio Code, tomando como entorno de programación Arduino ide y añadiendo librerías según se necesitara. Se llevaron a cabo movimientos de uno, dos y tres motores; llegando así a controlar una extremidad completa. A partir de ahí se programaron movimientos a los dieciocho motores. Se crearon primitivas para el robot, desde pasos hasta posiciones complejas, todas estas con el propósito de ser utilizadas después al llamarlas mediante comandos. Los comandos se programaron en Visual Studio, utilizando el monitor serial se pudo llamar la posición o rutina deseada. Después de tener dominado el monitor serial se creó un entorno html con ayuda de la librería wifi.h, gracias a la cual se pudo controlar el robot desde un servidor web por medio de algún dispositivo conectado a la misma red que el controlador. Así, se logró la comunicación inalámbrica con este. Para la programacion del sistema de vision, se utlizó un sistema embebido Arduino Uno, que servia para establecer comunicacion entre la CMUCAM5, que es la camara que se pretende que el robot lleve integrada para poder desenvolverse de manera propia. Se utilzó previamente el software de PixyMon que es el software predeterminado de las Pixy Cam, este software ayudó a programar lo que la cámara percibia y con el arduino filtrar esa información para posteriormente accionar los movimientos ya desarrollados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir los conocimientos sobre cómo se puede utilizar el ESP32 para controlar cada uno de los motores que forman parte del robot Bioloid y así poder manipularlos para que realicen ciertas posturas establecidas a velocidades definidas; ayudando así a establecer los movimientos base o primitivas que permitirán al robot recorrer la pista dependiendo cada uno de los obstáculos que se puedan presentar. De igual manera, se logró realizar la comunicación inalámbrica con el ESP32 para así poder asignarle ciertas rutinas mediante el uso de botones, los cuales mandan la instrucción sobre el movimiento que se quiere que se realice; sin embargo, aún no se logra el objetivo de que el robot sea capaz de identificar por sí mismo qué movimiento debe realizar basándose en el color detectado. Se espera lograr la comunicación de la cámara con el ESP32 para que así se puedan generar condiciones que ayudaran a establecer bajo que circunstancias el robot debe moverse y que movimiento accionar
Rodriguez Castro Paula Jeanett, Instituto Tecnológico de Culiacán
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

EVALUACIóN DE ESTíMULOS VISUALES EN BCI BASADA EN P300


EVALUACIóN DE ESTíMULOS VISUALES EN BCI BASADA EN P300

Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Rodriguez Castro Paula Jeanett, Instituto Tecnológico de Culiacán. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Existen enfermedades que afectan la movilidad de las personas, en el año 2014 la discapacidad motriz fue el principal tipo de discapacidad reportado, el cual abarcó 2.6 millones de personas. Uno de estos padecimientos es la esclerosis lateral amiotrófica (ELA), esta es una enfermedad del sistema nervioso en la que se destruyen las células nerviosas que están en la medula espinal y en el cerebro, esto provoca que la persona tenga dificultades al escribir, caminar y hablar hasta que sea incapaz de moverse. Una de cada 20,000 personas en el mundo padece de ELA y se calcula que hay 6,000 casos de ELA en México. Aunque se desconozca la causa principal para este padecimiento, del 5 al 10% de los casos es hereditario. Tampoco existe cura para la ELA, sin embargo, con medicamentos se puede frenar el avance de dicha enfermedad. La ELA afecta a la calidad de vida de las personas, así como otras enfermedades motrices. Por ese motivo, se realizaron experimentos durante este verano científico con el fin de obtener datos que puedan ayudar a mejorar la interfaz que se pretende implementar en futuras aplicaciones, como son órtesis y robots que les faciliten realizar tareas cotidianas.



METODOLOGÍA

Se realizaron 3 experimentos en 15 sujetos, por lo que fueron 45 experimentos los que se hicieron durante la estancia de verano científico. Se implementó un interfaz cerebro-computadora basado en onda P300 en el que se evaluaron estímulos visuales. Para llevar a cabo el experimento se utilizó el equipo de g.tec medical engineering, el cual incluía un regulador, que es un cable conectado directamente a la luz, un amplificador de bioseñales g.USBamp que se conectaba a la computadora y a una placa porta electrodos gammabox a la cual se le conectaron 10 electrodos (9 electrodos y una pinza de referencisa) que se colocan en un casco neuronal ajustado a la configuración P300. El procedimiento previo a la realización del experimento consistió en colocar el casco al sujeto y ajustar la correa en el mentón. Posteriormente se colocan los 9 electrodos en el casco y la pinza de referencia en el lóbulo del oído derecho del sujeto. Se le colocó el gel conductor procurando que este hiciera contacto con la superficie del cuero cabelludo. Después, se procedió a encender la placa porta electrodos y el amplificador de bioseñales para conectarlas al programa g.USBampDataStreamer y poder verificar que la amplitud de las ondas estén dentro del rango y que tengan una forma adecuada. El experimento consistió en presentarle al sujeto diferentes configuraciones de estímulos en la pantalla (de 4 a 9 estímulos), lo que debe hacer el sujeto es mirar fijamente el estímulo que se le indique y contar las caritas felices que pasan aleatoriamente en cada uno de los estímulos. Para esto, se inició con un training de 5 estímulos, es decir, una partida con 5 casillas con flechas acomodadas en forma de cruz en la pantalla (4 direcciones y una casilla de STOP al centro). Al terminar dicho training, se validaron los resultados para obtener 3 valores: Clasification rate, Classification rate of Target Class y Classification rate of Non-Target Class. Si el valor de Clasification rate fue mayor a 0.7, se conservaban los resultados del experimento, registrándose en una tabla de datos personalizada para cada sujeto. Se continuó realizando un Online Test con 5 estímulos, que consiste en que el sujeto elige el estímulo y cuenta las caritas felices que pasan en este, por lo que la interfaz se detiene en el estímulo en el que detecta que el sujeto estaba enfocado visualmente. Se hicieron 4 intentos en este tipo de prueba y se registraron en una bitácora. Continuando con el experimento, se realizó otro training de 5 estímulos, pero con la diferencia de que el tipo de estímulo es parpadeante y no de caritas felices. Después de validar los resultados, se comparó el valor de Clasification rate con el obtenido en el training de 5 estímulos con caritas felices, y se procedía a realizar los demás trainings con el tipo de estímulo con mayor valor. Para esto, si el valor del training con el estímulo de parpadeos fue mayor, se realizaba un Online Test con 4 intentos para este tipo de estímulo. Por último, se realizaban los demás trainings, en donde el orden para los 4, 6, 7, 8 y 9 estímulos fue aleatorio en cada sujeto. Luego de haber realizado los 3 experimentos a cada uno de los 15 sujetos, se procedió a hacer el análisis de varianza ANOVA de dos factores con múltiples muestras para determinar si hubo algún número de estímulos que sea mejor para los sujetos, o si los resultados de las pruebas mejoraban según se iban realizando más experimentos.


CONCLUSIONES

A lo largo de la estancia de verano se adquirieron conocimientos muy importantes respecto a interfaces cerebro-computadora, además de que se realizaron experimentos y sus análisis correspondientes que indican la respuesta de los participantes ante estímulos visuales. Gracias a esto, se demostró que los resultados mejoraron entre más número de pruebas se le aplicaban a cada sujeto y que son indiferentes al número de estímulos.
Rodríguez Chávez Manuel Alejandro, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez

INTERCONEXIóN DE PANELES FOTOVOLTAICOS A RED COMERCIAL


INTERCONEXIóN DE PANELES FOTOVOLTAICOS A RED COMERCIAL

Rodríguez Chávez Manuel Alejandro, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Torres Baltazar Abdiel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Las tecnologías de energía renovable tales como fotovoltaica, turbinas eólicas han llegado a ser populares y comercialmente disponibles. Sin embargo estas nuevas tecnologías son menos competitivos que la energía eléctrica industrial de gran potencia. Este resumen se trata de una interconexión de un sistema fotovoltaico que me tocó trabajar como estudiante de verano científico, esto es para poder realizar una investigación de cómo son interconectados los paneles a la red de CFE la cual cuentan con un medidor bidireccional conectado a la red eléctrica la cual las tensiones eléctricas de CA son de mayor magnitud dependiendo las cantidades de cadenas o arreglos de los paneles que están conectados.



METODOLOGÍA

Comenzando con los recursos naturales para la captación de la energía para ser procesada, las interconexiones de los módulos SFV seguidos por los controladores de carga principal para que luego sea regulado en un inversor de CA para que al final sea utilizado para las cargas deseadas.   En esta investigación la clasificación de este sistema fotovoltaico es de inversores por cadena, la cual es un arreglo de los paneles interconectados en serie-paralelo, la cual cuenta también con un sistema de protección contra sobre-corriente, y en este caso la salida de potencia es menor a los 10kwh como máximo por la norma CFE G0100-04 Interconexión a la Red Eléctrica de Baja Tensión de Sistemas Fotovoltaicos con Capacidad hasta 30kW.  En una conexión bifásico la cual las corrientes de los SFV de cada inversor en CD y el manejo de estas potencias son altas pero son de menor riesgo. Hay muchas condiciones que afectan el funcionamiento del SFVI; la sombras, es el problema más eficaz en la generación de la energía fotovoltaica ya que impide el paso de los fotones; la latitud, debe tomarse en cuenta este factor ya que se debe determinar la inclinación del panel la cual se debe inclinar en un Angulo correspondiente a la latitud del sitio de instalación; la temperatura, esto provoca una disminución de tensión eléctrica la cual afecta a la generación de este sistema. Otro aspecto importante es el puesto a tierra; es decir, tener conectado esté SFV a tierra o algún cuerpo conductor que extiende a la conexión a tierra para tener la mayor seguridad contra el riesgo de aterrizaje contra el cuerpo humano.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las interconexiones de un sistema fotovoltaico la cual nos pusimos en práctica con todo lo mencionado en la metodología del SFVI, la cual también se puso en cuenta que para realizar algún tipo de obra de un SFVI hay que tener puesto herramientas de seguridad en el sitio de instalación, y también tener todo listo para hacer el trabajo finalizado  como son los herramientas y material requeridos para la instalación todo, esto hay tener a mano para poder hacer de una obra o proyecto a su máximo para poder ponerlo en marcha. Con respecto a la capacidad instalada, aplica para la interconexión a la red eléctrica de baja tensión para el SFV ya que cuenta con un máximo de hasta 30kw ya sea en viviendas, comerciales o escuelas. Como conocimiento de SFVI hay que tener en cuenta la interpretación de los planos o dibujos y planos eléctricos para realizar las instalaciones, para que podamos iniciar con un proyecto u obra. Para la capacidad del tablero de carga hay que tener en cuenta la verificación del centro de carga en donde se realizará la interconexión la cual si tiene la capacidad de recibir la potencia de salida del inversor al instalar el SFV, esto es para tener en cuenta la protección contra sobrecorreinte del tablero o centro de carga, ya que en este caso hay que revisar el interruptor termomagnético que protege a los conductores que alimentan al tablero tiene la capacidad de recibir la corriente de salida máxima del inversor. En este caso los conectores para las salidas de los conductores para el centro de carga fueron ponchados con cuidado en la cual al momento de hacer el ponchado se pueda zafar el pin del conductor.
Rodriguez Garcia Marco Antonio, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. John Alberto Betancur Maya, Instituto Tecnológico Metropolitano (Colombia)

COMPARACIóN DE LA GESTIóN METROLóGICA EN LA MEDICIóN DEL CONTAMINANTE PM 2,5 EN LA CALIDAD DEL AIRE DE LAS CIUDADES DE MORELIA, MéXICO Y MEDELLíN, COLOMBIA CON BASE EN LA NORMA EPA.


COMPARACIóN DE LA GESTIóN METROLóGICA EN LA MEDICIóN DEL CONTAMINANTE PM 2,5 EN LA CALIDAD DEL AIRE DE LAS CIUDADES DE MORELIA, MéXICO Y MEDELLíN, COLOMBIA CON BASE EN LA NORMA EPA.

Rodriguez Garcia Marco Antonio, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. John Alberto Betancur Maya, Instituto Tecnológico Metropolitano (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad Morelia, Michoacán se ha posicionado entre las 21 ciudades con mala calidad de aire en el país, según el reporte del Sistema Nacional de Información de la Calidad del Aire (Sinaica) (MiMorelia, 2019). Es por ello la importación de contar con un correcto control y método para la recopilación de los datos, que permita contar con la menor incertidumbre a la hora del análisis de los datos obtenidos. Morelia, Michoacán es la única ciudad en el estado que cuenta con sistemas de monitoreo de la calidad del aire, pero también es de las ciudades que tienen los tres principales factores de contaminación ambiental. Los niveles de PM 2,5 en el aire de la capital michoacana rebasan los indicadores aceptables, sin que anteriormente se tuvieran implementadas medidas para su mitigación. Las partículas producto del uso de aerosoles, smog, polvos y humos metálicos, humo de tabaco, arcilla, pigmento de pintura, bacterias y polvos insecticidas que entran en el rango de las PM 2,5 constituyeron, el tipo de contaminante que llegó a rebasar los niveles aceptables de presencia en el aire de la capital michoacana (Cambio de Michoacán, 2015). La calidad del aire en Medellín se ha convertido en los últimos10 años, en uno de los aspectos más relevantes para las autoridades locales, con la implementación de un Plan de Descontaminación a corto, mediano y largo plazo para el manejo de episodios críticos del Valle de Aburrá, orientado a lograr cambios estructurales para la solución permanente de la contaminación atmosférica con todos los actores involucrados. La definición y establecimiento de un índice de calidad del aire, al igual que la correcta utilización de los instrumentos de medición contribuyen a una correcta interpretación de los datos e información obtenida para la toma de decisiones y la adopción de procedimientos o estrategias que impacten en la mejora de la calidad del aire y a sí mismo en la calidad de vida de las comunidades que residen en el Valle de Aburrá y del municipio de Morelia.



METODOLOGÍA

Se comparará la gestión metrológica utilizada en las ciudades de Morelia y Medellín siguiendo los métodos que a continuación se presentan: Verificar que los instrumentos utilizados para la medición del contaminante PM 2,5 hagan parte del manual de los aparatos aprobados por la norma EPA. Identificación de la gestión metrológica de ambas ciudades en base al diagrama de flujo estipulado en la norma ISO 10012:2003. Analizar la gestión metrológica de ambas ciudades determinando la cadena de la trazabilidad metrológica para el aseguramiento de las medidas. Implementación de caja morfológica para definir la frecuencia de calibración en los instrumentos utilizados en ambas ciudades ara la medición del contaminante PM 2,5. Determinar mediante una matriz comparativa el cumplimiento de los lineamientos establecidos por la norma EPA. Proponer oportunidades de mejora para una o ambas ciudades.


CONCLUSIONES

La presente investigación es el primer paso para un acercamiento en el conocimiento e implementación de una gestión de las mediciones en la calidad del aire. La confiabilidad de la medición del contaminante PM 2,5 está relacionado con el cumplimiento de la cadena de trazabilidad metrológica Los instrumentos utilizados para la medición del contaminante PM 2,5 antes de su puesta en funcionamiento deben estar calibrados. Para consolidar el comportamiento del contaminante PM 2,5 presente de las ciudades de Morelia y Medellín se deberá tener una cantidad suficiente de datos que permita desde el punto de vista estadístico conocer el comportamiento real de dicho contaminante para la toma de decisión en cuanto a la calidad del aire se refiere. La gestión de las mediciones permite dentro de las actividades propias de la medición de la calidad del aire; una rigurosidad tal que permita una confiabilidad en los resultados, toma de decisiones, y la toma de daciones para el bienestar de las personas. Es decir, existe una relación entre la metrología y el bienestar de las personas; al medir mal se obtendrán datos no confiables y resultados ajenos a la realidad.
Rodríguez García Miguel Angel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato

DISEñO DE SISTEMA DE INTERCAMBIO DE HERRAMIENTAS PARA MAQUINA CNC VERSáTIL


DISEñO DE SISTEMA DE INTERCAMBIO DE HERRAMIENTAS PARA MAQUINA CNC VERSáTIL

Rodríguez García Miguel Angel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Planteamiento Teniendo en cuenta que las maquinas CNC de escritorio han alcanzado gran popularidad en el maquinado de piezas  por parte de estudiantes o entusiastas del área de manufactura, se decidió abordar un área de oportunidad en las maquinas mini CNC, ya que es muy común que en estas máquinas se trabajen con más de una herramienta, como el taladro router, el módulo laser y la extrusora de PLA o polímero. Al cambiar la herramienta en la maquina resulta necesario hacer complejos ajustes dada la robustez necesaria para evitar vibraciones o ajustes mecánicos, comúnmente se utilizan tornillos o pernos y si se trata de una maquina CNC con una herramienta esta se asegura con remaches para ajustes perfectos. Se plantea un diseño en que de manera integral se logre cambiar más de una herramienta sin la necesidad de usar tornillo o pernos.  



METODOLOGÍA

Metodología Al iniciar el verano de investigación en el Instituto Tecnológico Superior de Guanajuato se realizó la búsqueda del estado de la técnica relacionado con las maquinas CNC y específicamente a módulos de cambio de herramienta. Una vez recopilada esa información, y ya que es un área de oportunidad, se realizaron trabajos de esquematización y modelado de la maquina versátil sobre la que se aplicará el sistema. Se seleccionaron y se midieron las herramientas para implementar el sistema. Todas las piezas se pasaron a sistema CAD y se comenzaron a hacer propuestas de diseño del sistema teniendo en cuenta las características de la maquina con el objetivo de un intercambio de herramental rápido y eficiente en su sujeción. Dentro de la propuesta se presentaron varios prototipos y se analizaron varias propuestas de diseño. Se trabajó en la elección del maquinado de las piezas, el tipo de material y la manera de sujetarla, tomando en cuenta que el precio debe ser contenido y la rigidez debe de estar garantizada.


CONCLUSIONES

Conclusiones  Como resultado se propuso un diseño final que consiste en sistema de ensamble que permita el cambio de herramienta de manera accesible y sin tornillos en la sujeción. El sistema se compone de dos piezas, una base fija que estará fija en la maquina y otra base móvil que se ensamblará con la fija, que en su interior llevará dos imanes de neodimio de manera que se garantice la fijación. La ayuda de CAD fue indispensable ya que se pudo desarrollar simulaciones de ensamble y nos ayudó a identificar posibles problemas mecánicos y de diseño. Partiendo del diseño en CAD se planteó fabricarlos por medio de una impresora 3d con material de filamento PLA ya que este último es fácil de trabajar a temperaturas bajas que otros filamentos, como el ABS y no se deforma fácilmente en la extrusión. El filamento tiene como especificaciones dureza alta, flexibilidad baja, dificultad de uso baja, temperatura de cama de impresión 20°-60° (no necesaria), contracción-deformación mínima. Una vez creado el prototipo, se monta en la maquina y se somete a pruebas mecánicas. La bitácora de trabajo se formaliza con las actividades realizadas durante la estancia.  
Rodriguez Gonzalez Miguel Angel, Universidad Autónoma del Estado de México
Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas

IMPLEMENTACIóN DE UNA SALA DE CóMPUTO USANDO SOFTWARE Y HARDWARE LIBRE.


IMPLEMENTACIóN DE UNA SALA DE CóMPUTO USANDO SOFTWARE Y HARDWARE LIBRE.

Rodriguez Gonzalez Miguel Angel, Universidad Autónoma del Estado de México. Asesor: Mtro. Hector Salvador Garcia Romo, Universidad Tecnológica de Bahía de Banderas



PLANTEAMIENTO DEL PROBLEMA

Muchos centros escolares en sus aulas de clase hacen uso de proyectores y computadoras para que sus estudiantes puedan memorizar temas y apuntes de una manera mucho más rápida pero también hay escuelas con un gran rezago tecnológico y no pueden contar con estas herramientas. Es por ello que a una alternativa a esto es el software y hardware libre, así mismo se desea implementar una sala de computo en una escuela primaria con Raspberry pi, actualmente siendo una opción viable en el apartado económico.



METODOLOGÍA

Para la recopilación de los datos se utilizó la entrevista a profundidad, durante la cual los temas abordados fueron capacidad de la sala de computo, cantidad de alumnos, presupuesto, costos en los equipos a utilizar. De igual manera se realizó una prueba con una computadora armada a través de la herramienta raspberry pi, haciendo uso de software educativo, el cual se fue a sometido a pruebas de conectividad, sistema de archivos, etcétera.


CONCLUSIONES

Con el armado de la computadora y las pruebas aplicadas se demuestra que el software libre es una opcion viable para las escuelas ademas de que los alumnos pueden ocupar otras herramientas diferentes a las ya existentes, además de que con el financiamiento necesario y con el apoyo de las instituciones educativas, padres de familias, profesores y alumnos este tipo de proyecto ya puede ser un hecho, pues no se requiere grandes cantidades de dinero o un especio demasiado grandes, solo hace falta un salón de clases y muchas manos que puedan ayudar, al final del día los beneficiados serán los jóvenes que hagan uso de estas herramienta ya que ellos han pasado de convertirse en el futuro de nuestra sociedad a ser el presente de la misma.
Rodríguez Gutiérrez Luisa Cecilia, Universidad de Guadalajara
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.


ELABORACIÓN DE CONCRETO Y MORTERO UTILIZANDO LOS RESIDUOS DE LA INDUSTRIA LOCAL (CENIZA DE BAGAZO DE CAÑA, UNICEL Y PET) CON EL FIN DE AUMENTAR SUS CARACTERÍSTICAS MECÁNICAS.

Fajardo Hernandez Irma Aslhey Isabel, Universidad de Guadalajara. Maya Velazquez Lidia Viviana, Universidad de Guadalajara. Pavon Suarez Luis Alberto, Instituto Politécnico Nacional. Rodríguez Gutiérrez Luisa Cecilia, Universidad de Guadalajara. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.El concreto y el mortero ha sido una de las aportaciones más importantes para la construcción a nivel mundial, sin embargo, para su elaboración se han registrado niveles importantes de contaminación en el medio ambiente, principalmente por el uso del cemento. Al ser el cemento un elemento base en su elaboración se propone la iniciativa de buscar materiales alternativos que puedan sustituirlo parcialmente, y al mismo tiempo aprovechar un material desechado, siendo este la ceniza de bagazo de caña. Asimismo, se busca aprovechar otros residuos como el unicel para la elaboración de concreto ligero, es decir, como sustituto de grava; también se investigará cómo actúa el PET como adición en la mezcla del concreto para aumentar su resistencia a la flexión.



METODOLOGÍA

La metodología para desarrollar este proyecto se divide en la elaboración de mortero para block y concreto para placas, cilindros y vigas. Para lo cual se llevan a cabo los siguientes pasos: Diseños de mezclas de concreto para diferentes f’c y diseño de mortero. Se realizaron dosificaciones para resistencia a la compresión de 200kg/cm2, 250kg/cm2 y 300kg/cm2 para concreto y dosificaciones de 3 block para mortero. Preparación del residuo para su incorporación en la  mezcla de concreto hidráulico. En este paso se inicia con la trituración del unicel, buscando que dé como resultado polvo, para esto se emplearon distintas herramientas como lijas y tamices. En el caso de la ceniza de bagazo de caña se tamiza el residuo por las mallas No.100 y No.200 para trabajar únicamente con los finos. El PET se cortó manualmente en tiras de aproximadamente 5mm de ancho por 30mm de largo y en escamas. Elaboración de especímenes. 3.1. Elaboración de block. Para esto se hicieron blocks sustituyendo el 5% del cemento a utilizar por ceniza y para comparar se hicieron blocks normales (cemento-arena). 3.2. Elaboración de cilindros y vigas de concreto con unicel. En este caso se elabora la mezcla de concreto cambiando el volumen de grava obtenido en el diseño por unicel, para obtener concreto ligero, posteriormente se procede al llenado de los cilindros y de la viga tal cual lo indican las normas. 3.3. Elaboración de cilindros de ceniza de bagazo de caña. Para su elaboración se sustituye en 15% del peso del cemento a utilizar en cada diseño de mezcla, se llenan los cilindros según la norma. 3.4. Elaboración de cilindros y viga de concreto convencional (normal). Se elabora la mezcla tal cual fue diseñada utilizando los agregados comunes (cemento, grava, agua y arena) en las proporciones obtenidas y se llenan los cilindros y viga conforme indica la normativa. 3.5. Elaboración de cilindros y viga con PET. Debido a que el PET se utiliza como una adición se elabora la mezcla de concreto tal cual lo marca el diseño y se agrega dos gramos de PET por cada kilo de cemento utilizado. En este caso se elaboran cilindros y vigas con tiras de PET, escamas de PET y fibras sintéticas para una resistencia a la compresión de 250kg/cm2. 3.6. Elaboración de placas con concreto ligero y con concreto convencional. Al igual que en los cilindros con unicel se elabora la mezcla cambiando el volumen de grava por unicel y se procede al llenado del molde, el cual fue previamente preparado con malla de gallinero; en el caso de la placa con concreto convencional se usa grava de ½. 4. Ensayo de especímenes. Se realizaron las pruebas mecánicas necesarias para determinar la resistencia a la compresión de los cilindros y blocks, así como la resistencia a la flexión de las vigas y las pruebas de carga y descarga en las placas. Cada una de estas se realizó en el tiempo determinado por las normas.


CONCLUSIONES

En los resultados obtenidos de las pruebas de compresión y flexión con los diversos materiales utilizados se encontraron diversos resultados. Teniendo como base cilindros, viga y tableros con f’c 250kg/cm2 convencional, para poder hacer una comparativa de cómo afectan los materiales utilizados. El concreto que fue realizado con unicel en la prueba de compresión, se obtuvieron valores muy por debajo a lo calculado por lo que ese tipo de mezcla no se puede utilizar para realizar elementos estructurales, pero al ser un concreto aligerado se le puede encontrar otro uso no estructural. En cuanto al concreto elaborado con ceniza de bagazo de caña, se encontró que no lo hace tan resistente como el convencional, pero por muy poco, pero ayuda a tener un revenimiento menor. El concreto con PET en escama, presenta un mayor rendimiento al convencional, y una menor resistencia a la compresión. Considerando la utilización de placas de concreto aligeradas con unicel en sustituto a la grava se propone utilizarlos como un método de construcción prefabricada, de fácil manejo y ensamble como muros no estructurales en las comunidades marginadas del estado, pero para poder lograr esto, se tendrá que realizar una casa muestra para poder observar su comportamiento con diversas temperaturas, durabilidad, y estabilidad frente a algún sismo
Rodriguez Hinojosa Pedro, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Ing. Alicia Linares Ramirez, Instituto Tecnológico de Estudios Superiores de Zamora

SISTEMA PARA EL MONITOREO DE LAS EVALUACIONES PARCIALES EN EL ITESZ


SISTEMA PARA EL MONITOREO DE LAS EVALUACIONES PARCIALES EN EL ITESZ

Rodriguez Hinojosa Pedro, Instituto Tecnológico de Estudios Superiores de Zamora. Romero Vazquez Nalleli Lizbeth, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Ing. Alicia Linares Ramirez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Antecedentes del problema En el ITESZ existe una gran falta de información entre los jefes de carrera, los tutores, acerca de los alumnos para la detección a tiempo de los alumnos que están en riesgo de la deserción y los índices de reprobación en los grupos, ya que los alumnos que se encuentran en esta situación, debe de analizarse su caso, para ver que puede ser el problema que les impide concentrarse en los estudios, de esta manera al detectar cual es problema, canalizarlo con el especialista indicado. Definición del problema Con los informes de las calificaciones de los alumnos , los tutores podrán dar seguimiento y  averiguar qué es lo que pasa con los alumnos en riesgo, cuales son los problemas que tienen, de esta manera poderlos canalizar a el área que lo necesita, lo cual podrá evitar la deserción de los alumnos, de igual manera ver los índices de reprobación de las materias, y por alumno, ya que gracias a esta información se podrá ver los avances de los alumnos, ver cuál fue el motivo de la reprobación , si con ayuda académica extra , los alumnos más bajos se pueden poner al corriente con sus compañeros.  



METODOLOGÍA

La metodología que se siguió para realizar este proyecto: La metodología que se siguió es Microsoft Solution Framework  que es un modelo interactivo que se divide en cinco fases, las cuales se mencionan a continuación: Fase diagnóstico y configuración inicial Fase módulo de actividad: tutorial Fase Captura de trayectoria escolar Fase de estabilización Fase Servidores. Fase Captura de trayectoria escolar


CONCLUSIONES

 Al concluir esta estancia en el ITESZ he comprendido, todos los requerimientos y complicaciones al crear un sistema con esa magnitud, ya que se conlleva diferentes complicaciones éticas, de las cuales se realizó una investigación para saber hasta dónde puede abarcar el sistema, como es que funciona el aprendizaje, de la misma forma cual es el criterio de evaluación de los maestros, ya que se tuvo en cuenta lo siguiente  se pudo empezar el proyecto para realizar el seguimiento de los alumnos, de esta manera la información que se tiene, será más sencillo detectar a los alumnos en riesgo de deserción para poder prevenir estas situaciones y de esta forma poderlos ayudar a tiempo.
Rodriguez Martinez Blanca Esthela, Universidad Autónoma de Guerrero
Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC

DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA: PANEL DE BAHAREQUE METÁLICO (PANEL BAM)


DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA: PANEL DE BAHAREQUE METÁLICO (PANEL BAM)

Lopez Delgadillo Ricardo, Universidad Autónoma del Estado de México. Rodriguez Martinez Blanca Esthela, Universidad Autónoma de Guerrero. Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC



PLANTEAMIENTO DEL PROBLEMA

En la construcción se opta por homogeneizar un método de construcción aplicando materiales pétreos que no se adaptan al tipo de región en la que fueron construidas. El uso de materiales externos a la región, aumenta el costo de la transportación aunado a un gasto energético innecesario y a un aumento de nuestra huella de carbono sobre el planeta, dejando de lado todos los materiales propios de la zona que en ocasiones solo tienen una función de un excedente de la ciudad, por ende estos tienden a convertirse en desechos sin estar teniendo en cuenta que tienen un potencial para aprovechar en la Bioconstrucción. Actualmente un muro de Panel W, Muro de Tabique o Tabla Roca que tiene un grosor considerable despoja espacio habitable en las viviendas, y una termicidad nula, en los cuales se tienden a calentar el elemento constructivo por su composición, que resultan deficientes para regiones con temperaturas altas, y en su caso opuesto también para temperaturas bajas. Debido a que las edificaciones actuales demandan el empleo de prácticas y materiales que de bajo impacto ambiental, se realiza el análisis de Desarrollo Sostenible de un Elemento Constructivo Prefabricado de Tierra Cruda: Panel de Bahareque Metálico (BaM), bajo el estudio de Eficiencia Industrial como criterio de impacto económico.



METODOLOGÍA

Para la creación de un Panel de Bahareque Metálico (BaM) la Arq. Selene Lopez Cameras se inspiró en un sistema estructural de Quincha metálica que es una técnica constructiva creada por el arquitecto Marcelo cortes, que ofrecen sus componentes en la combinación de las características tierra-compresión y ferro-tracción que permiten la asismicidad de la obra de tierra. La propuesta hecha por la Arq. Selene fue a base de un marco de acero tipo vigueta de 3/8, con un arriostre diagonal y otro horizontal del mismo material, con relleno de pajón seco y prensado con malla ciklon, con 2 capas, una primera capa de pajón-arcilla y un revoque fino de arcilla-agua este último aplicado in situ para su acabado final.    Después de un proceso de investigación y pruebas realizadas para determinar qué nuevos componentes se podrán incluir para mejorar la estructura principal del Panel BaM, se desarrolló un Test Carazas que es una prueba que se realiza sobre las arcillas para identificar su comportamiento aplicando diferentes porcentajes de agua, con el fin de comparar resultados entre dos tipos de arcillas; Las arcillas presentes eran una arcilla Montmorillonita y una Arcilla Caolinita, que a través de un estudio de suelos. se determinó que estas eran las arcillas con mayor presencia en la región de Tuxtla Gutiérrez Chiapas. El ensayo permite conocer resultados distintos entre cada arcilla con relación a su modo de aplicación y grado de humedad, puesto que la arcilla tiene la capacidad de actuar distinto permitiendo así una variedad de usos. Al tener un catálogo de opciones sobre los tipos de aplicación, se realizó diferentes tipos de estabilización de las arcillas con fibras naturales; Viruta cernida, y aserrín cernido. Ello con el fin de tener la estabilización correcta para un vertido sobre una superficie vertical que muestre una adherencia resistente. Con apoyo de una fibra natural, se utiliza un relleno de pajón dentro de la estructura ya que agrega al panel mayor adherencia con las capas, y al ser un relleno ligero no aumenta el peso del panel de forma considerable La propuesta de cambio que se hizo fue en mejorar la estabilidad del panel y evitar hundimientos, vibraciones que se generaban debido a los llanos que se encontraban en el panel, al solo tener 2 arriostres uno diagonal que atravesaba toda la estructura de una esquina superior a una inferior, y un arriostre horizontal al medio del panel.  La malla que se utilizó al tener hexágonos espaciosos mejora la adherencia del Pajón, pero genera llanos y poco resistencia a los hundimientos. Al observar estas patologías que presentaba el panel, y determinar cuáles eran los objetivos que se plantean alcanzar, se optó por utilizar una Arcilla Montmorillonita por el hecho de ser nativa de la región, además de ofrecer respuestas favorables a su aplicación  


CONCLUSIONES

A lo largo del verano de investigación se logró adquirir conocimientos sobre la construcción con tierra cruda y sus aplicaciones. El panel BaM aunque es un elemento que retoma los métodos esenciales de la  construcción con tierra, específicamente el bahareque, tiene en su composición innovaciones como lo son; Ser un elemento constructivo Prefabricado El redimensionamiento del panel en su grosor, teniendo un grosor total cuantitativo de 3 cm  Y aquellas características nuevas del sistema que se incorporaron con posterioridad y que se han ido modificando. A través de las investigaciones hechas sobre el Panel BaM se fue modificando en su estructura principal, para adaptarla a medidas estándar que puedan ser comercializadas en un Prefabricado quedando una estructura propuesta por Jóvenes veraniegos 2019. La base del panel es una estructura de vigueta de aluminio de 3/8, formado por un marco rectangular de 2.40 x 0.60 mts con separaciones horizontales a cada 0.40 mts y  6 arriostres diagonales; para facilitar el proceso de instalación del panel in situ, para la parte superior del panel se coloca un riel en el muérete previo a la instalación y en el margen inferior del panel se colocan dos extensores de varilla que sobresalen de los márgenes del marco 10cms para su anclaje a través de soldadura con las varillas en la trabe.  Por mucho tiempo se ha creído que el proceso de innovación es el proceso de avanzar sin dar vuelta atrás, sin embargo  hoy en día se busca la innovación de elementos constructivos prefabricados desde la reinterpretación de los elementos y sistemas vernáculos y así obtener mayores beneficios que los que actualmente ofrecidos por los materiales convencionales.   
Rodríguez Montiel Daniela, Instituto Tecnológico de Pachuca
Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez

DISEñO Y DESARROLLO ERGONóMICO EN MANUFACTURA ADITIVA EN TECNOLOGíA FABRICACIóN POR FILAMENTO FUNDIDO


DISEñO Y DESARROLLO ERGONóMICO EN MANUFACTURA ADITIVA EN TECNOLOGíA FABRICACIóN POR FILAMENTO FUNDIDO

Gutiérrez Ceceña Paul Enrique, Instituto Tecnológico de Los Mochis. Rodríguez Montiel Daniela, Instituto Tecnológico de Pachuca. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Debido a la rápida evolución de la manufactura aditiva se percibe cada vez más cercano su uso en la denominada industria 4.0, donde la impresión 3D deja de limitarse al prototipado rápido para centrarse en la producción de elementos de alta calidad mecánica y estética. Al día de hoy, las principales máquinas que hacen uso de la tecnología FFF (Fabricación por Filamento Fundido) tienen ciertas deficiencias en  temas de ergonomía, mantenimiento y seguridad de los equipos, que a su vez repercuten en las propiedades físicas de los objetos resultantes. A medida que se incrementa el uso de esta tecnología aumenta la necesidad de optimizar el proceso para que el usuario logre fabricar piezas con un acabado uniforme sin comprometer las bondades del material, reduciendo el post-procesado y con ello disminuyendo las lesiones del usuario. Por lo anterior, esta investigación se centra en tres objetivos para mejorar el diseño y ergonomía en la manufactura aditiva con tecnología FFF. En primer lugar se plantea el diseño de nuevas boquillas para estos equipos, teniendo como  hipótesis que distintas geometrías de salida ayudan al óptimo depósito del material, reduciendo el escalonado y así mejorando la calidad del producto final. En segundo lugar se pretende demostrar las características mecánicas de probetas de PLA impresas con las nuevas boquillas diseñadas, haciendo uso de las  normas de la American Society for Testing and Materials (ASTM). Por último se proponen la implementación de componentes SMED (Single-Minute Exchange of Die) para el cambio rápido de extrusores.



METODOLOGÍA

Rediseño de boquillas con diferente geometría de salida De manera preliminar se diseñaron 3 tipos de boquillas con geometría de salida cuadrada, hexagonal y de estrella de 5 picos. La elección de estas figuras se basó en las diferentes variables a analizar: salida adecuada del material, reducción de atascos, fácil mantenimiento,  menor escalonado y acabado del producto. En cada caso se hicieron los cálculos para aproximar el mismo flujo de salida que tendría una boquilla comercial con punta de 0.4mm. Ya que el factor de escalonamiento en las piezas impresas afecta directamente la estructura molecular de los productos por FFF, es necesario evaluarlo en laboratorio. Por ello, para  comprobar la funcionalidad de las boquillas propuestas se buscan dos posibles situaciones: que se reduzca el escalonado generando piezas más resistentes, o en su defecto, que las características mecánicas del material se mantengan. Con el propósito de demostrar lo anterior se siguieron las normas ASTM D638-ISO527 y ASTM D695-ISO 527 para pruebas de tensión y compresión en plásticos. Para la prueba de tensión se diseñó una probeta de Tipo I acorde a la norma ASTM D638 con dimensiones de 165mmx19mmx7mm y de 13mm en su sección angosta. Para la prueba de compresión se diseñó una probeta cilíndrica de 12.7mm de diámetro y 25.4mm de largo, cumpliendo la norma ASTM D695. Debido a que las impresiones con tecnología FFF son anisotrópicas las normas indican que para cada ensayo se deben utilizar 10 probetas. La anisotropía es la característica que poseen algunos materiales de tener diferentes propiedades según la dirección que se estudia o que es sometida a fuerzas externas, éste último es el caso que corresponde a la impresión 3D con filamento fundido, ya que la diferencia en los ángulos de relleno genera variaciones de las características mecánicas del material. Por ende, para cada ensayo, se plantea imprimir 10 probetas con diferente orientación. Éste arreglo se empleará para comparar una boquilla comercial contra las rediseñadas. En total el experimento consta de 80 probetas para realizar ambas pruebas. Ya que en esta primera etapa de la investigación no fue posible fabricar las boquillas propuestas, se realizó una simulación del comportamiento de las probetas de PLA. Con ello se observó que las probetas a 45° son más resistentes y que una geometría poligonal de salida no supone suficientes variaciones en las propiedades del material. Componentes SMED para el cambio rápido de extrusor Son varias las razones por las que es necesario hacer un cambio de extrusor en los equipos FFF, ya sea por mantenimiento o para reemplazar piezas dañadas sin detener la producción. Se hizo un breve estudio para medir el tiempo que tardan diferentes individuos en realizar esta actividad, encontrándose que en promedio la tarea toma entre 15 y 20 minutos, considerando que el encargado de realizarlo posee conocimientos básicos sobre los equipos y la pieza esta fría para poder manipularla con seguridad. Para reducir el tiempo de la tarea se realizó una propuesta de cambio rápido de extrusor a base de ensambles usando el sistema SMED. Al realizar nuevamente el estudio con el nuevo componente mencionado se probó la disminución del tiempo de la tarea hasta en un 50%. Este componente tendría un impacto en las empresas que se basen únicamente en la manufactura aditiva para la elaboración de sus productos.


CONCLUSIONES

Los primeros resultados de la investigación muestran la posible introducción en el mercado de los productos diseñados. Sin embargo, para las boquillas de distinta geometría es necesario encontrar fabricantes para pasar de las simulaciones a la realización de pruebas. En una segunda etapa se buscará realizar más propuestas de boquillas, hacer estudios a fondo de la estructura molecular de las probetas fabricadas y evaluar los tiempos de fabricación con cada una de las boquillas. Si posterior a las pruebas mencionadas se concluye que las boquillas con diferente geometría mejoran las propiedades del material, se podrá proponer la reducción del uso de soportes favoreciendo el ahorro en los materiales de fabricación y el tiempo de post-procesado. Respecto al componente de cambio rápido, se espera contribuir a la reducción de esfuerzo físico y mental al realizar el cambio.
Rodríguez Muñoz María Fernanda, Universidad de Guadalajara
Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla

SíNTESIS DE NANOPARTíCULAS DE PLATA POR EL MéTODO COLOIDAL


SíNTESIS DE NANOPARTíCULAS DE PLATA POR EL MéTODO COLOIDAL

Rodríguez Muñoz María Fernanda, Universidad de Guadalajara. Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas de plata (AgNPs) muestran interesantes propiedades biológicas, ópticas, electrónicas y catalíticas que se relacionan con su tamaño, forma, composición, cristalinidad y estructura de la partícula. El método de reducción química o coloidal es el más utilizado para la síntesis de AgNPs, este consiste en disolver una sal del precursor metálico o del óxido a preparar, un reductor y un estabilizante en una fase continua o dispersante. El tamaño promedio, la distribución de tamaños y la morfología de las nanopartículas pueden ser controlados variando la concentración de los reactantes, del reductor y del estabilizante. Entre los agentes reductores más utilizados para la síntesis se encuentra el borohidruro de sodio (NaBH4) sin embargo es altamente tóxico, por lo cual se buscan nuevas alternativas para la producción de las nanopartículas que produzcan una menor cantidad de desechos tóxicos.



METODOLOGÍA

En el presente trabajo se sintetizaron AgNPs a partir de un electrolito a base de p-DIDA (p-diimida diácida) y m-DIDA (m-diimida diácida), que funciona como agente reductor y estabilizante. La síntesis de DIDA se llevó a cabo por mecanosíntesis a partir de un anhídrido (anhídrido trimetilitico) y una diamina (p- y m-fenilendiamina). Para que la DIDA funcione como agente reductor y estabilizante, se prepara un electrolito. Para sintetizar la AgNPs se preparó el electrolito añadiendo 0.02282 g de p-DIDA y 0.00399 g de NaOH en 50 ml de agua desionizada, una disolución con 0.04247 g nitrato de plata (AgNO3) en 25 ml y una disolución con 0.002 g NaOH en 50 ml, estos cálculos se realizaron para que las disoluciones estuvieran a una concentración de 1 mM. Posteriormente, en tres viales se añadieron 3 ml de electrolito, 3 ml de disolución de AgNO3 y 3 ml de disolución de NaOH. Se sintetizaron AgNPs para aumentar la población de nanopartículas preparando las disoluciones a una concentración de 2 mM, para el electrolito se utilizaron 0.020 g de m-DIDA en 25 ml, para la disolución de AgNO3 se agregaron 0.08493 g de AgNO3 en 25 ml de agua desionizada y finalmente para la disolución de NaOH se añadieron 0.0039 g en 50 ml de agua desionizada. Después se añadieron en 2 viales 1 ml de electrolito, 1 ml de disolución de AgNO3 y 1 ml de disolución de NaOH, en un tercer vial se agregaron 1 ml de electrolito, 2 ml de disolución de AgNO3 y 1 ml de disolución de NaOH. Para observar la cinética de las nanopartículas fueron caracterizadas mediante en una espectrofotómetro UV-Vis a las 24 horas de síntesis y posteriormente por semana. Después de observar la cinética de las nanopartículas durante semanas se procedieron a realizar lavados este con el fin de quitar la fase orgánica y que las nanopartículas pudieran ser observadas en el Microscopio Electrónico de Barrido de Emisión de Campo (FESEM). Se realizaron 3 lavados en una centrifuga a 15 rpm durante 15 minutos. Se realizaron los lavados de una muestra de AgNPs de p-DIDA y una muestra AgNPs 1:2 de m-DIDA.


CONCLUSIONES

La síntesis verde tiene objetivo eliminar gradualmente la generación de materiales peligrosos o nocivos, y sustituirlos por otros menos tóxicos y más seguros. En este trabajo se propone una molécula orgánica que funcione como agente reductor y estabilizante para sintetizar nanopartículas de plata mediante el método de reducción química. Se lograron sintetizar AgNPs de p-DIDA y m-DIDA para obtener un concentrado de nanopartículas para aplicaciones futuras en microbiología y fotocatálisis. Las AgNPs de plata presentan disoluciones coloidales de colores intensos cuyas frecuencias de resonancia de plasmón aparecen en el rango de longitud de onda UV-Visible y que depende del tamaño y la forma de la partícula. Las nanopartículas de plata presentan un rápido y fuerte espectro de absorción en las proximidades de longitudes de onda entre 300 y 450 nm. Los resultados obtenidos en la espectroscopia UV-Vis para las AgNPs de p-DIDA a las 24 horas de sintetizarlas no muestran absorbancia, ni un cambio de color de la solución, se continuó estudiando su cinética y las dos semanas de ser sintetizadas se observa absorción en el espectro UV-Vis, con lo cual se confirma la formación de nanopartículas debido a su característica resonancia de plasmón superficial, con bandas de absorción máxima en 355nm, 354 nm, 356 nm para cada muestra. Para las AgNPs de m-DIDA, en los espectros realizados a las 24 horas se observa una banda de absorbancia máxima en 461 nm, 459 nm, 427 nm, al igual que las AgNPs de p-DIDA.  Se espera que al caracterizar las nanopartículas por FESEM se observen nanopartículas monodispersas.
Rodríguez Ortega Rosa Izela, Instituto Tecnológico Superior de Guanajuato
Asesor: Mtro. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato

ANáLISIS ESTADíSTICO DE EMPRENDIMIENTO SOCIAL EN ESTUDIANTES DE INGENIERíA


ANáLISIS ESTADíSTICO DE EMPRENDIMIENTO SOCIAL EN ESTUDIANTES DE INGENIERíA

Rodríguez Ortega Rosa Izela, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad son pocas las personas que se atreven a buscar mejorar o resolver el entorno en donde viven, algunos por falta del apoyo gubernamental, otros más por lo que es peor: la falta de iniciativa y ganas de superación y muchos otros porque solo buscan beneficiarse a ellos mismos. Por eso se debe conocer que existen alternativas que ayudan a generar soluciones. Por ello se busca hacer una concientización en los estudiantes y aumentar la capacidad y sobre todo aprovechar las habilidades y potencial de los jóvenes universitarios, para generar una mejora en nuestra sociedad. La importancia del emprendimiento social proviene del interés que tiene la sociedad para la solución de problemas del entorno, de la necesidad de que en las empresas y el gobierno se tenga como prioridad el buscar alternativas que resuelvan problemas ambientales, de salud, educativos, poniendo en primer lugar el bienestar de la sociedad y en una segunda instancia la opción de generar ingresos económicos. Además de aumentar el apoyo a jóvenes que tengan la iniciativa, la responsabilidad y el compromiso de contribuir a la mejora de los problemas. Porque actualmente la mayoría de las personas emprendedoras dejan de serlo por la falta de recursos y apoyo por parte del gobierno. Es por esto que si se conoce detalladamente el significado del emprendimiento social se lograra aumentar la calidad de vida y con ello una mejor productividad y desarrollo económico para el país.



METODOLOGÍA

Mediante un proceso descriptivo y experimental se presentan los factores que determinan el emprendimiento social en jóvenes universitarios. Para ello es necesario saber ¿Qué características posee un joven emprendedor? Es por esta razón que se estudiaron diversos puntos de vista sobre el emprendimiento social, sus causas y las características del emprendimiento social, además de revisar si han existido cambios en la sociedad a través del emprendimiento social. Se aplicaron encuestas a jóvenes que se encuentran estudiando en la universidad para saber si cuentan con habilidades y potencial para ser emprendedores sociales, además de identificar cuáles son las principales problemáticas que aquejan a la sociedad, tales encuestas serán codificadas, generando una matriz, para posteriormente ser analizadas con ayuda de herramientas estadísticas.


CONCLUSIONES

Después de aplicar trabajo en campo (encuesta) a 77 alumnos que estudian una ingeniería, se analizaron los datos obtenidos y se llego al resultado de que se tienen considerados como principales problemas los siguientes: En primer lugar, la mayoría de los estudiantes consideran que el problema a resolver con mayor necesidad es la inseguridad. En segunda instancia se tiene que el problema que se debe resolver con prioridad es la economía y sus derivados (la pobreza, falta de empleo, etc.). Con estos resultados obtenidos se puede llegar a la conclusión de que como lo mencionan autores que hablan sobre el tema de emprendimiento social, los principales problemas que afectan a la sociedad y que necesitan de jóvenes con potencial de emprendimiento social son la inseguridad, pobreza, retraso en la economía de la mayor parte de la sociedad.
Rodriguez Palma Isaias, Instituto Politécnico Nacional
Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional

PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).


PLATAFORMA PARA LA ENSEñANZA DE LA ROBóTICA EN LOS NIVELES MEDIO, MEDIO-SUPERIOR Y SUPERIOR (CALICó).

Calva Perez Irving Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. García Rodríguez Alberto de Jesús, Instituto Politécnico Nacional. Rodriguez Palma Isaias, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

En los diferentes grados de educación se ha encontrado un interés creciente por la robótica, así como la programación lo cual ha generado una mayor demanda para los componentes y equipo de laboratorio que puedan satisfacer con esta necesidad. En el nivel medio, por ejemplo, cada vez más escuelas secundarias utilizan robots para introducir a sus estudiantes a las áreas de programación y electrónica de tal manera que despierte su interés hacia estas. Un robot es programable de tal manera que los estudiantes utilicen conceptos básicos de programación para lograr cumplir un objetivo, lo cual abre un banco de posibilidades, además de ejercitar creatividad mientras practican habilidades adquiridas en clase. En el nivel medio superior, durante este periodo los estudiantes adquieren habilidades que les permitirá desarrollarse en su carrera, por este motivo es importante que dichas habilidades sean puestas en práctica, para el caso que nos concierne son el diseño electrónico y la programación. En el nivel superior existen varias áreas en las que un robot puede ser utilizado como una plataforma de pruebas/prácticas, estas áreas dependen en específico de la carrera que se esté cursando, por lo que para el nivel superior se proponen prácticas para áreas de electrónica, programación, instrumentación y control.



METODOLOGÍA

Para desarrollar este proyecto y en base al plan de trabajo otorgado por nuestro asesor se requirió de diversos materiales, así como de diversos softwares empleados para el diseño de circuitos eléctricos Proteus 8, para modelado 3D FreeCAD 0.18 y programación de diversos lenguajes como Python Spider, PyCharm y Atom, para C++ Dev C++ y el uso Linux Plataforma Ubuntu. Primeramente, se establecieron los requerimientos con los que debía de contar el robot que se había planteado diseñar, por lo cual se estableció el uso de dos moto-reductores con rueda y encoders, tres sensores ultrasónicos, un sensor de presencia, además de implementar dos placas propiamente diseñadas una de la cuales se encargaría de la parte de potencia (para implementar la batería y el control de los motores) y la otra la cual formaría el sistema básico de un microcontrolador Atmega328 de montaje superficial. Teniendo en consideración estos requerimientos se prosiguió a desarrollar ambas placas las cuales debían cumplir con el principal parámetro de poder ser ensambladas de un tamaño de 5x5cm, esto con la finalidad de poder ser manufacturadas de manera económica. Para la placa de potencia se tomaron en consideración la cantidad de terminales para brindar alimentación, así como el uso de una terminal USB para la misma función, la implementación del puente H para el control de los motores (incluyendo diodos de protección), y un amplificador operacional para el ajuste de las señales brindadas por el empleo de dos encoders (junto con un trimmer para facilitar su uso), además de ser añadido un switch para el fácil encendido y apagado de la placa sin necesidad de desconectar la batería. Para la placa que contendría el sistema mínimo del microchip, se extendieron cada una de los pines con los que cuenta el microcontrolador para hacer más accesible el uso de los mismos, además de ser añadido un cristal oscilador de cuarzo el cual puede ser (o no) utilizado a voluntad del usuario, añadiendo un par de leds indicadores para comprobar que la placa está siendo utilizada, así como su terminal de reset. Continuando con esto se revisó el modelo 3D del robot con el cual ya se contaba y se modificó de acuerdo a las nuevas especificaciones con las que se contaban, modificando su forma y añadiendo nuevas ranuras en su superficie, además de brindar el espacio suficiente para poder añadir elementos externos en su capa superior. Se procedió entonces a realizar cada una de las pruebas y mediciones necesarias para comprobar que cada una de las terminales de ambas placas funcionara de manera adecuada y así mismo no existiera interferencia entre las mismas. De acuerdo al plan de trabajo asignado por el asesor durante todo el proceso se estuvo trabajando, instruyendo y practicando con los diferentes lenguajes de programación por medio de diversos casos prácticos proporcionados y revisando diferentes fuentes de información; trabajando de igual manera con terminales de Linux por medio de la asistencia a cursos y asesorías brindadas por el mismo asesor.


CONCLUSIONES

Durante la estancia del verano de investigación en curso, se ha logrado que los estudiantes integrados en este proyecto desarrollen y perfeccionen sus habilidades en diseño electrónico, además de haber tomado diversos cursos para conocer y expandir nuestros fundamentos de programación, como fue introducción a Linux (Ubuntu), lenguaje C y C++, además de Python. Al momento de realizar este resumen nos encontramos en la etapa de la realización de las diferentes pruebas que se deben hacerse al prototipo para comprobar cada una de las diferentes conexiones y terminales utilizadas para comprobar el correcto funcionamiento de cada una de las partes que constituyen al robot para de esta manera proceder a realizar el ensamblado completo del robot y este sea presentado de forma concluida y listo para ser utilizado.
Rodríguez Pérez Ana Cristina, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

SISTEMA DE CONTROL DE TANQUES


SISTEMA DE CONTROL DE TANQUES

Rodríguez Pérez Ana Cristina, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La Electrónica digital representa la base de los microcontroladores, estos a su vez son el cerebro operacional de cualquier prototipo que se quiera realizar. El sistema de control de tanques representa una manera sencilla de involucrar la mayor cantidad de elementos que involucran este disciplina, por ejemplo: compuertas lógicas y circuitos operacionales. El objetivo de este sistema, es medir el nivel del tanque mayor y la diferencia de ambos tanques.



METODOLOGÍA

Para la realización de este proyecto, las herramientas utilizadas fueron datasheet de los distintos elementos utilizados, material en físico y recursos electrónicos como internet. Además, se tomaron asesorías con distintos profesores para reforzar el proyecto.  Primero se hizo una investigación para conocer el funcionamiento de los componentes. Posteriormente se efectuaron prácticas que involucraron compuertas lógicas, circuitos combinacionales y convertidores. Por último se realizó la simulación y se armó el sistema en protoboard. Se agregaron dos displays para representar el nivel mayor y la diferencia de ambos.


CONCLUSIONES

Como conclusión, se logró el resultado deseado. El tanque sí mide los niveles independientemente del nivel mayor de cada tanque, así como la diferencia existente entre los dos. El agua conduce y los sensores funcionan.
Rodriguez Yepez Mauricio, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara

ESTIMACIóN DE NIVELES DE COMPETENCIA POR PROFESORES Y SISTEMA INTELIGENTE


ESTIMACIóN DE NIVELES DE COMPETENCIA POR PROFESORES Y SISTEMA INTELIGENTE

Rodriguez Yepez Mauricio, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Rafael Morales Gamboa, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los métodos de educación actual funcionan por medio de competencias. No obstante, no se le da un seguimiento fino al desarrollo de las competencias por el estudiante que sería coherente con su importancia en el diseño de los programas educativos y sus cursos. Los profesores y alumnos ignoran el desarrollo de las competencias, lo cual es un problema considerando que ciertas competencias, transversales, son necesarias para el aprendizaje de los alumnos.



METODOLOGÍA

Se realizó una metodología cuantitativa, utilizando una técnica de Inteligencia Artificial llamada Redes Bayesianas Dinámicas, para dar seguimiento al desarrollo de competencias desde una aplicación web. 


CONCLUSIONES

Como resultado del proyecto Entornos virtuales inteligentes para el aprendizaje basado en competencias se tenía corriendo un prototipo solamente en consola de Python en una laptop. Durante la estancia se desarollo la programación necesaria para que el prototipo se ejecutara en un ambiente web, para lo cual se utilizó Python, Javascript, Django, Mysql, JSON y XML, así como la biblioteca pysmile (envoltura de SMILE para Python) y arbor.js. Pysmile se utilizó para implementar el razonamiento en redes bayesianas dinámicas, en tanto que  arbor.js se usó para presentar una visualización gráfica de la red en la Web. Como resultado de la estancia, el prototipo actualmente ya se ejecuta en un ambiente web donde se pueden registrar alumnos y se puede subir evidencia del desarrollo de sus competencias, para su seguimiento por el sistema. El estado de las competencias se visualiza con un código de colores (rojo, amarillo y verde para representar los niveles bajo, medio y alto, respectivamente), que incluye el uso de una graduación de  gris para representar la incertidumbre en cada estimación del nivel de competencia.
Rojas Baez Rosario Jessica, Instituto Tecnológico de Toluca
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES


SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES

Macuixtle Malpica Jesús Concepción, Benemérita Universidad Autónoma de Puebla. Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla. Rojas Baez Rosario Jessica, Instituto Tecnológico de Toluca. Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, el sector textil ocupa el séptimo lugar entre las industrias que originan mayores volúmenes de aguas residuales, los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, sólidos suspendidos y sales disueltas, debido a que los colorantes presentan una compleja estructura química los métodos actuales empleados para el tratamiento de efluentes textiles resultan poco eficientes para su degradación.  El dióxido de titanio (TiO2) es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción directa o indirecta de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm, una fracción por debajo de la radiación solar. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles.



METODOLOGÍA

  a. Síntesis del fotocatalizador TiO2-Au por el método de combustión. Para sintetizar el fotocatalizador se utilizó TiO2 grado analítico y TiO2 Degussa P25. El procedimiento seguido es el mismo para ambos reactivos. Utilizando una balanza analítica se pesa 0.4427 g de TiO2, 0.0070 g de Trihidróxido de Oro [Au(OH)3] y 0.9999 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar la mezcla, la solución se calentó en una parrilla eléctrica a una temperatura de 60°C con el objetivo de evaporar la mayor cantidad de agua. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 4 g de cada fotocatalizador.  b. Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó ácido clorhídrico (HCl), en el caso de pH 3, e hidróxido de potasio (KOH) para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1000 g de fotocatalizador TiO2-Au (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de cuatro horas, tomando cuatro alícuotas con intervalos de una hora. El anterior procedimiento se repitió para el fotocatalizador de TiO2-Au (sintetizado con TiO2 Degussa P25).


CONCLUSIONES

a. Degradación de RM utilizando TiO2-Au sintetizado con TiO2 Degussa P25 Para una solución de RM de 10 ppm con pH 3 se registró una concentración de 8.38 ppm transcurrida la primera hora de reacción, en la segunda hora se obtiene una concentración de 6.82 ppm mientras que en la tercera hora se logró reducir a 6.29 ppm. Para la solución de RM de 20 ppm con pH 3 se registró una concentración de 9.76 ppm transcurrida la primera hora de reacción, mientras que para la segunda y tercer hora se obtiene una concentración de 7.68 y 5.71 ppm respectivamente. En la solución de RM de 30 ppm con pH 3 se obtuvo una concentración de 16.81 ppm pasada la primera hora, en tanto que en la segunda y tercer hora de reacción se registró una concentración de 12.32 y 10.24 ppm respectivamente. La máxima absorción de RM en soluciones ácidas se obtiene hasta la tercera hora de reacción. b. Degradación de AM utilizando TiO2-Au sintetizado con TiO2 grado analítico Se concluyó que a 10 ppm se presentó un mejor resultado en los porcentajes de degradación, debido a que el agua se encuentra menos coloreada lo que facilita el paso de luz a través de la solución activando el fotocatalizador de manera más efectiva en tan solo una hora. Las degradaciones observadas fueron de 35.5%, 39.8% y 38.81% a los pH de 3, 7 y 11, respectivamente. En soluciones a 20 ppm y 30 ppm a pH 3 el rendimiento en la degradación fue bajo debido a que el mayor porcentaje alcanzado de degradación fue de 9.53%. En caso contrario, a 20 ppm para el pH de 7 y 11 la degradación continuó hasta 36.5% y 56.5% de degradación. En soluciones a concentración de 30 ppm los mejores resultados fueron a pH 7 y 11 durante la segunda hora de reacción, llegando un máximo de degradación de 31.43% y 30.25% respectivamente.  c. Degradación de NM utilizando TiO2 -Au sintetizado con TiO2 Degussa P25 Se obtuvo que para el pH 3 durante la primera hora a 10 ppm disminuyó un 20 %, un 20.9 % y 21.81 % para la segunda y tercera hora, respectivamente; en la cuarta hora la absorción disminuye a un 18.18 %, esto debido a la liberación del colorante absorbido por el fotocatalizador. En el caso de la solución a 30 ppm del NM a pH 3 se registraron los siguientes resultados; en la primera hora dentro del sistema disminuyó un 12.28 %, mientras que en la segunda hora disminuyó un alto 36.84 % siendo éste de los valores más elevados, en la tercera y cuarta hora disminuyó un 8.77 % y 5.26 %, respectivamente, lo que nos indica el mismo fenómeno de la concentración anterior. d. Degradación de NM utilizando TiO2-Au sintetizando TiO2 grado analítico La degradación de la soluciones de NM con las diferentes concentraciones y pH utilizando TiO2-Au sintetizado con TiO2 grado analítico ha dado resultado favorables para soluciones ácidas. En la solución de 10 ppm con pH 3 se obtiene una concentración de 8.27 ppm en la primera hora de degradación, una 8.47 ppm para la segunda hora, 8.64 ppm en la tercera hora y 7.88 ppm en la última hora. En el caso de la solución a 30 ppm con pH 3 se registró que, en la primera hora se tiene la concentración de 29.34 ppm, en la segunda hora 28.51 ppm, en la tercera hora 29.02 ppm y en la última hora se obtiene 29.67 ppm.
Rojas Hernandez Jose Raul, Instituto Politécnico Nacional
Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla

METODOLOGíA PARA DETERMINAR LAS ENTALPíAS DE CAMBIO DE FASE Y DE FORMACIóN.


METODOLOGíA PARA DETERMINAR LAS ENTALPíAS DE CAMBIO DE FASE Y DE FORMACIóN.

Rojas Hernandez Jose Raul, Instituto Politécnico Nacional. Saurith Urrariyu Adonis de Jesus, Universidad de la Guajira (Colombia). Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los avances económicos y tecnológicos incomparables del mundo civilizado, están directamente relacionados con el aumento de la cantidad de energía disponible para llevar a cabo diversas tareas que anteriormente eran realizadas mediante el esfuerzo muscular del hombre. La disponibilidad de bienes y servicios y la producción industrial en general tienen que ver con el consumo de energía per cápita. La termoquímica se puede definir como la rama de la termodinámica que se encarga del estudio de los intercambios de energía en forma de calor que acompañan a las reacciones químicas y los estudios de cambio de fase. Las propiedades termoquímicas son la base del diseño y de las condiciones de operación de diferentes tipos de procesos, algunas de éstas podrían ser la capacidad calorífica, la entalpía estándar de formación y las entalpias de cambio de fase. En la Benemérita Universidad Autónoma de Puebla, se estudia la termoquímica de compuestos orgánicos en la Facultad de Ingeniería Química y en la Facultad de Ciencias Químicas. Se emplea una metodología preestablecida para realizar un buen análisis termoquímico, el objetivo de la estancia corta de un mes y medio implica el entender cómo se determina la pureza, capacidad calorífica, entalpias de formación molares estándar y entalpias de cambios de fase. Así como el uso de algunos equipos que nos proporcionan dichas propiedades (Calorímetro de Combustión, Calorímetro Diferencial de Barrido (DSC) y Termogravimetría (TG)).



METODOLOGÍA

Se utiliza un calorímetro diferencial de barrido, un equipo de termogravimetría y un calorímetro adiabático de bomba estática para realizar el análisis termoquímico de cualquier compuesto orgánico. Primero se debe verificar su pureza. Si no es mayor al 99%, se debe llevar a cabo una recristalización con el fin de aumentarla por arriba de 99%. Una vez recristalizado, se realiza el análisis para pureza en un Calorímetro Diferencial de Barrido (DCS), en el cual, se dispone de la muestra en un crisol que debe de estar sellado. Después se coloca dicho crisol dentro del equipo, uno será de referencia y el otro el que contiene la muestra. Se programa la velocidad de calentamiento a razón de 1 °C por minuto, en un intervalo de temperatura a una atmósfera inerte. Posteriormente al término del experimento, se obtendrá un termograma con el cual se podrá obtener la pureza, la capacidad calorífica y la temperatura de fusión del compuesto. Asimismo, si la línea base se conserva antes y después del cambio de fase (fusión), podremos calcular el área bajo la curva, con lo cual determinaríamos la entalpia de fusión. Luego, el compuesto se analiza en un TG el cuál mide las variaciones de pérdida de masa frente al tiempo a una temperatura determinada, esta pérdida de masa se utiliza para hallar las entalpías de vaporización y/o sublimación del compuesto mediante el uso de un método indirecto. Se utilizan las ecuaciones de Langmuir y de Clausuis Clapeyron para determinar dichas entalpías, a partir de un ajuste de regresión lineal. Finalmente, se realizan pruebas en el calorímetro de combustión adiabático de bomba estática. El cual consiste en el análisis de un proceso de combustión, donde el compuesto puro dentro de una bomba calorimétrica se quema. A partir de dicho resultado, se determina la entalpia estándar de combustión y la entalpia estándar de formación a condiciones isotérmicas y estándares. Una vez obtenidas las entalpias de cambio de fase y de formación en fase cristalina o liquida, a 298.15 K, por medio de algunos cálculos sencillos, se puede determinar la entalpia de formación en fase gaseosa del compuesto en cuestión. Primero, se trazan rutas teóricas a partir de los resultados obtenidos. Donde el punto de partida, son las condiciones experimentales y el punto al cual se desea llegar son las condiciones estándar y a 298.15 K. Una vez que todas las propiedades están a dichas condiciones. Se realizan rutas para poder determinar la entalpia de formación en fase gaseosa.


CONCLUSIONES

En el XXIV Verano de la Investigación Científica y Tecnológica del Pacífico 2019 - MÉXICO, estancia en la Benemérita Universidad Autónoma de Puebla se concluye que se pudieron adquirir las bases teóricas y las técnicas experimentales para la determinación de algunas propiedades termoquímicas de compuestos orgánicos. No obstante, no se pudo estudiar un compuesto en específico, debido al corto tiempo. Las recomendaciones son seguir utilizando metodologías sustanciosas para obtener el conocimiento adecuado de la temática Termoquímica de Compuestos Orgánicos que utiliza el investigador Dr. Miguel Ángel García castro de la Benemérita Universidad Autónoma de Puebla. Los conocimientos adquiridos a pesar del tiempo fueron los esperados, por ende sugerimos que otros investigadores de diferentes universidades propongan metodologías correctas como nuestro investigador. Finalmente, se conoce la importancia de estudios termoquímicos para diferentes compuestos en diferentes ámbitos tales como el industrial, ya que con los conocimientos aprendidos podemos refutar ideas en nuestro semillero de investigación. Además, se comprenden las funciones, los procesos y los principios de los equipos empleados en termoquímica, por lo que nos da la facultad de ampliar el conocimiento para el diseño de algunos equipos y de crear nuevas condiciones experimentales de trabajo.
Rojo Martinez Uriel, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Ing. Javier Espinosa Espinosa, MANUFAI SAS de CV

DESARROLLO DE UN ALGORITMO PARA ENCRIPTACIóN DE DATOS Y USO DE BLOCKCHAIN PARA LICENCIAMIENTO DE SOFTWARE


DESARROLLO DE UN ALGORITMO PARA ENCRIPTACIóN DE DATOS Y USO DE BLOCKCHAIN PARA LICENCIAMIENTO DE SOFTWARE

Rojo Martinez Uriel, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Ing. Javier Espinosa Espinosa, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

Hacer un uso lícito de software no sólo proporciona garantías al usuario y al desarrollador, sino que permite que aumenten las oportunidades de competitividad, productividad y mejora de la industria, ya que ayuda a los fabricantes a seguir investigando e innovando en cuanto a la mejora técnica del producto. Al trabajar en un esquema de explotación con terceras personas la protección de este es el primer paso para garantizar un uso exclusivo respetando los acuerdos de uso de la licencia, se necesita de una estructura solida y confiable para poder llevar un control de distribución, que ya la piratería de software es una de las causas que más reflejan pérdidas económicas nos sólo a los titulares de los derechos de propiedad industrial, sino toda la industria relacionada. Es por esto por lo que se propone el uso de la tecnología Blockchain ya que la información se almacena en una cadena en bloques unidos al bloque previo a través de criptografía avanzada. Esto permite darle al desarrollador mucho mayor control sobre su propiedad intelectual.



METODOLOGÍA

Se comenzó con la búsqueda de información en diversos estudios previos, libros y artículos científicos para redactar el estado del arte, posteriormente se definieron las características del algoritmo de licenciamiento, al mismo tiempo se buscó documentación de las reglas de funcionamiento de blockchain y condiciones óptimas de uso, se desarrollaron dos programas que trabajan en conjunto, el primero nos permite generar la primer fase de la licencia al mismo tiempo que se encripta la información y el segundo nos ayuda a generar la cadena de bloques donde se resguardara la licencia con las condiciones de uso. Se generaron tres licencias, para tres equipos de cómputo, se obtuvo retroalimentación del experimento para hacer las correcciones necesarias al algoritmo por último se obtuvieron y analizaron los datos para futuras mejoras en el algoritmo, se diseño la interfaz gráfica del programa y su documentación.


CONCLUSIONES

Se logro implementar los algoritmos de Blockchain de manera funcional, donde los bloques que conforman la cadena de datos del programa, contienen un hash (contraseña numérica) del bloque anterior, los bloques se ordenaron en la cadena por orden cronológico, gracias a ese hash todos los bloques están referenciados por el bloque que los creo, por lo que solo los bloques que contienen un hash valido fueron  introducidos en la cadena, gracias a esta estructura de información es prácticamente imposible de alterar o modificar. Blockchain se  aplico a el proceso de licenciamiento evitando así  fraudes, información falsa, ataques, perdida de datos, además, incorruptible, siendo hasta ahora uno de los métodos más seguros que existen para crear, modificar, compartir y almacenar información.
Rojo Ortiz Jorge, Instituto Tecnológico de Iguala
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

APLICACIóN DE SEIS SIGMA EN REFACCIONARIA MORENO S.A. DE C.V.


APLICACIóN DE SEIS SIGMA EN REFACCIONARIA MORENO S.A. DE C.V.

Rojo Ortiz Jorge, Instituto Tecnológico de Iguala. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Refaccionaria Moreno S.A. de C.V. es una empresa familiar que actualmente cuenta servicios de: reparación de alternadores, reparación de marchas, instalación de faros o luces led, carga de baterías y cuenta con un laboratorio de lavado de inyectores por ultrasonido. El problema esta en que el tiempo de espera incrementa cuando los inyectores se tienen que someter al ultrasonido más de una vez, esto multiplica el gasto de energía eléctrica de la máquina ASNU CLASSIC y también un gasto extra de liquido limpiador de inyectores para la tina de ultrasonido.



METODOLOGÍA

La métodología Seis Sigma (DMAIC), en este caso promete una reducción de la tasa de servicio e incluso un mejoramiento del proceso de lavado de inyectores por ultrasonido. En la primera semana se conoció el proceso completo del lavado de inyectores y a partir de ahí se comenzó a extraer datos en una bitácora de cada cliente que iba: marca, modelo, año del vehículo de los inyectectores, también se anotó exactamente la hora de llegada y de salida de cada cliente. En la segunda semana se comenzó con la primera fase de la metodología seis sigma: DEFINIR, en donde definimos que nuestro problema era la tasa de servicio de los clientes, ya que estos mismos presentaban quejas o reclamos debido al tiempo de espera, ya que algunos clientes venían de comunidades fuera de Iguala y también se realizó el diagrama de flujo de las operaciones por las cuales pasan los inyectores al momento del lavado. En la tercer semana se comenzó con la fase MEDIR, donde se realizó un estudio tipo 1 para ver el estado de calibración de la máquina ASNU CLASSIC. En la cuarta y quinta semana fueron las más dificiles, pues se comenzó con las fases ANALIZAR Y MEJORAR, se buscaron soluciones al problema, donde utilizamos el método de ensayo y error para encontrar métodos para destapar los inyectores de tal modo que solo fueran sometidos una o dos veces como máximo a un lavado por ultrasonido. Se encontraron dos métodos para destapar los inyectores en caso de que no se destapen al primer ultrasonido: Primer método: Mejorar la técnica del lavado, normalmente solo se conectaban los inyectores a la máquina y se sumergen en la tina, el método consiste en tomar líqudo de la tina y llenar el inyector por dentro del mismo líquido, de esa forma se limpian por dentro y por fuera. Segundo método: En caso de que no queden calibrados al segundo lavado, se le aplica aire a presión con una compresora de aire, se repite la misma operación varias veces hasta que pase el aire al otro extremo el inyector, se puede comprobar poniendo la punta en un caso con En la sexta semana, se dio inicio a la fase CONTROLAR, donde se aplicaba uno de los dos o los dos métodos y se hacia el mismo proceso de registro de datos en una bitácora y al finalizar con la etapa pudimos comprobar que efectivamente la tasa de servicio se redujo en un 50%, antes su tasa de servicio era de 2.5 hrs. y ahora es de 1.5 hrs. Y esto no solo redujo tiempo sino también dinero que se invierte en cada ultrasonido porque se gasta energía y líquido para la máquina.  


CONCLUSIONES

Esta es mi primera vez que realizó el Verano de Investigación Científica y puedo decir que es una magnífica opción para aquellos estudiante que estamos luchando por aprender cosas nuevas que probablemente no las obtengamos dentro de la escuela, me sirvió como acercamiento a la vida laboral y a tener más responsabilidades, ya que a eso vamos a enfrentarnos en muy poco tiempo como profesionistas. Se logró reducir la tasa de servicio del lavado de inyectores por ultrasonido en Refaccionaria Moreno S.A. de C.V.  
Román Morales José Alfredo, Universidad Autónoma de Guerrero
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Romero Almeida David Benjamin, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac

DISEÑO DE VEHÍCULO ELÉCTRICO LIGERO CON CAD-CAE Y ANÁLISIS DE USO DE SISTEMA DE ENERGÍA POR CELDAS DE COMBUSTIBLE


DISEÑO DE VEHÍCULO ELÉCTRICO LIGERO CON CAD-CAE Y ANÁLISIS DE USO DE SISTEMA DE ENERGÍA POR CELDAS DE COMBUSTIBLE

Ramos Peña Danae, Universidad Veracruzana. Romero Almeida David Benjamin, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Pedro Vera Serna, Universidad Politécnica de Tecámac



PLANTEAMIENTO DEL PROBLEMA

Los automóviles eléctricos tienen la problemática de cargar la batería por varias horas antes de partir, aunque cuenten con sus sistemas de regeneración en los neumáticos, carga de energía por transferencia de calor en las balatas u otros sistemas que se han generado, esto aún es insuficiente para poder tener un automóvil autónomo, aunado al costo de fabricación para los automóviles eléctricos con mayor autonomía  se encuentra en un rango de 700,000.00 a 1,260,500.00 MXN. Siendo superiores a los automóviles que son impulsados por medio de una combustión.



METODOLOGÍA

Se realizaron una serie de investigaciones de motores, sistemas, vehículos para adaptarse a las necesidades del tipo de vehículo eléctrico alimentado a base de celdas de hidrogeno, la obtención de los recursos informáticos dieron énfasis a la elección de los diversos tipos de motores eléctricos entre los de baja potencia, en conjunto con la interacción de las celdas tipo Fuell Cell, con lo que dieron un panorama de base para sustentar la disminución que debía contar a comparación de los vehículos que ya se encontraban en existencia, con base a ello se crearon modelos en CAD, de los que se eligieron los mejores materiales para obtener mayor autonomía al aplicarse la resistencia necesaria para el material, cuidar la  estética, al igual que aquellos que dieran un mejor resultado al pasarlos a una simulación en CAE.


CONCLUSIONES

Con base a los estudios realizados en este proyecto, las comparaciones de los materiales actuales hicieron una reducción de costos inferiores al 50% de los comerciales de alta autonomía,  para este automóvil eléctrico impulsado con celdas de hidrogeno, por la demanda actual de este tipo de materiales que impulsaron a la reducción del peso de manera considerable. La implementación de las nuevas celdas de combustible, dieron una mayor eficacia en este modelo de vehículo, el diseño que fue creado a lo largo de esta investigación dio una mejora en la disminución del peso, con ello es que al ser más ligero, tendrá un mejor desplazamiento y rendimiento que ante otro tipo de vehículos no era muy significativo. El estudio por CFD realizado mostro que los modelos propuestos en el inicio del proyecto, contaban con deficiencia en ciertas partes, por lo que se realizaron las modificaciones necesarias y se realizaron de nuevo las simulaciones, dando como resultado una mejora considerable. El poder comprobar con CFD tus modelos propuestos, son una mejora para la ingeniería, te puede dar una perspectiva diferente y de igual manera te ayuda a mejorar tus resultados.  
Romero Alvarez Jose Sebastian, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO


RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO

Gallegos Coria Carlos Alfredo, Universidad de Sonora. Martinez Cañez Carlos Alfonso, Universidad de Sonora. Romero Alvarez Jose Sebastian, Universidad de Sonora. Vega Tapia Jose Alberto, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México ha sido víctima de numerosos eventos sísmicos a lo largo de la historia, siendo los más referenciados, los terremotos de septiembre de 1985 y 2017, debido a la magnitud de daños que causaron en la infraestructura de la metrópoli. Debido a ello, y con el fin de que no se repita una destrucción de igual magnitud, es necesario analizar a detalle las características de las edificaciones que se vieron colapsadas o en algunos casos gravemente dañadas, así como la relación que estas guardan con cada uno los sismos mencionados. De esta manera, será posible estimar el comportamiento de futuras obras civiles que compartan características similares haciendo posible un diseño estructural más seguro y confiable frente a eventos de tal magnitud. Con ayuda de software de diseño estructural dinámico se determinarán las deformaciones máximas de azotea con respeto al tiempo, así como las deformaciones máximas de entrepiso que presentan edificaciones de concreto reforzado de 7 y 10 niveles sometidos a las respuestas sísmicas que se registraron en los terremotos del 19 de septiembre de 1985 y 2017 en la ciudad de México para suelos tipo blando (IIIB) e intermedio (II). 



METODOLOGÍA

Según el servicio geológico mexicano la ciudad de México se encuentra en zona sísmica B lo cual representa ser un zona intermedia donde se registran sismos no tan frecuentemente o son zonas afectadas por altas aceleraciones que no sobrepasan el 70% de la aceleración del suelo, aunado a lo anterior el tipo de suelo predominante en la CDMX (de transición/intermedio y blando) genera preocupación en los organismos a cargo de impulsar las obras civiles que dan pie a las grandes y pequeñas edificaciones en la ciudad. Lo anterior debido a que por efectos de sitio las ondas de los sismos se ven amplificadas en los suelos blandos de la CDMX, a pesar de encontrarse en suelo tipo B, su cercanía con la subducción de las placas de Cocos y Rivera con las placas Norteamericana y del Caribe genera la preocupación antes descrita de los expertos en el tema. Por ello, resulta necesario sensibilizar los modelos desde la etapa del pre-diseño y así lograr el comportamiento optimizado en la estructura mediante el uso de análisis dinámicos reduciendo el número de iteraciones. Del reporte efectuado por Roberto Meli y Eduardo Miranda, por parte del Instituto de Ingeniería de la UNAM, Evaluación de los efectos de los sismos de septiembre de 1985 en los edificios de la Ciudad de México, podemos ver que las construcciones que se vieron afectadas con un daño severo, en su mayoría, corresponden a edificios de 9 o más niveles. De igual manera, realizando una investigación en la cual se contabilizaron los edificios colapsados a causa del sismo del 19 de septiembre del 2017, se obtuvo que el número de niveles en los edificios colapsados ronda entre 2 y 7, teniendo un aumento significativo al llegar a los edificios de 4 niveles, dando como promedio los edificios de 4.4 niveles. Concluyendo así que el número de niveles de interés para este estudio ronda entre 4 y 9 niveles. Por lo cual se decidió analizar edificios de 7 y 10 niveles para ambos registros sísmicos. Los registros sísmicos utilizados fueron obtenidos del servicio sismológico nacional y la red acelerográfica de la UNAM.  Del SSN se obtuvo el registro sísmico del 2017 para suelos intermedios en la estación llamada DX3720170919181440, de la red acelerográfica de la UNAM se obtuvieron los registros restantes, para los de 1985 se utilizaron las estaciones sismex viveros y SCT B-1 para suelo intermedio y blando respectivamente, en el registro sísmico del 2017 para suelo blando se utilizó la estación SCT B-2. Para el análisis dinámico de las estructuras se empleó el software de análisis estructural RUAUMOKO. De los resultados obtenidos por el programa fueron de total interés los periodos fundamentales de cada estructura y los datos correspondientes a las deformaciones máximas de entrepiso. A su vez, con ayuda de DYNAPLOT (una extensión del mismo RUAUMOKO), se obtuvieron las deformaciones de azotea para cada instante de tiempo que abarcan los registros sísmicos evaluados. Cabe señalar que se consideraron dos direcciones de análisis (x, y) para los mencionados valores de deformaciones.


CONCLUSIONES

En los datos recopilados se observa que para el sismo del 19 de septiembre de 2017 los edificios de 7 y 10 niveles desplantados en suelo intermedio sufrieron una deformación mayor tanto para cada entrepiso como en azotea, comparándolos con los edificios desplantados en suelo blando. Mientras que para el sismo del 19 de septiembre de 1985 los edificios desplantados en suelo blando sufrieron una mayor deformación. Por lo cual se concluye que el sismo de 2017 fue más adverso para los edificios situados en suelo intermedio al contrario del sismo de 1985, en el cual los edificios situados en suelo blando se vieron más afectados por el nivel de deformaciones. Lo anterior puede deberse al tipo de onda liberadas en cada sismo y al hecho de cómo se amplifican o atenúan cada uno al llegar a los diferentes tipos de suelo en la CDMX. También otras de las diferencias son la duración del sismo y su cercanía con el epicentro, aun cuando el tipo de falla es el mismo para ambos casos.
Romero Arceo Jose Lazaro, Universidad de Guadalajara
Asesor: Dr. Onofre Monge Amaya, Universidad de Sonora

CINéTICA DE TOXICIDAD DE COBRE Y HIERRO EN SISTEMAS POR LOTE CON LODOS AEROBIOS DE PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES


CINéTICA DE TOXICIDAD DE COBRE Y HIERRO EN SISTEMAS POR LOTE CON LODOS AEROBIOS DE PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES

Romero Arceo Jose Lazaro, Universidad de Guadalajara. Asesor: Dr. Onofre Monge Amaya, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Los tratamientos biológicos de aguas residuales constituyen una serie de importantes procesos de tratamiento que tienen en común la utilización de microorganismos (entre las que destacan las bacterias) para llevar a cabo la eliminación de componentes indeseables del agua, aprovechando la actividad metabólica de los mismos sobre esos componentes Aprovechando la actividad de dichas bacterias se propuso la experimentación con lodos aerobios utilizando soluciones de sulfato de cobre y sulfato férrico analizando así la posibilidad de que dichas bacterias puedan desarrollarse en un medio contaminado con Cu y Fe, y buscando la posibilidad de que puedan utilizarse para la remoción de dichos metales. Se llevó a cabo una cinética de sulfoxidacion, utilizando lodos aerobios provenientes de una planta de tratamiento de aguas residuales de la ciudad de Hermosillo, Sonora, los cuales fueron activados con un medio especial y en la cual se midió el contenido de sulfuros y sulfatos mediante UV-VIS. Posteriormente, se realizaron pruebas de toxicidad añadiendo lodos aerobios activados a un medio contaminado con cobre y hierro, midiendo los mismos parámetros que en la cinética anterior, con el objetivo de verificar si las bacterias contenidas en los lodos se desarrollaban en ese medio.



METODOLOGÍA

Para trabajar con los lodos es necesario activarlos, asi que se alimentaron con un medio hecho con sales y carbohidratos, el cual ayudo a que la biomasa creciera. se realizaron pruebas de SST y SSV para comprobar si en realidad la biomasa crecía. Se realizó una cinetica de sulfoxidación para comprobar si las bacterias contenidas en los lodos oxidaban los sulfuros a sulfatos. Para esto fue necesario realizar un medio diferente, sin glucosa y con sulfuro de sodio. Se realizaron pruebas de sulfuros y sulfatos con diferentes tecnicas para si analizar la actividad bacteriana. Se realizó la cinetica de toxicidad agregando al medio soluciones de cobre y hierro  a distintas concentraciones y asi analizar el comportaiento de las bacterias con metal y sin metal.


CONCLUSIONES

Las bacterias contenidas en los lodos lograron la oxidación de los sulfuros convirtiéndolos en sulfatos desajustando así el enlace metálico. Las bacterias no se envenenaron y lograron un crecimiento considerable considerando que el medio de adaptación tenia metales como el Cu y Fe.  Este tipo de lodos puede ser considerado para el seguimiento del proyecto del reactor anaerobio/aerobio ya que las bacterias son aptas para un sistema en lotes y se podrían probar para un sistema en continuo
Romero Calixto Giselle Joseline, Instituto Tecnológico de Tláhuac
Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional

ESTUDIO DE CASO PARA REALIZAR APRENDIZAJE PERSONALIZADO EN CIENCIA DE DATOS


ESTUDIO DE CASO PARA REALIZAR APRENDIZAJE PERSONALIZADO EN CIENCIA DE DATOS

Romero Calixto Giselle Joseline, Instituto Tecnológico de Tláhuac. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el proceso de enseñanza aprendizaje de algunas materias se aplica en los estudiantes en forma generalizada, sin considerar sus diferencias individuales, tanto en conocimientos previos como en sus habilidades. Se ha detectado que algunas personas tienen más facilidad en algunos temas, mientras que enfrenta mayores dificultades en otros.  En este trabajo se estudia la forma de realizar el proceso enseñanza en forma personalizada, detectando aquellos conocimientos  del área de ciencia de datos y las habilidades dominantes en un estudiante (visual, kinestésico, auditivo). Los datos recabados del estudiante se procesan mediante la técnica de inteligencia artificial conocida como planeación con el propósito de obtener un plan personalizado congruente con el objetivo esperado.



METODOLOGÍA

Inicialmente se realizó el estudio introductorio del estado del arte del aprendizaje personalizado, la representación del conocimiento y temas de planeación automática que se inició con el solucionador general de problemas (General Problem Solver) y las diferencias entre planeación y sistemas expertos. Con esta base teórica se obtuvo una mejor comprensión del problema a resolver.  Se realizó el Análisis y diseño de un traductor de programas y de otro programa de planeación; el segundo será el núcleo de un sistema de enseñanza personalizada. Se analizó junto con otra participante de este programa Delfín la evaluación de conocimientos para contar con un plan específico para cada estudiante dependiendo a sus habilidades, mostrando el estado Inicial determinando el nivel de conocimiento para obtener el estado final estableciendo predicados que describan el nivel de conocimientos del estudiante obteniendo el plan de enseñanza con los estados y las acciones para ser aplicado en diferentes áreas de conocimiento. Así mismo los expertos en cada área podrán tener un sistema personalizado colocando los objetivos en cada estado dependiendo a los objetivos de cada estudiante.


CONCLUSIONES

Con la elaboración de la propuesta de aprendizaje personalizado se espera mejorar el rendimiento académico de los estudiantes.  
Romero Cordova Adriana, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Mario Orozco Santos, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias

EXPERIMENTOS DEL USO DE DIFERENTES ACOLCHADOS PARA LA REDUCCIóN DE LA INCIDENCIA Y SEVERIDAD DE HLB.


EXPERIMENTOS DEL USO DE DIFERENTES ACOLCHADOS PARA LA REDUCCIóN DE LA INCIDENCIA Y SEVERIDAD DE HLB.

Romero Cordova Adriana, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Mario Orozco Santos, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias



PLANTEAMIENTO DEL PROBLEMA

México cuenta con una  variedad de regiones geográficas que presentan condiciones de clima adecuados para el cultivo de las especies de cítricos, los principales son naranjas, limón mexicano y Limón persa. En México la producción de especie cítrica tiene una gran importancia económica  y social. El problema primordial es la enfermedad de nombre Huanglonbing (HLB), también conocida como greening o enverdecimiento, es una de las enfermedades más devastadoras para los cítricos .Esta patología causada por una bacteria Gram-negativa (Candidatus Liberibacter spp.) ha causado grandes estragos en la industria citrícola, desde Asia donde se presume se dio origen, África y ahora en toda América. La enfermedad del HLB que es transmitida por la Diaphorina, un insecto conocido comúnmente como Psílido Asiático, causa grandes problemas en los árboles enfermos desde improductividad hasta la muerte de los mismos. Su nombre traducido al español el cual es enfermedad del brote amarillo es otorgado gracias a que hace referencia a su principal síntoma. Ya que  esta enfermedad afecta a todas las variedades comerciales de cítricos, tan solo en colima se estimó una caída en la demanda de mano de obra para labores de campo y cosecha por 2345 empleos de tiempo completo equivalente a 300 jornaleros anuales, 2010-2012. Y hasta la fecha  no se conoce cura para los arboles afectados con HLB, los que en poco tiempo se vuelven decadentes e improductivos y finalmente mueren. Ya que por esta misma enfermedad mencionada  algunas de esas tierras se reconvirtieron a cultivos de caña de azúcar.



METODOLOGÍA

Se utilizó limón Mexicano de Lise  para llegar a una respuesta con el experimento de tratamientos, los cuales fueron 5: Acolchado Negro, Acolchado Blanco, Acolchado Gris, Acolchado Verde, Ground Cover y un suelo desnudo, el uso de acolchados en el limón Mexicano reduce la incidencia y severidad de HLB. Los cuales, se les plantaron una cantidad similar  de Arboles a cada tratamiento y un testigo que fue el suelo desnudo, con el fin de evaluar su efectividad de retrasar los inevitables síntomas de HLB y al mismo tiempo elevar los rendimientos para de esta manera el productor pueda hacerle frente a esta enfermedad. Los Arboles se plantaron el 8 de Junio del 2018, con una densidad de 6 x 4 con 4 surcos por tratamiento, los cuales se tomaron datos de todos los arboles de cada tratamiento, Y los parámetros se hicieron de manera visual tomando del 1 al 10, esto para comprobar que las plantas presenten incidencia de HLB. Para eso se realizaron toma de lecturas de HLB una vez por mes, para ver qué porcentaje de HLB tendrían    Lecturas HLB 9-mayo-2019 Suelo Desnudo AE = 87.5% Severidad = 90 / 32 = 2.8 Ground Cover AE = 88.4% Severidad = 17 / 43 = 3.98 Verde/verde AE = 41.7% Severidad = 40 / 48 = 0.83 Negro/negro AE = 36.4% Severidad = 26 / 43 = 0.6 Blanco/negro AE = 68.2% Severidad = 77 / 44 = 1.75   Aluminio/negro AE = 40.9% Severidad = 30 / 44 = 0.68 12 - Junio-2019 Suelo Desnudo AE = 100% Severidad = 161 /32 = 5.03 Ground Cover AE = 100% Severidad = 240 /43 = 5.58 Verde/verde AE = 91.6% Severidad = 96 / 48=2.0 Negro/negro AE = 79.5% Severidad = 66 / 43 = 1.53 Blanco/negro AE = 97.7% Severidad = 149 / 44 = 3.38 Aluminio/negro AE = 77.3% Severidad = 77 / 44 = 1.75   10 - Julio-2019 Suelo Desnudo AE = 100% Severidad = 212 / 32=6.62 Ground Cover AE = 100% Severidad = 280 /43 = 6.51 Verde/verde AE = 100% Severidad = 145 / 48 = 3.02 Negro/negro AE = 100% Severidad = 212 / 32 = 6.62 Blanco/negro AE = 100% Severidad = 205 / 42 = 4.88 Aluminio/negro AE = 100% Severidad = 132/ 44 = 3.00   Para eso se realizaron toma de lecturas de HLB una vez por mes, para ver qué porcentaje de HLB tendrían. Todo esto se realizó con el fin de saber si este sistema de producción es viable


CONCLUSIONES

Durante la instancia de verano se logró adquirir conocimientos teóricos y prácticos  del manejo de enfermedades en los cítricos y poder ponerlos en práctica en la huerta de mi papa ya que con la practica pude darme cuenta la importancia que juegan los acolchados, ya que no solo reduce la presencia de maleza, y te ahorra lo del herbicidas, sino que también se guarda mucho más humedad y se reduce la incidencia y severidad del HLB, esto bien si elegimos con exactitud los diferentes acolchados ya que cada uno de ellos tienen mucha diferencia con tan solo el color, puede hacer cambiar el aumento de producción de los limones
Romero Cordova Marbelly, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Ing. Inés Zazueta Gutiérrez, Instituto Tecnológico de Colima

DISEñO DE MUROS VERDES UTILIZANDO RESIDUOS PLáSTICOS INDUSTRIALES CON LA AYUDA PRINCIPAL DE LA ENERGíA FOTOSINTéTICA PARA LA GENERACIóN DE ELECTRICIDAD AUTOSUSTENTABLE.


DISEñO DE MUROS VERDES UTILIZANDO RESIDUOS PLáSTICOS INDUSTRIALES CON LA AYUDA PRINCIPAL DE LA ENERGíA FOTOSINTéTICA PARA LA GENERACIóN DE ELECTRICIDAD AUTOSUSTENTABLE.

López Romero Gustavo Alfonso, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Romero Cordova Marbelly, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Ing. Inés Zazueta Gutiérrez, Instituto Tecnológico de Colima



PLANTEAMIENTO DEL PROBLEMA

A lo largo del tiempo se ha estado acumulando la necesidad incesante de cuidar el planeta, justamente pensando en esta problemática es que la Organización de la Naciones Unidas desarrolló y acordó una solución que se tiene que implementar de manera progresiva y constante.      Los Objetivo de Desarrollo Sostenible fueron concebidos para poner fin a múltiples problemáticas, la pobreza, el hambre, el déficit de educación de calidad, pero si no se erradica la pobreza no abra desarrollo sostenible según la (ONU, 2015).        La agenda 2030 plantea un total de 17 objetivos pensados para un mundo mejor mañana, implementándolos en el hoy. El Proyecto aquí presentado va enfocado a combatir siete objetivos los cuales son: Acción por el clima, Energía asequible y no contaminante, Salud y bienestar, Ciudades y comunidades sostenibles, Agua limpia y saneamiento, Vida de ecosistemas terrestres, Industria innovación e infraestructura.



METODOLOGÍA

Se fundamentó de un estudio de investigación documental que busca la sustentabilidad de los proyectos (The World Bank, 2011) de muros verdes desarrollado con plantas trepadoras para exterior que cuentan con el potencial de generar electricidad.        De acuerdo con Constantino (1993). Define la investigación documental, como una serie de métodos y técnicas de búsqueda, procesamiento y almacenamiento de la información contenida en los documentos, en primera instancia, la presentación sistemática, coherente y suficientemente argumentada de nueva información en un documento científico. en el presente proyecto se acudió a utilizar los siguientes tipos de investigación.       Investigación documental: Para llevar a cabo este tipo de investigación fue necesario indagar en artículos científicos, tesis, informes de investigación, entre otros.        Investigación de campo: Para la implementación de este proyecto fue necesario la toma de muestras reales, para lo cual se recurrió a la medición de la tensión presente en plantas trepadoras.       Investigación experimental: esta etapa consistió en realizar muestras en un espacio controlado con material aislante y espacios a la intemperie, obteniendo de esta manera datos relativamente distintos que se clasificaron para su posterior uso.      De manera general y con el fin de sondear a la población económicamente activa se estipulo una encuesta para conocer la percepción de las personas interesadas en la ayuda del medio ambiente, conocimiento previo de las ODS y muros verdes, así como los beneficios obtención de electricidad de las plantas.


CONCLUSIONES

En el transcurso del XXIV verano de investigación fue posible obtener conocimiento tanto documental, experimental, indagación y conocimiento empírico.      Se recurrió a la investigación documental para obtener una visión panorámica para entrar en contexto y de esta manera tener los fundamentos para llevar a cabo la investigación experimental, para la cual fue necesario la utilización de un multímetro, y un par de placas de distintos materiales. Para la realización de pruebas y las mediciones correspondientes para su posterior análisis; de los datos pudimos constatar que efectivamente se obtuvo una diferencia de potencial.        En cuestión de la investigación de indagación se logró conocer las tendencias nacionales para saber a hacia donde van encaminadas las nuevas tecnologías de muros verdes.      En lo referente a la investigación de la situación actual del fenómeno de Muros Verdes en nuestra sociedad, se recurrió al diseño y distribución de una encuesta, para saber de manera más directa lo que piensan y conocen acerca de las ODS´s y muros verdes, de manera general y a grandes rasgos se concluyó que las personas quieren ayudar al entorno, están de cierta manera conscientes de la problemática del medio ambiente, pero no saben cómo poder ayudar, se analizó también el porcentaje de la muestra de la población a la que nos dirigimos que está dispuesta a pagar más de 1000 pesos. Se alcanzó de manera efectiva el cumplimiento de los objetivos de esta investigación debido a que, si se obtuvo una diferencia de potencial presente en la rizosfera, para la generación de energía de las plantas, y en consecuencia hay una mejora en el medio ambiente.      Otro de los objetivos era aprovechar los residuos plásticos en el muro verde, se cumple debido a que dicho muro está constituido por una estructura de madera plástica de residuos.      Se presentaron grandes hallazgos en las muestras realizadas con las plantas, obteniendo lecturas de tensión significativas, en el sentido de producir su propia electricidad de iluminación, el valor agregado radica en aprovechar la energía renovable y autosustentable producida por la planta que adorna al muro verde. Sin embargo, al ser un extenso trabajo aún se encuentra en proceso de desarrollo.       Con todo esto logramos confirmar nuestra hipótesis de reducir el impacto mediante el aprovechamiento de los residuos plásticos industriales para la formación de estructuras sólidas para muros verdes con plantas trepadoras que tienen potencial para generar energía eléctrica mediante la rizodeposición de las mismas.      De manera significativa no cabe duda, que los conocimientos adquiridos en este verano de investigación servirán para la posterior formación tanto académica como personal.
Romero Garcia Martin, Universidad Tecnológica del Valle de Toluca
Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)

LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.


LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.

Ortega Rojas Marco Antonio, Universidad Tecnológica del Valle de Toluca. Romero Garcia Martin, Universidad Tecnológica del Valle de Toluca. Romero Hernandez Oscar Eduardo, Universidad Tecnológica del Valle de Toluca. Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con base en la contextualización del problema con los formularios de Contacto y Colaboración se indago y la solución fue la reprogramación del formulario y su migración a un sistema basado en Google Forms para su integración de manera natural. El análisis de alternativas para la geo localización arrojo 2 posibles opciones; sin embargo, se concluyó que las soluciones no presentan resultados exactos y lo mejor es optar por Google Maps y sus costos. El desarrollo del foro de opinión implicó un diseño de una nueva base de datos, e investigación de APIs que facilitaran la lógica del sitio web. También para la implementación del mismo se realizaron diversas pruebas. El sistema fue implementado con tecnologías de desarrollo frontend (ANGULAR 8 tecnología de Google) y backend (Laravel en PHP).



METODOLOGÍA

Se utiliza la metodología ágil Scrum, lo que facilita controlar y planificar proyectos con un gran volumen de cambios y en donde la incertidumbre sea elevada. En esta metodología, se suele planificar por semanas. Al final de cada Sprint o iteración, se revisa el trabajo validado de la anterior semana. En función de esto, se priorizan y planifican las actividades en las que invertiremos nuestros recursos en el siguiente Sprint. Finalmente, se siguió el paradigma de programación orientada a objetos.


CONCLUSIONES

Google Forms es una herramienta que facilita el manejo de la información y se puede adherir a una página web de manera adecuada. Google Maps es la herramienta recomendada para crear recorridos virtuales, pero implica costos. Si se desea utilizar una herramienta gratuita se corre el riesgo de la inexactitud.  Por último el foro de preguntas y respuestas es desarrollado en dos herramientas completamente diferentes como Angular y Laravel, esto permitió comprobar que estas herramientas son potencialmente compatibles, a pesar de ser creadas con propósitos diferentes. Así mismo cabe resaltar que se busca tener estabilidad en esta sección del proyecto ya que a comparación de otra sección del proyecto se busca reducir tiempos de respuesta.
Romero Gudiel Jesus del Carmen, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.


ANáLISIS DE RIESGOS EN EL áREA DE MáQUINAS DEL PROCESO DE HULE EN LA BENEFICIADORA EL FéNIX.

Gómez Abreu José Ángel, Instituto Tecnológico Superior de Los Ríos. Lopez Sanchez Juan, Instituto Tecnológico Superior de Los Ríos. Romero Gudiel Jesus del Carmen, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

El propósito de este proyecto de investigación es la realización de mejoras de seguridad que eliminen riesgos en la empresa “Beneficiadora el Fénix” la cual se encuentra implementando el proyecto de fabricación de hule granulado y es de gran importancia conocer los riesgos laborales a los que están sometidos sus empleados en las largas horas de trabajo, se visualiza que en el proceso de lavado, existe mucha humedad debido al exceso de agua que utilizan para el primer lavado de hule el espacio es muy reducido para los siguientes procesos, por lo que se presenta el riesgo latente , lo que puede afectar la integridad física del trabajador en todos los procesos de la producción, además de eso la empresa no son visibles sus señalamientos de seguridad, ya que los canales de desagüe no cuentan con todas las cubiertas y existe aberturas en los canales de desagüe lo que provoca que existan riesgos latentes, en todos los procesos se logra percibir demasiado ruido ocasionado por el funcionamiento de las maquinas lo que puede provocar daños a la salud de los trabajadores no cuentan con el equipo de protección adecuada para cada área, en el proceso de pesado la salud física se puede ver afectada por los actos inseguros a raíz de la falta de capacitación con medidas de prevención o por las condiciones inadecuadas existentes a través de factores como la alta temperatura que son producidas por el área de trabajo y por las altas temperaturas en esta época del año. Lo anterior se debe posiblemente a la falta de normas de seguridad e higiene, por ejemplo que no hallan suficientes señalamientos de prevención, la falta de equipo de protección personal, la falta de ventilación, los intensos ruidos, esto pone en riesgo la salud de los empleados.



METODOLOGÍA

Enfoque de la investigación. Investigación cuantitativa La investigación tiene este enfoque debido a que se emplea la recolección de datos para verificar los riesgos existentes o posibles riesgos, en base al análisis de la perspectiva del trabajador en relación a su seguridad en sus labores , con el fin de establecer medidas de seguridad, con el objetivo de controlar y/o eliminar posibles riesgos. El tema central de estudio es el análisis de los riesgos a los cuales se encuentran expuestos los trabajadores durante el proceso de deshidratación de hule. Diseño de la investigación. Se considera una investigación de este tipo, debido a que este tipo de estudios se realizan sin la manipulación deliberada de las variables, en los cuales sólo se observan los factores en su ambiente natural para analizarlos y/o reportarlos La recolección de datos, en el análisis de riesgo dentro de todo el proceso, únicamente se realizará una propuesta de mejora a la empresa, es decir, no se modificará el sistema actual con la que ellos operan, ya que, aunque fuera práctico, el tipo del estudio es corto, por lo que la fase implementación se tendría que realizar en una segunda etapa y darle seguimiento para ser aplicada. Alcance de la investigación. Estudio Descriptivo. Busca controlar y eliminar las causas de los riesgos y/o posibles riesgos a los que están expuestos los empleados en su área laboral, a la hora de realizar sus actividades con el manejo de herramientas y maquinarias, lo que pueda causar accidentes.


CONCLUSIONES

De acuerdo al análisis realizado dentro del área de máquinas del proceso de hule granulado se indentificaron riesgos físicos, mecánicos, biológicos, ergonómicos, eléctricos y por temperatura de los cuales el que más se presenta o que más daño causa a los trabajadores son los riesgos físicos, es por ello que se plantea soluciones que ayuden ala eliminación de dichos riesgos, Además de eso una buena gestión de los riesgos traerá como sabemos muchos beneficios ala organización.
Romero Hernandez Oscar Eduardo, Universidad Tecnológica del Valle de Toluca
Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)

LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.


LAS TIC AL SERVICIO DEL ARTE. EL PELIGROSO VIAJE DEL ARTE ESPAñOL DURANTE LA GUERRA CIVIL Y LA POSGUERRA.

Ortega Rojas Marco Antonio, Universidad Tecnológica del Valle de Toluca. Romero Garcia Martin, Universidad Tecnológica del Valle de Toluca. Romero Hernandez Oscar Eduardo, Universidad Tecnológica del Valle de Toluca. Asesor: C. Andrés Adolfo Navarro Newball, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Con base en la contextualización del problema con los formularios de Contacto y Colaboración se indago y la solución fue la reprogramación del formulario y su migración a un sistema basado en Google Forms para su integración de manera natural. El análisis de alternativas para la geo localización arrojo 2 posibles opciones; sin embargo, se concluyó que las soluciones no presentan resultados exactos y lo mejor es optar por Google Maps y sus costos. El desarrollo del foro de opinión implicó un diseño de una nueva base de datos, e investigación de APIs que facilitaran la lógica del sitio web. También para la implementación del mismo se realizaron diversas pruebas. El sistema fue implementado con tecnologías de desarrollo frontend (ANGULAR 8 tecnología de Google) y backend (Laravel en PHP).



METODOLOGÍA

Se utiliza la metodología ágil Scrum, lo que facilita controlar y planificar proyectos con un gran volumen de cambios y en donde la incertidumbre sea elevada. En esta metodología, se suele planificar por semanas. Al final de cada Sprint o iteración, se revisa el trabajo validado de la anterior semana. En función de esto, se priorizan y planifican las actividades en las que invertiremos nuestros recursos en el siguiente Sprint. Finalmente, se siguió el paradigma de programación orientada a objetos.


CONCLUSIONES

Google Forms es una herramienta que facilita el manejo de la información y se puede adherir a una página web de manera adecuada. Google Maps es la herramienta recomendada para crear recorridos virtuales, pero implica costos. Si se desea utilizar una herramienta gratuita se corre el riesgo de la inexactitud.  Por último el foro de preguntas y respuestas es desarrollado en dos herramientas completamente diferentes como Angular y Laravel, esto permitió comprobar que estas herramientas son potencialmente compatibles, a pesar de ser creadas con propósitos diferentes. Así mismo cabe resaltar que se busca tener estabilidad en esta sección del proyecto ya que a comparación de otra sección del proyecto se busca reducir tiempos de respuesta.
Romero Méndez Jesús Eduardo, Universidad Veracruzana
Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara

PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.


PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.

Ibarra Salcedo Alejandro, Universidad de Guadalajara. Romero Méndez Jesús Eduardo, Universidad Veracruzana. Vidal Mendoza Javier Alonso, Universidad Veracruzana. Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La zona turística del litoral del pacífico; la ciudad de Puerto Vallarta en el estado de Jalisco, se enfrenta al problema de crecimiento urbano desordenado,  zonas periurbanas que se han ido poblando y anexando al centro de Puerto Vallarta, además de ambiciosos proyectos inmobiliarios que han tenido cabida en dicha situación. De manera que se busca que los nuevos proyectos de transformación urbanas, puedan integrarse al centro y a las zonas turísticas de la ciudad. Además, las áreas periurbanas y colonias que quedan en un intersticio urbano,(tomando la colonia 5 de Diciembre como caso de estudio), se encuentran entre espacios de desarrollo, buscando su transformación, e integración a la zona metropolitana. El reto más importante para la región en el mediano plazo es cómo manejar el crecimiento de las ciudades sin poner en riesgo el medio ambiente, la economía, la gobernabilidad y la calidad de vida de quienes la habitan.  Ahora bien, en una zona de alto turismo internacional resulta más complicada la tarea de realizar una planeación urbana estratégica.



METODOLOGÍA

Cómo proceso metodológico, en primera instancia se partió de la base teórica previamente realizada, dónde los objetivos y palabras clave han sido muy bien acotados. Para fines de la investigación, se llevó a cabo la recolección de información mixta, a través de la obtención de datos de manera cualitativa y principalmente cuantitativa, ya que muchas variables exigían la delimitación de datos concretos. Cabe mencionar que al momento de moldear el instrumento para la prueba piloto, nos dimos cuenta de las exigencias de algunas preguntas del instrumento (encuesta), resultando que había información eminentemente cualitativa. La interpretación de estos incisos debía ser por medio de un análisis de toda la situación que representa la mayoría de opiniones, vivencias o resultados de las encuestas, pero sin descartar cuando existan individuos que expresen minorías en su forma de pensar. Por lo que al tener ya el instrumento de aplicación para la obtención de información, se procedió la primera parte que era el levantamiento de un Check list, donde se hacían anotaciones de la situación en la que se encontraba la colonia que representa el caso de estudio. Como parte de la metodología para recabar datos, se procedió a realizar trabajo de campo a través de la implementación de encuestas en la zona de estudio: Una referente a la percepción que tienen los habitantes de dicha zona de su potencial económico; del estado en el cual se encuentra y de las necesidades que presenta. La segunda encuesta en relación a los procesos de movilidad que existen dentro de la zona. Se tomó un orden en la aplicación; la primera de ellas en las vialidades con sentido paralelo al mar, hasta haber terminado con la mitad. La segunda parte de ellas, aplicada en las calles con sentido perpendicular a las primeras. Para la aplicación de la segunda encuesta, se seleccionaron puntos estratégicos, en el caso en el cual representaban aquellos con más flujo peatonal y vehicular, con el fin de recabar datos que representen información concreta principalmente sobre el uso de los medios de transporte y los puntos de traslado a través de la ciudad de Puerto Vallarta, con referente a la zona de estudio. De tal forma que para dicho estudio se recabaron datos, tales como los lugares de residencia de los encuestados; los tiempos de traslados que realizan cada uno de ellos y cuántos viajes al día realizan; así como el medio de transporte que utilizan y algunas consideraciones sobre éste último.


CONCLUSIONES

La primera etapa de investigación, a través del método de observación, nos permitió percibir las condiciones y algunos de los fenómenos que presenta la zona de estudio, dada la recolección de información sobre sus condiciones actuales.  Es así, que dicha zona se define puesto que presenta un alto movimiento tanto vehicular como peatonal, por lo cual se caracteriza como una zona con vitalidad. Si bien, en primera instancia se obtuvo información referente a las condiciones actuales, al realizar la segunda parte de ésta primera etapa, se logró complementar la información y así identificar los rasgos positivos y negativos, dado que al recorrer y analizar la zona es posible identificar los factores y sectores que representan potenciales o carencias, y al analizar los datos obtenidos de las encuestas realizadas a los residentes y habitantes de dicha zona, fue posible corroborar algunos aspectos que se identificaron a primera instancia a través de la observación.  En efecto, la colonia 5 de diciembre representa un punto importante dentro de la ciudad de Puerto Vallarta, dado que es un eje conector de la misma, sin embargo ha presentado cambios en su infraestructura, en su mayoría centrándose en las principales avenidas de ésta; Av. México, Perú y Colombia, las cuales fueron remodeladas en su totalidad (Banquetas nuevas, cableado subterráneo, sin baches y un alcantarillado correcto a simple vista genera un aspecto de colonia limpia). Éstas con el paso del tiempo han sido mejoradas debido a que la afluencia de automóviles ha ido en incremento año con año y el turismo de igual manera, sin embargo, el aumento en la cantidad de turistas y automóviles que pasan por la colonia genera un desabasto en los cajones de estacionamiento público y genera más tráfico.  Cabe resaltar que con relación a las actividades comerciales y turísticas en dicha colonia, la llegada de nuevos restaurantes, tiendas departamentales, hoteles y edificios de oficinas son aquellos que han generado un cambio significativo en la colonia ya que estas empresas privadas aumentan el desarrollo turístico. De tal forma que como resultado de dichas transformaciones urbanas, el microcomercio local resulta ser el más afectado, puesto que la principal demanda se concentra dada la cercanía al mar. Es así que el microcomercio solo se desarrolla en relación a los consumidores  locales, más no a los turistas, debido a que las estrategias de planeación urbana no se establecen equitativamente a lo largo de la colonia.
Romero Orozco María Teresa, Universidad Católica de Manizales (Colombia)
Asesor: Dr. Wilfredo Marimon Bolivar, Universidad Católica de Colombia (Colombia)

ESTUDIO DE LA RELACIÓN ENTRE PARÁMETROS HIDROTOPOGRÁFICOS Y EL POTENCIAL DE AUTODEPURACIÓN EN RIOS: CASO ESTUDIO RIO TUNJUELO


ESTUDIO DE LA RELACIÓN ENTRE PARÁMETROS HIDROTOPOGRÁFICOS Y EL POTENCIAL DE AUTODEPURACIÓN EN RIOS: CASO ESTUDIO RIO TUNJUELO

Romero Orozco María Teresa, Universidad Católica de Manizales (Colombia). Asesor: Dr. Wilfredo Marimon Bolivar, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el crecimiento poblacional a generado una gran demanda en cuanto al recurso hídrico y por ende la generación de residuos a incrementado, es por esta razón que día a día se presenta un gran deterior de los afluentes, puesto que, los vertimientos provenientes de actividades domésticas, agrícolas e industriales, son descargadas de forma directa en los ríos y quebradas, lo que ocasiona una disminución del oxígeno disuelto y el deterioro de la población vegetal y animal de los mismos. Por esta razón, el objetivo principal de esta investigación es realizar una búsqueda de información que permita determinar la relación entre el potencial de autodepuración de los ríos con respecto a sus condiciones hidrotopográficas, con el fin de establecer parámetros que permitan desarrollar e implementar una metodología para la evaluación exprés del potencial de autodepuración en corrientes superficiales a nivel de cuenca.



METODOLOGÍA

La búsqueda de la información se realiza en tres momentos, los cuales comprenden las salidas de campo, medición de la calidad de agua y la comparación con los modelos de autodepuración de cargas contaminantes ya establecidos. Cada una de las etapas se ejecutó de la siguiente manera: Salida de campo: durante esta etapa, se escogió como área de estudio el río Tunjuelo, en el cual se realizó un muestreo para la evaluación de la calidad de este con el fin de mejorar los datos que se tenían de este cuerpo de agua por lo que se realizaron mediciones periódicas de los parámetros físicos como son el pH, oxígeno disuelto, temperatura y conductividad a cinco diferentes pasos de tiempo. Durante cada uno de las mediciones, se tomaron muestras para hacer análisis de parámetros fisicoquímicos en laboratorio; los parámetros analizados en el laboratorio fueron alcalinidad, DBO, COT, fósforo y sólidos totales. Medición de la calidad del agua: Las muestras tomadas en campo fueron analizadas en el laboratorio de calidad de agua de la Pontifica Universidad Javeriana donde se aplicaron las técnicas establecidas por los métodos estándar como son espirometría para DBO, titulación para alcalinidad, cromatografía iónica para fosfatos, nitratos y cloruros, digestión para nitrógeno total y gravimetría para sólidos. Modelos de comparación: a partir de la revisión del estado de arte, se estudiaron las investigaciones previas que permitan identificar las variables más importantes a tener en cuenta para el momento de verificar el potencial de auto depuración de las aguas superficiales de un rio, esto con el fin de asociar parámetros cualitativos y cuantitativos para la modelación del mismo.


CONCLUSIONES

La descomposición de la materia orgánica presente en el agua, posee factores que facilitan la disminución del mismo como la topografía, profundidad, turbulencia y velocidad, que ayudan a que estos procesos se den de forma más eficiente. La velocidad que presenta el afluente en ese momento, puede traer ventajas y desventajas en el proceso, puesto que si la velocidad es muy alta la depuración del contaminante es más baja, siempre y cuando no se cuente con rugosidad en el trayecto del río. El caudal de las descargas y el tamaño del rio en cuanto al ancho, largo y profundidad del mismo, influyen en la depuración de la materia orgánica, puesto que, a mayor concentración de contaminante en el vertimiento, mayor disminución del oxigeno disuelto en el rio. Las pruebas deben realizarse siempre aguas abajo, puesto que en este punto se concentran en mayor medida la carga contaminante y allí los parámetros del agua son más precisos. El oxígeno disuelto es uno de los factores más importante para la depuración de la materia orgánica presente en los ríos, ya que de este depende el desarrollo de los microorganismos; cabe anotar, que el largo, ancho y profundidad del rio hacen parte de este proceso, como quedó demostrado en uno de los estudios más grandes, en el cual se realizó el muestreo a un caudal de descarga de 0,150m3/s dónde se registró un oxígeno disuelto de 8,2mg/L a una profundidad de 0,170m con una velocidad de 0,24m/s, el ultimo punto se registró 285000 m aguas abajo, a una profundidad de 0,110m con un aumento  del oxígeno disuelto de 10,2 mg/L, identificando un aumento del 18 - 20% en el tramo estudiado.
Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea
Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)

FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL


FABRICACIÓN ADITIVA DESDE UNA PERSPECTIVA DE DESARROLLO SUSTENTABLE DE UNA PRÓTESIS TRANSTIBIAL

Hernández Franco Mariana, Universidad Veracruzana. Herrera Fletes Denyce, Instituto Tecnológico de Tepic. Lopez Parra Vanessa, Instituto Tecnológico de Tepic. Rivera Gil Maria Alejandra, Universidad Católica de Pereira (Colombia). Romero Salazar Erika Abigail, Instituto Tecnológico Superior de Cananea. Asesor: M.C. Julián Ignacio López Arcos, Universidad de San Buenaventura (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En este documento se planteará una comparación entre la manufactura tradicional y la manufactura aditiva por impresión en 3D para la fabricación de una prótesis transtibial de modo que se resuelva la cuestión: ¿Por qué el proceso de manufactura aditiva es mejor que el proceso de manufactura tradicional?



METODOLOGÍA

Este documento es un proyecto de investigación de tipo cualitativo en el que se pretende hacer una comparación entre la fabricación de una prótesis de extremidad inferior transtibial a través de manufactura tradicional y manufactura aditiva, con el objetivo de analizar las dos modalidades de la manufactura y determinar el impacto que estas generan desde una perspectiva multi criterio que comprenda el aspecto ambiental, social y económico. Para la identificación del problema se realizará un Value Streaming Map (VSM), con la finalidad de identificar la raíz del problema, las causas y los efectos del problema. Para la recopilación de información se hará una revisión del estado del arte y análisis de la bibliografía encontrada en bases de datos de artículos científicos.


CONCLUSIONES

La manufactura aditiva se ha proyectado para reemplazar a la manufactura tradicional; emplear la impresión en 3D para transformar un modelo digital en un objeto físico presenta ciertas ventajas y se considera como un proceso de manufactura sustentable. Sin embargo, actualmente carece de cierta rigidez necesaria para su introducción total en la industria manufacturera. Esto representa un desafío para la ingeniería y un gran avance para la industria en su objetivo por llegar a la industria de la tecnología y la digitalización.
Romero Vazquez Nalleli Lizbeth, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: Ing. Alicia Linares Ramirez, Instituto Tecnológico de Estudios Superiores de Zamora

SISTEMA PARA EL MONITOREO DE LAS EVALUACIONES PARCIALES EN EL ITESZ


SISTEMA PARA EL MONITOREO DE LAS EVALUACIONES PARCIALES EN EL ITESZ

Rodriguez Hinojosa Pedro, Instituto Tecnológico de Estudios Superiores de Zamora. Romero Vazquez Nalleli Lizbeth, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Ing. Alicia Linares Ramirez, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

Antecedentes del problema En el ITESZ existe una gran falta de información entre los jefes de carrera, los tutores, acerca de los alumnos para la detección a tiempo de los alumnos que están en riesgo de la deserción y los índices de reprobación en los grupos, ya que los alumnos que se encuentran en esta situación, debe de analizarse su caso, para ver que puede ser el problema que les impide concentrarse en los estudios, de esta manera al detectar cual es problema, canalizarlo con el especialista indicado. Definición del problema Con los informes de las calificaciones de los alumnos , los tutores podrán dar seguimiento y  averiguar qué es lo que pasa con los alumnos en riesgo, cuales son los problemas que tienen, de esta manera poderlos canalizar a el área que lo necesita, lo cual podrá evitar la deserción de los alumnos, de igual manera ver los índices de reprobación de las materias, y por alumno, ya que gracias a esta información se podrá ver los avances de los alumnos, ver cuál fue el motivo de la reprobación , si con ayuda académica extra , los alumnos más bajos se pueden poner al corriente con sus compañeros.  



METODOLOGÍA

La metodología que se siguió para realizar este proyecto: La metodología que se siguió es Microsoft Solution Framework  que es un modelo interactivo que se divide en cinco fases, las cuales se mencionan a continuación: Fase diagnóstico y configuración inicial Fase módulo de actividad: tutorial Fase Captura de trayectoria escolar Fase de estabilización Fase Servidores. Fase Captura de trayectoria escolar


CONCLUSIONES

 Al concluir esta estancia en el ITESZ he comprendido, todos los requerimientos y complicaciones al crear un sistema con esa magnitud, ya que se conlleva diferentes complicaciones éticas, de las cuales se realizó una investigación para saber hasta dónde puede abarcar el sistema, como es que funciona el aprendizaje, de la misma forma cual es el criterio de evaluación de los maestros, ya que se tuvo en cuenta lo siguiente  se pudo empezar el proyecto para realizar el seguimiento de los alumnos, de esta manera la información que se tiene, será más sencillo detectar a los alumnos en riesgo de deserción para poder prevenir estas situaciones y de esta forma poderlos ayudar a tiempo.
Romero Verdugo Steve, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo

MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.


MEJORA DE LA CALIDAD Y PRODUCTIVIDAD.

Mendiola Luz Erica, Instituto Tecnológico Superior de Ciudad Hidalgo. Patiño Avila Kevin Eduardo, Instituto Tecnológico Superior de Ciudad Hidalgo. Quiroz Cruz Erika Rubi, Instituto Tecnológico Superior de Ciudad Hidalgo. Romero Verdugo Steve, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La calidad es uno de los pilares fundamenntales para toda empresa ya que esta deja una gran marca en el mercado a competir.



METODOLOGÍA

Durante nuestra estancia de investigación científica, se llevó a cabo lo siguiente: Se nos hizo una capacitación al equipo de trabajo Nos presentarnos como equipo de trabajo ante la empresa Se realizó un diagnóstico de inicio en toda la empresa. Ya obtenido el diagnostico se prosiguió a realizar un FODA de la empresa. Seguido de una encuesta de satisfacción. Identificar los 7 desperdicios. Diseñar propuesta de mejora. Implementación de la propuesta de mejora Y como final  Presentar la información de los resultados  ante la empresa.


CONCLUSIONES

En el resumen anterior se muestra lo que se llevó a cabo en la estancia del programa delfín. A lo largo de la estadía hemos realizado un diagnóstico en base a la matriz F.O.D.A y los siete desperdicios, gracias a esto logramos conocer la situación en la que se encontraba la organización para posteriormente analizar los resultados obtenidos y establecer propuestas de herramientas Lean y mercadológicas, complementando con capacitaciones a todos los colaboradores para así ayudar a mejorar la calidad y productividad dentro de la empresa desde el departamento de calidad en el que fuimos residentes. El haber tenido la oportunidad de trabajar con compañeros de diferentes semestres, pertenecientes a la carrera de ingeniería industrial nos ayudó a conocer más herramientas de mejora continua, así como llevarlas a cabo en un ambiente laboral y no solo conocerlas de manera teórica.   Este verano científico nos deja una gran experiencia de aprendizaje al forjar nuestros conocimientos institucionales. Agradecemos el haber participado pues nos dio visión como futuros ingenieros.
Romo Garcia Esaú, Universidad de Guadalajara
Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro

DETECCIóN DE OBJETOS CON TéCNICAS DE INTELIGENCIA ARTIFICIAL


DETECCIóN DE OBJETOS CON TéCNICAS DE INTELIGENCIA ARTIFICIAL

Esquer Salazar Karen Sofia, Instituto Tecnológico de Culiacán. Romo Garcia Esaú, Universidad de Guadalajara. Asesor: Dr. Francisco Antonio Castillo Velasquez, Universidad Politécnica de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente por la gran cantidad de datos e información que manejan las empresas ya sea en el sector: salud, educación, agrícola, comercio, seguridad, financieros entre muchas otras, para un usuario común es una tarea imposible manipular esa gran cantidad de información, por lo tanto, es importante contar con herramientas tecnológicas capaces de manipular dicha información y ponerla a disposición de manera eficaz. Un área muy demandada en la actualidad por muchas empresas de tecnología mundial (Google, Amazon, Apple) es la de Detección y Clasificación de objetos, la cual a grandes rasgos puede describirse como la capacidad de una máquina, por medio de la Inteligencia Artificial, de reconocer uno o varios objetos, entre los cuales pueden ser personas, animales, cosas, etc. Y diferenciarlos entre sí y del medio en el que se encuentran.



METODOLOGÍA

Para la realización de un modelo de detección y clasificación de objetos, se utilizó la biblioteca  de Tensorflow, la cual es de código abierto para el aprendizaje automático desarrollada por Google capaz de construir y entrenar redes neuronales para detectar y descifrar patrones y correlaciones análogos al aprendizaje y razonamiento usado por los humanos. A su vez, se utilizó el lenguaje de programación Python y su IDLE para el desarrollo del algoritmo de entrenamiento. Una vez instalados los softwares necesarios, se procedió a realizar un banco de imágenes las cuales contenían al objeto u objetos a detectar, este banco de imágenes debe ser muy extenso ya que con base en la cantidad de imágenes utilizadas se realizará el entrenamiento, y entre mayor sea el  banco, mayor  será  la precisión y exactitud de dicho  modelo.


CONCLUSIONES

Como resultado del proyecto realizado durante la estancia se obtuvieron varios modelos capaces de reconocer objetos, los cuales fueron previamente entrenados, proceso que requiere gran cantidad de tiempo computacional; además, se llevó a cabo una ingeniería inversa para personalizar una aplicación desde una webcam y así poder comprobar el aprendizaje automático de reconocimiento de imágenes con los modelos obtenidos.
Romo Ramírez Marco Antonio, Universidad de Guadalajara
Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DISEñO E IMPLEMENTACIóN DE UN OSCILADOR CAóTICO EN FPGA CON LENGUAJE VERILOG PARA APLICACIONES CRIPTOGRáFICAS.


DISEñO E IMPLEMENTACIóN DE UN OSCILADOR CAóTICO EN FPGA CON LENGUAJE VERILOG PARA APLICACIONES CRIPTOGRáFICAS.

Romo Ramírez Marco Antonio, Universidad de Guadalajara. Asesor: Dr. Esteban Tlelo Cuautle, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Conforme avanza el tiempo cada vez hay más elementos que se unen al desarrollo del IoT (internet of things), y a pesar de que este tenga sus ventajas, también cuenta con sus desventajas como lo es el exponernos ante amenazas informáticas. La inseguridad en las comunicaciones es una problemática que nos afecta a todos. El mantener nuestra información a salvo es de suma importancia y es por esto que debemos de crear métodos de encriptación de datos para proteger la información.   En México actualmente hay más de 74 millones de usuarios conectados a la red, lo cual representa el 65.8% de la población, la cual aumentó 3 millones más que en 2017, esto presentando por el Instituto Nacional de Estadística y Geografía (INEGI) y el Instituto Federal de Telecomunicaciones (IFT). El incremento de usuarios conectados a la red, cada vez es mayor, por ende, la inseguridad informática crece a la par y se deben de tomar medidas de protección.   La mayor problemática se presenta al enviar la información, puesto que no sabemos qué tan seguro pueda ser el canal por el que viaja. La información debe de ser codificada, ya que, si el canal de información es inseguro, cuando el intruso informático sustraiga la información del usuario, esta le será inservible, puesto que estará cifrada y el intruso no podrá visualizarla.



METODOLOGÍA

Existen muchas técnicas de encriptación de información, pero la que se desarrolló en este proyecto de investigación fue la implementación de un sistema caótico. Los osciladores caóticos al ser impredecibles ante cambios mínimos en sus parámetros de arranque, son ideales para las aplicaciones de criptografía.   Un sistema caótico es un sistema no lineal, pero es determinístico, lo que nos indica que la única forma de poder predecir su comportamiento es conociendo sus condiciones iniciales. El sistema que se va a aplicar es llamado caótico, ya que por más pequeño que sea el cambio en sus parametros iniciales esto desarrollara resultados completamente distintos, por ello para recrear el comportamiento del sistema, las condiciones de arranque deben de ser completamente idénticas, si no esté cambiará de forma radical.    El sistema caótico usado para este proyecto fue el oscilador caótico basado en funciones saturadas definidas a tramos (SNLF). Las ecuaciones matemáticas que describen al sistema son las siguientes (*significa la derivada de la variable):   *x = y *y = z *z = - ax - by - cz + df(x)   La implementación de este sistema fue por etapas, en una primera instancia, se implementó el sistema en Excel, con la ayuda de un análisis numérico, el cual fue el de Forward Euler, esto con el propósito de visualizar la tabla de iteraciones que se generan por la aplicación del análisis numérico, así como visualizar las gráficas de las salidas de sistema, respecto al tiempo y entre ellas. Posterior al uso de Excel se utilizó un software más potente el cual fue Matlab y se implementó el sistema en lenguaje C con la ayuda del mismo análisis numérico.   Con la ayuda de los resultados que arrojó Matlab se pudieron determinar parámetros necesarios para la siguiente etapa, como lo fue el conocer las amplitudes máximas que maneja el sistema en sus salidas, ya que con estas podemos determinar el tamaño de variable que se va a diseñar en la descripción del hardware.     Los parámetros que se usaron en el diseño del sistema fueron registros de 32 bits de los cuales 5 bits fueron para la parte entera y 27 para la fraccional, esto para un manejo de datos con punto fijo, así como un valor 0.1 para condiciones iniciales (Xn,Yn,Zn) y un valor de 0.7 para las constantes (a,b,c,d), y para la función se implementó una pendiente.   Ya obtenidos los parámetros de diseño se prosiguió a realizar la descripción del hardware en el software Active HDL con el lenguaje Verilog, para poder hacer la implementación física en un FPGA. Una vez acabado el diseño, este fue sometido a una simulación, para poder visualizar de forma gráfica el funcionamiento del sistema.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimiento teóricos y prácticos de diseño digital, programación en Verilog y sistemas caóticos, sin embargo, al ser muy extenso el trabajo, no se alcanzó a realizar la etapa de encriptación, puesto que el último bloque era sumar el oscilador caótico a algún paquete de información, y en enviarlo por un canal para al momento de recibir el paquete, restar el oscilador caótico para recuperar la información original.    El caos posee una gran cantidad de áreas de investigación por las grandes características que tiene y su dificultad de estudio. Su aplicación es de mucho provecho para el desarrollo científico pues este puede ser aplicado a muchas áreas, no solo a la que se presenta en este documento.
Roque Gutierrez Ariadna Joselinne, Instituto Tecnológico de Toluca
Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo

PROOFTOPIA: LA RED SOCIAL DE DEMOSTRACIONES MATEMáTICAS


PROOFTOPIA: LA RED SOCIAL DE DEMOSTRACIONES MATEMáTICAS

Morales Flores Jose Manuel, Instituto Tecnológico de Acapulco. Roque Gutierrez Ariadna Joselinne, Instituto Tecnológico de Toluca. Asesor: Dr. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Se pensó en una red social, ya que hoy en día el medio de comunicación más importante es un sitio en el cuál puedan compartir sus pensamientos, lo que les agrada a las personas y a su vez tener la opción de hablar en tiempo real con alguien más, es por ello que está red social integra las funciones que cualquier otra red social conocida, en este caso tomamos como ejemplo algunas funcionalidades que otorga Facebook como lo es el chat entre amigos, comentarios, el poder compartir publicaciones de otros amigos o bien dar a conocer sus conocimientos a todas las personas que estén interesadas.



METODOLOGÍA

Este proyecto se centra en la realización de una red social de matemáticas enfocada a estudiantes de universidad, sin embargo, también puede ser utilizada para estudiantes de preparatoria, en adición a cualquier profesor, ya que en esta red social se puede encontrar cualquier tipo de temas de matemáticas, así como tener contacto con personas que son expertas en el tema. No obstante, no hay una limitación en quien puede usar esta red social siempre y cuando estén interesados en temas matemáticos. Otro de los puntos de la red social es que también contiene grupos a lo cuáles los usuarios pueden unirse de acuerdo con sus intereses ya que cada grupo trata de un solo tema y todos los miembros del grupo pueden apoyar en las dudas que se presenten al igual que cada usuario puede crear estos grupos. Además, la red social cuenta con un pequeño programa el cuál verifica que todos los teoremas publicados sean demostrados de manera correcta y a su vez los amigos de la persona que publicó el teorema puedan comentarle los puntos en el cuál pueden mejorar o confirmar que lo publicado es correcto.


CONCLUSIONES

La red social se implementó en la Universidad Michoacana de San Nicolás de Hidalgo, específicamente en la Facultad de Ciencias Físico-Matemáticas con un pequeño grupo de alumnos y profesores, se realizaron las pruebas correspondientes para ver el funcionamiento y la usabilidad de dicho proyecto, finalmente se logró el objetivo que es que la red social sirva para compartir el conocimiento de todos los estudiantes con sus demás compañeros al igual que fue de ayuda para los profesores al dejarles tarea a sus alumnos y compartir más conocimiento independiente al que exponen en sus clases. Así mismo, se escucharon las propuestas de los alumnos y profesores, por lo tanto, ellos dieron la razón para realizar una red social en razón de que se tiene una interfaz amigable para el usuario, es más dinámica la comunicación con las demás personas que estén involucradas en la misma y es preferible entrar a un sitio donde pueda interactuar con sus amigos de manera rápida, en cuanto a comentarios y visualización de intereses, es segura la información plasmada ahí pues como se mencionó hay una verificación en las publicaciones, y todos pueden externar dudas o compartir conocimientos, en especial porque se pretende que esta herramienta pueda ser usada por cualquier persona, para que los estudiantes que tengan dificultad en algunos temas tengan la opción de preguntar y ser orientados por personas que sepan del tema y también que dicha red social pueda ser expandida a más lugares de la república mexicana, esperando que a largo plazo se pueda implementar en algunos países. Dicho proyecto fue propuesto por la Dr. Karina Mariela Figueroa Mora, de la UMSNH.
Rosales Castro José Antonio, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca

ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO


ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO

Dimas Pomposo Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Castro José Antonio, Tecnológico de Estudios Superiores de San Felipe del Progreso. Sandoval Sandoval José Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca



PLANTEAMIENTO DEL PROBLEMA

Teniendo presente la gran contaminación que existe por nuestro estilo de vida y que esta a su vez va creciendo, englobando varios ámbitos  y uno de ellos es el ruido. Gran parte de esta contaminación es producida por los insumos plásticos y sus derivados, debido a sus tiempos de degradación por lo que se convierte en un inconveniente, de entre estos plásticos podríamos definir el PET, HDPE y UNICEL. Estos resultan en ser un inconveniente pues en México así como en gran parte del mundo no se tiene una cultura respecto al manejo que deben recibir estos materiales después de utilizarlos, pues tan solo en México se recolectan diariamente 86 mil 343 toneladas de residuos de los cuales aproximadamente un 30% son los plásticos antes mencionados y que en total solo el 11% recibe algún tipo de tratamiento. Al respecto con lo anterior podemos asimilar otros problemas principalmente en México, respecto a la calidad de vida de las personas pues muchas de ellas no cuentan con los recursos suficientes para poder adquirir o construir un lugar donde vivir. Según la Secretaria de Hacienda y Crédito Publico en México 36 millones de personas no cuentan con una vivienda digna, cifra que va en aumento con forme pasan los años.



METODOLOGÍA

Se requirió hacer una investigación exhaustiva de los temas relacionados respecto a al uso, propiedades, normatividad, etc. De los elementos constructivos como son el sillar, el block, el ladrillo, etc. Con el fin de tener conocimientos previos para la ejecución del proyecto, es decir se realizó un protocolo de investigación para poder llevar a cabo el proyecto de investigación. Los aspectos que conforman el protocolo fue un estado del arte, planteamiento del problema, justificación, objetivos específicos y generales, hipótesis, marco teórico, marco normativo, marco conceptual, marco propiedades a evaluar y ensayes a los materiales. En estos se detalló la línea de investigación que se pretende seguir pues se pretende crear un elemento constructivo con dimensiones iguales a un sillar pero elaborado con un procedimiento similar a un block de tepojal y cemento. Puesto que ya se tenía un avance en el protocolo en donde ya se habían desarrollado diversos temas y aspectos se analizó el trabajo preliminar con el objetivo de observar detalles que se omitieron pero que resultan en ser importantes por el conocimiento que permitirían obtener y el curso en el desarrollo de la investigación. A continuación se detalla de forma general algunos de los conceptos que se abordaron: Marco conceptual; en este se desarrollaron los conceptos de manera más profunda pues se debía de tener un concepto que fuera eficiente para poder comprender de manera exacta lo que abarca cada producto relacionado al producto que se pretende conseguir. Marco Normativo; En este se hizo una investigación exhaustiva normativa nacional donde abarcamos las normas ONNCCE donde se buscaba todo respecto a la industria de la construcción en forma específica en mamposterías y muros tanto de hormigón como de materiales pétreos, pues aunque el producto no es igual a ninguno de estos, es la guía para poder crear un elemento constructivo que brinde seguridad para su uso, Propiedades a evaluar en el producto; Conociendo lo anterior y sabiendo los requerimientos que piden las normas oficiales mexicanas se investigaron los factores que se deben analizar para poder cumplir con las normas como por ejemplo una de las más importantes la resistencia a la compresión, así como una de las más obvias como la de prueba de fuego. Ensayes a los materiales; La aplicación de los conocimientos llevan a las pruebas, sin embargo es necesario saber qué tipo de pruebas es necesario realizar y también como realizarlas, con qué propósito, y que maquinaria  se utilizará, de ahí la importancia del desarrollo de este apartado, con el cual se pretende llevar a cabo en la creación de un prototipo.


CONCLUSIONES

En el transcurso de la estancia se pudieron reforzar conocimientos, respecto a los criterios que se deben alcanzar en una investigación respecto a la construcción, donde las normas y las pruebas, aspectos que resultaron relevantes que se deben de considerar de manera especial en la ejecución y creación del elemento que se está proyectando, por su puesto el llevarlo a la práctica resultara en que surjan más dudas, sin embargo lo expuesto en el protocolo de investigación resultara una base sólida para poder dar una buena ejecución.
Rosales Gutiérrez Francisco Antonio, Universidad de Guadalajara
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNIING PARA ENTRENAMIENTO DE AGENTES VIRTUALES


EXPLORACIóN DE TéCNICAS DE DEEP REINFORCEMENT LEARNIING PARA ENTRENAMIENTO DE AGENTES VIRTUALES

Rosales Gutiérrez Francisco Antonio, Universidad de Guadalajara. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El aprendizaje profundo o DRL por sus siglas en ingles es uno de los temas más revolucionarios en nuestra época, que tiene que ver con la inteligencia artificial ya que por medio de este se pueden generar sistemas autónomos, que ayuden a solucionar problemas con los cuales la sociedad interactúa diariamente, por lo que abre a muchas nuevas aplicaciones en dominios tales como cuidado de la salud, robótica, redes inteligentes, finanzas entre otras. El funcionamiento de los algoritmos en base a este concepto es mediante un sistema multiagente el cual lleva a el código a un aumento de recompensa o al éxito de la tarea. Siendo este un indicador útil, pero proporciona solo una medida aproximada de las habilidades de comunicación aprendidas del agente. Así mismo Joelle Pineau profesora de la universidad McGill nos habla que, aun cuando se han creado varios algoritmos alrededor del mundo, en países como Estados Unidos y China, donde se generan cientos de artículos con base en este concepto de DRL son muy pocos los que funcionan correctamente. Ya que, aunque estos tengan la misma finalidad los datos que se obtienen diferencian mucho entre si dado a que se construyen sin una buena metodología. Dándonos así nuestra mayor problemática que es la falta de documentos que muestren una buena metodología y los pasos a seguir para la obtención de buenos resultados y código que sea posible ejecutar. Algo que cabe recalcar es que en México no se ha explorado lo suficiente este tema de investigación y, sin embargo, es un campo de investigación que tiene un gran potencial en el futuro de las industrias.



METODOLOGÍA

Para poder trabajar de manera más optima se tuvieron que plantear conceptos previos los cuales son necesarios al momento de adentrarnos a lo que fue el DRL, algunos de estos fueron explicados por nuestro investigador mientras que algunos otros estaban aclarados mediante la lectura de documentos que este mismo nos proporcionaba. Para poder comenzar a programar se utilizó un equipo de computación con sistema operativo Windows 10. Se instaló Anaconda® como ambiente de trabajo; junto con este paquete, se incluyó Python 3.7. Dentro de Anaconda® Navigator, se empleó Jupyter Notebook para comenzar el dominio del lenguaje Python. Dado que no todos conocíamos completamente el funcionamiento de este programa fue necesario tomar un curso introductorio a el ambiente de programación de Python organizado por el Instituto Tecnológico de Massachusetts (MIT) el cual abarcó temas básicos hasta los temas más avanzados mediante una serie de ejercicios en Jupyter y Spyder siendo útiles para poder generar la sintaxis correcta al momento de escribir código. Por consiguiente, se entrenó un modelo con MNIST la cual es una base de datos con números escritos con diferente caligrafía. Cuyo funcionamiento consiste en identificación de cualquier número del 0 al 9 que se está escribiendo, y calcular el promedio de exactitud del programa. Para indicar a que grupo pertenecía el valor introducido utilizando RandomForestClassifier. Una vez concluido el código, se implementó Deep Learning con la red neuronal convolucional (CNN). Se entrenó un modelo, con la misma base de datos de MNIST, pero incluyendo los paquetes de Keras, de red neuronal y posteriormente se guardó para evitar entrenarla cada vez que se ejecutara el código. Cada número ingresado en el programa fue predicho y clasificado con una gran exactitud del 99%. Keras es una API de redes neuronales de alto nivel, escrita en Python y es capaz de ejecutarse sobre TensorFlow. Para continuar con el curso entramos a la parte de aprendizaje por refuerzo profundo mediante una serie de actividades de la universidad de Berkeley California en donde se aprendieron conceptos nuevos como la función Q, la implementación del policy gradient y el entrenamiento de un algoritmo con recompensa. Con los códigos proporcionados en el mismo se ejecutaron en Python los códigos para comparar diversas políticas; esto refiere a que un agente tiene la oportunidad de escoger una acción de todas las historias posibles en un entorno virtual. Durante la primera asignación, el agente tiene una enseñanza por imitación. Se compara Behavioral Cloning y DAgger, esto con la finalidad de observar el crecimiento de aprendizaje y definir qué código es óptimo para el intermediario. Relacionando los dos códigos, se encontró que DAgger es un mejor código de implementación. Sus ventajas son que tiene un aprendizaje elevado con cada iteración, sin embargo, el tiempo de ejecución del programa es un poco más lento. En la segunda tarea, se desarrollaron políticas gradientes que ayudaron al agente en su toma de decisiones. Para reducir la varianza del gradiente de la política fue sumar las recompensas de la función Q, mejor conocido como reward-to-go. Por último, en la tercera actividad se entrenó el videojuego de Atari, Pong, con Deep Q-Network con la finalidad de observar el aprendizaje del agente virtual. Al finalizar, se graficaron los pasos por los que interactuó el juego teniendo como finalidad evaluar aprendizaje de la convolución de redes neuronales. También, se entrenó un agente para escalar una montaña y se ingresaron diferentes parámetros para conseguir un buen resultado.


CONCLUSIONES

Por medio de la estancia de investigación de verano delfín pudimos adquirir conocimientos teóricos relacionados a Machine Learning, Deep Learning y Deep Reinforcement Learning que nos ayudaron a comprender el entorno de programación como es que están estructurados los diferentes algoritmos, cuáles son sus principios de funcionamiento, la lógica de su ejecución y las ecuaciones fundamentales que hacen posible que el código pueda ir aprendiendo con una relación de entrada, salida y recompensa. Dejándonos así las bases del Deep Reinforcement Learning e incentivándonos a adentrarnos más a esta área de la Inteligencia Artificial en la cual aún faltan muchos aspectos por descubrir ya que es un área bastante amplia y revolucionaria que se puede implementar con múltiples finalidades.
Rosas Gómez Catherine, Instituto Politécnico Nacional
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.


PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.

Hernández Beltrán Javier Enrique, Instituto Politécnico Nacional. Olvera Flores Bryan Alberto, Instituto Politécnico Nacional. Rosas Gómez Catherine, Instituto Politécnico Nacional. Vargas Orozco Christian Salvador, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro de la ciudad de México se suele contar con un problema referente a la vialidad, esto es de gran notoriedad al visitarla ya que, a pesar de no contar con un espacio geográfico tan grande, la cantidad de vehículos que circulan por las calles es muy alta. Por esto mismo, suele ser algo común que se lleguen a presentar diversos accidentes viales. Gran parte de estos accidentes pueden a llegar a generar cambios o concentraciones de ciertos agentes contaminantes en el medio ambiente de la zona en la que se encuentren, por lo que, resulta interesante la revisión de los datos que se muestren de la recolección de dicha información ambiental. Con esta información, podríamos llegar a ser capaces de encontrar un patrón en cuanto a las zonas y fechas que nos podrían ayudar a predecir en qué fechas, días y zonas aproximadas se pueden llegar a presentar más accidentes viales. Asimismo, con la ayuda del patrón encontrado, se podría encontrar una relación entre la cantidad de accidentes viales que se registran los días en los que hay un mayor índice de precipitación pluvial y, de este modo, predecir con mayor exactitud los accidentes viales que podrían generarse y tomar medidas para prevenirlo como tomar rutas alternas y así evitar el tráfico. 



METODOLOGÍA

Tras dar por terminada la introducción teórica a los conceptos básicos de ciencia de datos y machine learning, hemos realizado diferentes ejercicios prácticos en los que hemos analizado el funcionamiento de diferentes algoritmos de clasificación o predicción. Al finalizar estos ejercicios prácticos se nos dio a elegir el tema de enfoque de nuestro proyecto final dentro del programa delfín.  En colaboración con tres compañeros más del programa, hemos seleccionado como nuestro proyecto final el siguiente tema; Predictor de precipitación pluvial e incidentes viales el cual tiene como objetivo, demostrar que es posible realizar predicciones con un alto rango de exactitud acerca de los días y zonas donde lloverá dentro de la Ciudad de México, así como determinar si existe una correlación entre el fenómeno natural de la lluvia y la incidencia de accidentes viales dentro de la Ciudad de México y de ser así, modelar dicha correlación.  El proyecto da inicio en nuestras manos desde un punto en el que ya contamos con dos conjuntos de datos no procesados, una de registros oficiales de accidentes viales y la otra acerca de registros, también oficiales, de las precipitaciones pluviales, ambas bases delimitadas a registros en la Ciudad de México.  El primer paso del proyecto, consistirá en la manipulación de los conjuntos de datos a modo de poder modificar estos hasta tenerlos en un formato en el que sea posible leerlos con cualquier software para su manipulación. Este paso resulta necesario ya que, al no estar procesados, estos no se encuentran generadas correctamente y esta construcción, que cuenta con algunos errores, afectan su accesibilidad.  Posterior al proceso de limpieza de los conjuntos de datos, se procederá a seleccionar para cada uno de estos, las columnas de datos que se utilizarán para la predicción de eventos.  Después de esto, estos datos serán separados en dos grupos, siendo uno el utilizado para entrenar los algoritmos de predicción y el segundo, para hacer pruebas sobre la efectividad de dichos algoritmos.  Tras analizar los resultados de ambas predicciones, buscaremos las columnas de datos (enfocándonos especialmente en la zona y fecha) que nos permitan unir ambos conjuntos de datos en uno solo a fin de localizar de esta manera la posible existencia de una correlación entre ambos fenómenos de estudio, los accidentes viales y las lluvias.  Una vez concluido este proceso, se procede a, finalmente, trabajar con el producto que se recibe del análisis y procesos de Machine learning, se puede empezar a utilizar herramientas que nos permitan ilustrar dichos datos logrando de esta forma, que sea mucho más fácil la interpretación de los resultados que hemos encontrado. 


CONCLUSIONES

A lo largo de la estancia de verano, se adquirieron conocimientos de las 3 etapas con las que cuenta un proyecto de Data Science, que son la minería y limpieza de datos (etapa relevante y sumamente laboriosa), aplicación de los diferentes algoritmos de Machine Learning (siendo esta con mayor peso, con el fin de saber su funcionamiento para identificar en qué circunstancias aplicarlos), y finalmente se obtiene la interfaz, con la que el usuario podrá interactuar. En las 3, se obtuvieron conocimientos teóricos que se aplicaron en el proyecto final.  Por parte del proyecto, fue algo interesante de trabajar debido a las diversas formas en que podíamos dar pie al procedimiento, sin embargo, teníamos que ir poco a poco para saber hasta qué punto podríamos llegar en este corto tiempo. Finalmente, tuvimos que detenernos en un punto medio, debido a que, por los datos que se proporcionaban en una de nuestras muestras, no podríamos realizar las correspondientes predicciones ya que no contábamos con la información suficiente, además de que hacer transformaciones de otros tipos de datos a numérico (el cual necesitábamos) llegaría a ser mucho más tardado y complicado de realizar. 
Rosas Martínez Rosario, Universidad de Sonora
Asesor: Dr. Gerardo Ramirez Uribe, Universidad de Sonora

CARTOGRAFÍA DEL RUIDO URBANO EN SECTOR CENTRO DE HERMOSILLO, SONORA


CARTOGRAFÍA DEL RUIDO URBANO EN SECTOR CENTRO DE HERMOSILLO, SONORA

Rosas Martínez Rosario, Universidad de Sonora. Asesor: Dr. Gerardo Ramirez Uribe, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El ruido es un factor de riesgo para la salud humana, por lo tanto es necesario estudiarlo y registrar cartográficamente su distribución considerando al mismo tiempo las magnitudes de la población afectadalas causas generadoras y los efectos provocados por este fenémeno, se debe investigar sobre la pertinencia y sobre la importancia d econocerlo a fin de coadyuvar con las autoridades en la procuración de un mejor nivel de vida para los habitantes de Hermosillo.



METODOLOGÍA

La investigación se dividió en dos etapas; la primera consistente en el acopio de datos teóricos mediante el estudio y análisis de más de 50 artículos publicados en revistas científicasde paises como: China, India, Viet Nam, Inglaterra, Francia, Alemania, España, Brasil y otros. La segunda etapa consistió en el levantamiento de datos de campo registrando los niveles de ruido en todos los cruces de calles del sector estudiado mediante el uso de un Fonómetro marca Instruments que permite registrar los niveles bajo, alto y promedio en cada punto estudiado y con posibilidades de uso en ambientes exteriores o en ámbitos donde el ruido se debe al funcionamiento de maquinaria y equipos, Se conjugaron los datos de campo, los teóricos y los proporcionados por INEGI y SEMARNAT y se plasmaron los datos resultantes en mapas que expresan la problemática general utilizando el programa GIS original. todo ello generó gráficas y mapas de fácil interpretación.  


CONCLUSIONES

El ruido es un fenómeno urbano que afecta la salud de los habitantes de las ciudades. El sonido se converte en ruido cuando interviene la variable molestia que es fruto de la intensidad de la onda sonora y de la duración de la misma.. Deben reforzarse las normas referentes al ruido, ya que en la actualidad son poco exigentes y además no existe control sobre su cumplimiento. Se concluyó sobre la petinencia de realizar una cartografía general sobre ruido urbano en Hermosillo.Sonora. Los niveles de ruido que violan la norma actual provoca ansidad y está documentado que puede llegar a producir Infartos cardiacos. Los profesionales involucrados en el diseño y construcción de las ciudades deberían presentar una manifestación de impacto sonoro para obtener permisosde construcción o la aceptación y registro de sus proyectos.
Rueda Sánchez Luz Karime, Corporación Universitaria Minuto de Dios (Colombia)
Asesor: M.C. Cristhian Andres Beltran Zuñiga, Universidad del Valle (Colombia)

ANÁLISIS DE LOS FACTORES DE RIESGO BIOMECÁNICO Y SINTOMATOLOGÍA ASOCIADAS A TRABAJADORES DE MAQUINARIA PLANA EN UNA INDUSTRIA DE GUANTES DEL VALLE DEL CAUCA PARA EL AÑO 2019.


ANÁLISIS DE LOS FACTORES DE RIESGO BIOMECÁNICO Y SINTOMATOLOGÍA ASOCIADAS A TRABAJADORES DE MAQUINARIA PLANA EN UNA INDUSTRIA DE GUANTES DEL VALLE DEL CAUCA PARA EL AÑO 2019.

Ibarguen Mosquera Yarlin Yesid, Corporación Universitaria Minuto de Dios (Colombia). Rueda Sánchez Luz Karime, Corporación Universitaria Minuto de Dios (Colombia). Asesor: M.C. Cristhian Andres Beltran Zuñiga, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los trastornos musculo esqueléticos se han convertido en una problemática que está afectando a la población trabajadora considerándose una problemática en el ámbito de la Seguridad y salud en el trabajo tanto en países desarrollados y lo que están en vía de desarrollo ya que estos son la causa más común de enfermedades laborales que aquejan la salud de los trabajadores, en donde en la industria manufacturera debido a las diversas actividades y la realización de constantes movimiento repetitivos y posturas mantenidas, dentro de los TME los que más se presentan según el acuerdo con la circular 035 del Ministerio de Trabajo, las enfermedades laborales más comunes por riesgo biomecánico se encuentran el síndrome del túnel carpiano, síndrome de manguito rotatorio, epicondilitis lateral, epicondilitis media, trastorno de disco lumbar y otros, con radiculopatia, otros trastornos especificados de los discos intervertebrales, otras sinovitis y tenosinovitis, lumbago no especificado, tenosinovitis de estiloides radial [de quervain] traumatismo, no especificado. Teniendo en cuenta datos estadísticos de estudios  sobre salud y condiciones en el lugar de trabajo que han sido realizado por el ministerio de trabajo Fuente especificada no válida, en el cual se pretendía demostrar los factores de riesgos presentes en los centros de trabajo encuestados  con el propósito de efectuar un seguimiento de estas condiciones de trabajo y las enfermedades de origen laboral, en la cual se reportaron que en más de la mitad de los centros encuestados, se presentan con mayor frecuencia las condiciones ergonómicas en el trabajo relacionadas con los movimientos que se generan de forma repetitiva en manos, brazos y piernas, posturas inadecuadas o conservada por un periodo prolongado. Los operarios de maquina plana al mantener la misma postura por periodo de tiempo prolongados, los movimientos repetitivos  y el  esfuerzo muscular aplicados pueden llevar al trabajador con el tiempo de exposición puede comenzar a presentar sintomatología de dolor leve en la parte del cuerpo afectada donde la sintomatología más frecuente en este tipo de riesgo es el entumecimiento, hormigueo y dolor asociado a inflamación, pérdida de fuerza y dificultad de movimiento en la zona corporal afectada, según datos de la II encuesta realizada sobre las condiciones de trabajo de España en el 2011, las zonas del cuerpo más afectada por esta patología resultaron ser el cuello con un 34,3 seguido por la zona alta de la espalda con 27,1 y la zona baja de la espalda 44,9.  



METODOLOGÍA

La presente investigación es de índole descriptivo, e inductivo  en lo que se busca con dicha investigación es identificar el riesgo biomecánico que se encuentran expuestos los operarios de máquinas planas, en donde a través del diligenciamiento  del  cuestionario de factores de riesgo ergonómicos y daños, y la aplicación el método RULA, evaluar el nivel de riesgo postural el cual  permite hacer una evaluación rápida de los esfuerzos posturales o musculo-esqueléticos de los trabajadores debido a funciones y fuerzas que ellos ejercen, como evaluación inicial de las constituciones del trabajador, basándose en observación directa de las posturas adoptadas en el momento de realizar las tareas teniendo en cuenta sus extremidades superiores e inferiores como brazo, antebrazo, muñecas, cuello, espalda y piernas, con estos resultados poder determinar una propuesta de intervenciones que facilite mejorar las condiciones laborales de los trabajadores con el propósito de minimizar la exposición.  


CONCLUSIONES

Los resultados obtenidos durante la ejecución de la investigación se aplicó el cuestionario de factores de riesgo ergonómico y daños , se toma como muestra 10 trabajadores  de 16 que se desempeñan como operarios de maquina plana,  en estos resultados se evidencia que los trabajadores manifiestan presentar molestias o dolor en espalda lumbar, con un 30% al igual que cuello hombro y /o espalda dorsal, estas dolencias se presentan debido a las exigencias del puesto de trabajo, las posturas prolongadas, movimientos repetitivos, y la intensidad horario en la realización de las tareas, se consideran factores predominantes que a largo plazo pueden desencadenar en los trabajadores enfermedades laborales como es la cervicalgia, lumbalgia, entre otras, que se encuentran dentro de estas patologías, con la aplicación del método RULA para evaluar el nivel de carga postural este método da como resultado en su nivel de intervención en los trabajadores da valores que se encuentran entre 4 y 7 esta puntuación final del método dará a conocer el nivel de intervención donde según los datos que obtuvieron es que pueden requerirse cambios en la tarea; es conveniente profundizar en el estudio, se requiere el rediseño de la tarea. CONCLUSIONES Con los resultados obtenidos con la aplicación del método RULA, para evaluar el nivel de carga postural, se evidencia  la necesidad de un rediseño de la  tarea o cambios urgente de estas en el área de confección, permitiendo  minimizar el nivel de riesgo  en esta población trabajadora, para con ello lograr mejorar las condiciones de trabajo, minimizar los tiempos de exposición y mejorar la calidad de vida de los individuos, ya que estas actividades son monótonas, rutinarias y no  permiten hacer rotación del personal. De acuerdo a la muestra seleccionada como operarios de máquinas planas del área de confección de la industria de guantes, se puede percibir que estos trabajadores presentan sintomatología que se asocia al peligro biomecánico,  sintomatología en miembros superiores como son el cuello, hombro y / o espalda dorsal, espalda lumbar, codos, estos se logra identificar que esto intervienen varias variables, como son las condiciones de trabajo, la posturas prolongadas, movimientos repetitivos que ejercen durante la jornada laboral
Ruiz López Alan, Universidad Autónoma de Baja California
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

FACTIBILIDAD PARA LA IMPLEMENTACIóN DE NUEVOS SISTEMAS DE ELIMINACIóN DE METALES PESADOS Y PATóGENOS EN EL AGUA DE CONSUMO.


FACTIBILIDAD PARA LA IMPLEMENTACIóN DE NUEVOS SISTEMAS DE ELIMINACIóN DE METALES PESADOS Y PATóGENOS EN EL AGUA DE CONSUMO.

Ruiz López Alan, Universidad Autónoma de Baja California. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Actualmente la problemática de agua es un tema delicado que está afectando a nivel mundial, y entre las diferentes razones que afectan a los consumidores de ésta (Ecoagricultura, 19) se encuentra el agua contaminada por metales pesados, es decir, aquellos elementos que presentan una alta densidad (mercurio, arsénico, níquel, plomo, cromo, entre otros). Esta problemática se debe a la actividad industrial y/o minera o a cuestiones naturales. Como consecuencia de la presencia de los mismos en el agua, se puede ocasionar a los residentes de las zonas cercanas enfermedades oncológicas, coloraciones en la piel, problemas en articulaciones y afectaciones a los aparatos digestivos y respiratorios (Facsa, 17). Es por eso que entre Aqua Clara Internacional y la Universidad Autónoma de Querétaro decidieron trabajar juntos, en busca de zonas donde se presente esta clase de problemática, con el fin de tratar el agua mediante un sistema de filtración para remover dichos metales. Actualmente, se tienen ya siete sistemas instalados en el estado de Querétaro y tres en Guanajuato, los cuales se ubican en zonas mineras. En ellos se hacen análisis previos de su calidad de agua, para verificar la viabilidad de instalación y posteriormente, se hacen análisis de evaluación para confirmar que los sistemas trabajen adecuadamente (analizando agua de entrada y de salida a los sistemas). A su vez se busca implementar nuevos sistemas, por lo que es necesario evaluar la factibilidad del sistema en diversas zonas, para esto es necesario el trabajo en equipo con instituciones como Secretaría de Salud del Estado de Querétaro (SESEQ).



METODOLOGÍA

Primeramente, fue necesario aprender de los sistemas, por lo que en conjunto con un equipo de trabajo se identificaron tres sistemas ubicados en Guanajuato, cerca y dentro de San Miguel de Allende, dichas instalaciones están ubicadas en: Jardín de niños ubicado Los Galvanes. Jardín de niños Emiliano Zapata ubicado en San Miguel de Allende. Primaria ubicada en Lomas de Cocina. En donde se tuvieron que realizar mantenimientos, para la primera ubicación. Se tuvieron problemas con el reactor que filtra el arsénico, por la consistencia de la arena fue necesario sustituirla, la causa fue la falta de mantenimiento preventivo y ausencia de calcio en el agua cruda, por lo que se tuvo que realizar un mantenimiento correctivo. Adicionalmente, se tenía presencia de algas en los filtros de membrana hueca para finalmente remover las algas, para esto fue necesario limpiar los filtros con cloro a una concentración del 25%. Valvula oxidada. En la segunda ubicación, fue necesario sellar el reactor ya que esto estaba afectando al sistema, y dentro de ella se estaban reproduciendo larvas. Se recomendó dar seguimiento y se dieron indicaciones de lavado del reactor de arsénico. En la tercera ubicación, el filtro de entrada estaba contaminado, la arena del reactor de arsénico mantenía cierta turbidez debido a la probable falta de calcio, y la válvula del flotador se encontraba oxidada. Para esto fue necesario limpiar los filtros con cloro a una concentración del 25%, se necesitó retirar la arena del reactor y se deberá sustituir, se lavó la grava, y se cambió el flotador. Para la viabilidad de futuros sistemas, se le solicitó a SESEQ datos sobre la epidemiologia de diversas zonas, para identificar aquellas que tengan mayor urgencia en la implementación de este tipo de sistema y que también los residentes de estas zonas se viesen interesados en beneficiarse y colaborar. Además de solicitar información referente a los siete sistemas ya instalados para darles seguimiento y poder evaluar su efectividad. Asimismo, con apoyo de SESEQ se recaudaron muestras de los sistemas de sistemas instalados en la sierra gorda, para posterior hacerles pruebas de patógenos, con ayuda de las placas 3M y a su vez pruebas de arsénico con ayuda de un kit rápido de arsénico.


CONCLUSIONES

Al día de hoy, se logró que dos sistemas ya estuviesen trabajando correctamente en San Miguel de Allende, lo cual ya está proporcionando agua potable y limpia de metales pesados para niños de los Galvanes y Emiliano Zapata. Para lo cual se requirió la limpieza de los filtros, el sellar los reactores, la sustitución de arenillas, y el cambio de flotadores. Al recibir los datos por parte de SESEQ y resultados de las evaluaciones de calidad de agua de los sistemas se introducirán a una base de datos para corroborar la efectividad de los mismos o se plantearán las actividades correctivas y preventivas para evitar futuros conflictos.
Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia
Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro

DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR


DISEñO, CONSTRUCCIóN Y CONTROL DE UN MICRO VEHíCULO VOLADOR

Alejo Ramos Jose Antonio, Instituto Tecnológico Superior de Uruapan. Camacho Sapien Ramon Alberto, Instituto Tecnológico de Culiacán. Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Hernández González Irving Gabriel, Instituto Tecnológico de Pachuca. Osuna Galindo Michelle Alejandra, Instituto Tecnológico de Culiacán. Ruiz Moreno Jorge Ignacio, Instituto Tecnológico de Morelia. Asesor: Dr. Alberto Traslosheros Michel, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El proyecto denominado ‘Ala circular’, consiste en un dispositivo que será puesto en un túnel de viento y deberá por medio de un conjunto de sensores, detectar su posición en todo momento además, contará con un sistema de control que le permitirá mantener su posición ante alguna perturbación.  Este proyecto servirá de apoyo para poner a prueba algunos aspectos que ayudarán en futuros proyectos que realizarán alumnos de la universidad para el desarrollo y prueba de diversos sistemas de control y otros dispositivos aeronáuticos.



METODOLOGÍA

Se diseño el mecanismo del sistema de control con el que contará el 'Ala circular', el cual está basado en paletas colocadas en los laterales y sobre la estructura, las cuales se moverán mediante un par de servomotores y le permitirán mantener su posición ante alguna perturbación.  Se diseño el cuerpo interno, las piezas de soporte y las paletas de manera que fueran lo más ligero posible para que el dispositivo no se vea afectado por el peso, agregando que se diseño el mismo de manera modular para poder así reemplazar alguna pieza en caso de dañarse o si se gusta probar con otro diseño. Se realizó el diseño en computadora de las partes que componen el proyecto, de tal manera que se puedan modificar las partes en caso de ser necesario y se puedan almacenar en un formato compatible para su impresión 3D. Una vez impresas las piezas, serán ensambladas para formar así el Ala circular.  


CONCLUSIONES

Hasta el momento, contamos con el diseño en CAD de las piezas que conforman el ala circular, además de tener el ensamble final y las piezas en el formato requerido para su impresión. A lo largo de nuestra estancia hemos llegado a la conclusión de la importacia que tiene el trabajo en equipo y la correcta distribución de actividades para poder así obtener un trabajo de calidad de la manera más óptima posible.  Entre otras cosas, también hemos aprendido a utilizar nuevos softwares que han sido requeridos para distintas actividades en distintas etapas del mismo proyecto, entre ellos se encuentran FreeCAD, HALCoGen, Code composer studio, entre otros.  Por último, cabe destacar que, gracias a las exposiciones que se nos ha pedido realizar sobre los avances del proyecto, nos hemos podido desenvolver mejor delante de otras personas ajenas al mismo e incluso delante de directivos de la institución.
Ruiz Moreno Yazmin, Instituto Politécnico Nacional
Asesor: Dr. María Mercedes Salazar Campoy, Universidad de Sonora

EXTRACCIóN DE ORO A PARTIR DE MENAS DE BAJA LEY.


EXTRACCIóN DE ORO A PARTIR DE MENAS DE BAJA LEY.

Ruiz Moreno Yazmin, Instituto Politécnico Nacional. Asesor: Dr. María Mercedes Salazar Campoy, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La mayoría de las minas en Sonora procesan minerales de oro y plata que son de baja ley en donde el oro se encuentra diseminado en tamaños microscópicos e incluso ocluido en minerales que contienen sulfuros, hierro y arsénico. El proceso más utilizado para la extracción de oro y plata en este tipo de minerales es la lixiviación con una solución de cianuro de sodio, en donde se apilan cantidades del mineral y los metales preciosos se disuelven con dicha solución. Sin embargo, este método trae consigo muchos riesgos sobre todo a la salud; por inhalación del cianuro se bloquea el trasporte de oxígeno en la sangre y en su manejo puede llegar a formarse el ácido cianhídrico que es la forma más letal del cianuro. El proyecto de investigación consiste en la aplicación de vías alternas al cianuro para la extracción de oro en menas de baja ley que contienen oro diseminado y ocluido en tamaños de partículas microscópicas.



METODOLOGÍA

La extracción se llevó a cabo por medio de una lixiviación agitada con un reactivo orgánico obtenido en el laboratorio y se utilizaron procedimientos adicionales como el ensaye al fuego y la espectrometría de absorción atómica. La síntesis del reactivo orgánico lixiviante es a partir de urea y carbonato de sodio para posteriormente hacer reaccionar el cianato obtenido con cloruro de amonio para finalmente obtener cianato de amonio, que es precisamente el reactivo lixiviante que se utilizó para la obtención de oro en este tipo de minerales. Además, este reactivo puede utilizarse como fertilizante, por lo que con él se ofrece un cuidado del medio ambiente y sobre todo es un reactivo alterno al cianuro con el que se evitan los peligros a la salud que éste último trae consigo. Para el proceso de lixiviación con agitación se mezcló una solución de 1.5 L que contiene cal y el reactivo lixiviante con otra solución que contiene el mineral en una relación 3:1 y posteriormente se hizo el mismo procedimiento para una relación 4:1. El mineral se trabajó a +100, -100, -200 y -270 mallas para poder comparar las extracciones con cada tamaño de partícula. Listo lo anterior, se colocó en agitación durante tiempos de 8, 24 y 48 horas tomándose una muestra de la solución a cada tiempo. Las muestras se filtraron y las soluciones filtradas se leyeron en el EAA para oro. Las colas de las lixiviaciones también se leyeron en este aparato después de un proceso de digestión; se llevaron a sequedad en la mufla, se agregó 30 mL de agua regia, se calentó con fuego lento hasta la obtención de una consistencia de jarabe, se agregó 50 mL de HCl, se dejó hervir, se agregó agua y se aforó. Para poder oro en las colas, se tomó 50 mL de la solución anterior y se agregó metil isobutil cetona para recolectar el oro, se agitó y se agregó bifloruro de amonio para limpiar la solución de otros metales. Con ayuda de las técnicas del ensaye al fuego -que es también otro método para la extracción de oro- fue posible obtener la ley de oro en cada tamaño de malla en g/T. El procedimiento para el ensaye al fuego fue primeramente mezclar 20 g de mineral con 90 g de fundente (PbO, Na2CO3 y bórax), 3 g de Ag metálica y 3 g de harina. La mezcla se fundió a 1000 °C en crisol de barro y se descargó la fundición en una payonera para dejar enfriar y posteriormente se martilló en forma de cubo para separar la escoria. El cubo de plomo, oro y plata se llevó a un proceso de copelación a 800 °C por 45 min y se obtuvo un botón de oro y plata (doré). Al doré se le añadió HNO3 al 25% para disolver la plata y se hicieron lavados con agua destilada y con NH4OH al 50%. Se dejó secar en estufa y se introdujo en mufla a 700 °C por 1 min. Las lecturas obtenidas en el EAA y con los pesos obtenidos en los ensayes al fuego fueron un complemento para construir las curvas de extracción de oro a diferente tamaño de malla.


CONCLUSIONES

Durante el desarrollo del proyecto se logró aplicar algunos de los métodos de extracción de oro y se comprendieron aspectos importantes a considerar a la hora de trabajar con algún mineral según sus características. Se puede analizar que la técnica del ensaye al fuego es un complemento para el método de lixiviación. En el análisis de mallas con el ensaye al fuego se obtuvo un incremento de la ley de Au a menor tamaño de partícula siendo de 47.5 g/T para 80# y de 93.6 g/T para -270#. Con la ley de mallas fue posible calcular el porcentaje de extracción a distintos tiempos para determinado tamaño de malla. Para una lixiviación 2:1, el mayor porcentaje de extracción se obtuvo con -270#; para los demás tamaños se concluye que la extracción de Au no aumenta considerablemente conforme aumenta el tiempo, por lo que no resultaría rentable trabajar a esos tamaños de partícula. Sin embargo, para una lixiviación 3:1 el mayor porcentaje de extracción se obtuvo para un tamaño de +100#, mismo que resultó muy cercano a -270#. Teóricamente con un tamaño de partícula de -270# se obtendría una mayor extracción, sin embargo, se trabajó con un mineral refractario en donde pudo quedar ocluido parte del oro del mineral. Los resultados obtenidos fueron realmente significativos, por lo que la utilización de este reactivo alterno al cianuro con ayuda de las técnicas mencionadas es un proceso viable con el que no se tienen que hacer modificaciones en los procesos de lixiviación de las industrias mineras, el cambio solo implica en el reactivo lixiviante.
Ruiz Nava Fabiola Maricela, Instituto Tecnológico de Colima
Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey

MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO.


MODELACIÓN MATEMÁTICA PARA LA SOLUCIÓN DE PROBLEMAS DE LOGÍSTICA HUMANITARIA EN MÉXICO.

Guzman Maldonado Brenda, Instituto Tecnológico de Estudios Superiores de Zamora. Ruiz Nava Fabiola Maricela, Instituto Tecnológico de Colima. Asesor: Dr. Neale Smith Cornejo, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Logística Humanitaria es aquella encargada del proceso de planificación, implementación y distribución efectiva y eficiente de los flujos de productos después de la ocurrencia de un desastre, el cual es un evento repentino y calamitorio que altera gravemente el funcionamiento de una comunidad y que causa pérdidas humanas, en otras palabras, un desastre es la incapacidad de la sociedad para adaptarse a un evento. En México nos hemos enfrentado a diferentes desastres, quizá el más impactante en tiempos recientes sea el sismo del 19 de septiembre de 2017, con una magnitud de 7.1 Mw, que impacto a diferentes zonas del país dejando un saldo de 369 personas fallecidas en el centro del país y cientos de damnificados. Uno de los organismos involucrados en la ayuda humanitaria al momento de que una catástrofe azota el país es el Banco de Alimentos de México (BAMX), que es una organización civil mexicana sin fines de lucro, cofundadora y miembro de Global FoodBanking Network (GFN). Mismo que cuenta con más de 50 bancos de alimentos distribuidos en todo el país, BAMX es la única red de bancos de alimentos en México y la segunda más grande del mundo. BAMX se enfoca en rescatar alimentos que están en riesgo de ser desperdiciados por industrias, campos, centros de abastecimiento, supermercados, restaurantes y hoteles, mismos que son distribuidos a zonas donde la adquisición de alimentos es complicada debido a la falta de recurso. Cuando surge un desastre BAMX se une a los esfuerzos de la sociedad mexicana para apoyar las actividades de distribución de socorro en las comunidades afectadas. Esto a menudo requiere cambios urgentes en la planificación operativa ya establecida por cada banco individual, problemática a que se espera dar solución en este proyecto a través de un modelo matemático que represente la asignación óptima de los recursos en cualquier escenario de catástrofe.



METODOLOGÍA

Se comenzó realizando una revisión bibliográfica de la literatura relacionada con la logística humanitaria, utilizando bibliotecas de artículos como Scopus y ScienceDirect, a las cuales se accedió gracias a la licencia proporcionada por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tras la lectura y análisis de varios documentos, se realizó un cuadro comparativo, éste con la finalidad de tener una relación más práctica y así poder identificar lo que se ha hecho en investigación sobre transporte y asignación de recursos en situaciones de desastre desde el 2014 a la actualidad. Culminada la revisión bibliográfica se siguió con los modelos matemáticos, en donde para comenzar se vio una breve introducción sobre la estructura de los mismos, cómo introducir sus variables, parámetros, conjuntos, función objetivo y restricciones, así como el nombre de los softwares que se tomarán en cuenta para la resolución de dichos modelos matemáticos. Se instaló la licencia y ejecutador para utilizar el lenguaje AMPL e iniciamos el análisis de la sintaxis de ese lenguaje de programación, teniendo una idea clara de cómo se utiliza ese lenguaje se procedió a realizar la codificación de dos modelos matemáticos, así como la programación de instancias útiles para los diferentes escenarios, en donde el primero fue un modelo básico de asignación y transporte, pero el segundo era una versión del modelo desarrollado para solucionar el problema de la investigación, es decir, un modelo de transporte en situación de emergencia para los Bancos de Alimentos de México. Una vez entendida la estructura de la programación en AMPL instalamos un software llamado Anaconda Distribution para la administración del lenguaje Python, además de instalar la licencia y software de Gurobi, el cual funciona como solucionador y tiene funciones especiales para el tipo de modelación matemática con el que se trabajó en el verano. Dentro de las últimas actividades se programaron los modelos mencionados anteriormente, pero ahora utilizando el lenguaje de Python y Gurobi, para ambos se generaron instancias diferentes donde el objetivo del software era la solución de las mismas.


CONCLUSIONES

Durante la estancia se adquirieron conocimientos teórico prácticos sobre logística humanitaria y modelos matemáticos para dar solución a problemas de dicha área, a través de revisión bibliográfica y de aprendizaje sobre diferentes lenguajes de programación, como AMPL, Python y Gurobi, logramos cumplir los objetivos del verano de investigación. Debido a lo extenso del proyecto, este aún está en la fase de desarrollo y no sería posible mostrar resultados, sin embargo, se espera obtener un modelo óptimo que cubra los diferentes escenarios de desastre para minimizar el tiempo de intervención y el sufrimiento humano mediante la pronta asignación de recursos en los Bancos de alimentos de México.
Ruiz Ramos Zelma Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

REFERENCIAS DIGITALES VS FíSICAS


REFERENCIAS DIGITALES VS FíSICAS

Ruiz Ramos Zelma Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo de investigación que se presenta con el nombre de Referencias digitales Vs físicas pretende determinar el tipo de herramienta de estudio que es más viable para los estudiantes, del cual este tema de investigación  se ha formado en la comunidad estudiantil con el fin de apreciar la herramienta más óptima de estudio en los estudiantes, Sin embargo en las últimas décadas ha tenido un incremento la herramienta digital como fuente de información , lo que ha generado como consecuencia un escaso manejo de las referencias fiscas. Es preciso levantar la información cualitativa respecto a la investigación, ya que en la actualidad existen preferencias sobre la utilidad de las herramientas de estudio que existen. Es por esto que resulta interesante el analizar estas herramientas y de este modo observar la viabilidad de las referencias digitales y físicas.



METODOLOGÍA

Conocer que herramienta de estudio que es más utilizada por la población estudiantil por medio de la metodología cuantitativa para obtener la información necesaria y traducirla en datos precisos de manera que estadísticamente nos permita demostrar la herramienta con mayor viabilidad ya que actualmente los jóvenes se adaptan a la manera de búsqueda más accesible para obtener la información correspondiente a cada tema según sea el interés. En términos generales en esta investigación se pretende indagar sobre que herramienta es más optima para el aprendizaje, ya que con la nueva tecnología existen en variedad de formas para obtener información y transformarla en conocimiento y trasmitirlo, sin embargo, se efectúa el análisis del estudio con los datos obtenidos dentro de la investigación de la cual se aplica a los jóvenes que se encuentran estudiando. Al abordar el tema de las herramientas de estudio, resulta necesario buscar por medio de entrevistas a los jóvenes, respuestas que nos permitan obtener resultados significativos para determinar  cuantitativamente que herramienta es más viable.


CONCLUSIONES

Las herramientas como fuentes de información son variantes según sea el tipo de gusto del estudiante, determinando si son físicas o digitales actúan como auxiliar en el proceso del aprendizaje, permitiendo que los estudiantes obtengan un mejor rendimiento escolar.  
Ruiz Rodríguez Yadir Alejandro, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara

MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS


MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS

Aguirre Guerrero Marisol, Universidad Autónoma de Guerrero. Ruiz Rodríguez Yadir Alejandro, Instituto Tecnológico Superior de Ciudad Acuña. Sollano Valdes Alicia, Universidad Autónoma de Guerrero. Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, en México ocho de cada 10 negocios quiebran antes de cumplir dos años, sin embargo, bajo el modelo de franquicia, hasta el 85% de quienes participan sobrevive más de cinco años, incluso cabe señalar, que hace 29 años, cerca del 90% de las franquicias establecidas en México eran extranjeras; hoy en día, el 85% son nacionales y el 15% de otros países. El modelo de franquicias ha sido apoyado por la Feria Internacional de Franquicias, donde invitan a los emprendedores a formar parte de las grandes cadenas restauranteras, el problema en esto es que los restaurantes típicos están siendo rezagados, debido a que éstos no cuentan con una estructura administrativa definida, un modelo que les permita ser competitivos, productivos y puedan posicionarse en el mercado frente a esos grandes competidores. El crecimiento de las Franquicias y grandes cadenas restauranteras ha producido que los restaurantes desestructurados denominados típicos se encuentren cerca de su desaparición definitiva, por lo cual ésta investigación ayuda a conocer las deficiencia adminisitrativa y poder así crear un modelo administrativo estratégico que permita fortalecer éste ámbito y hacer de éstos más competitivos.



METODOLOGÍA

Primero que todo, se llevó a cabo una actualización de datos estadísticos y conceptos generales, los cuales sirvieron como sustento de la investigación, tomando en cuenta fuentes confiables como páginas oficiales, revistas y libros, buscando datos recientes sobre las Franquicias en México y también sobre restaurantes típicos de Jalisco y Puerto Vallarta. Para llevar a cabo la investigación de mercado, se tomó como muestra a 2 restaurantes típicos de Puerto Vallarta, los cuales tienen por nombre River Café y El Andariego, con quienes se trabajó a lo largo de la estancia. Se aplicaron 50 encuestas en cada uno de los restaurantes dirigidas a los comensales y 3 encuestas para los directivos, con la finalidad de conocer tanto el punto de vista de los clientes como las habilidades administrativas con las que cuentan los gerentes.   Después de recaudar la información, se almacenó en una base de datos utilizando el programa estadístico IBM SPSS, el cual facilitó la agrupación de datos por categorías por medio de tablas y presentación a través de gráficas, posteriormente, se elaboró la interpretación de éstos y descripción de resultados obtenidos.


CONCLUSIONES

Gracias al buen trabajo en equipo, este análisis permitió conocer la calidad del servicio y de los productos que ofrece el restaurante, la higiene y además del posicionamiento del mismo en el mercado, además, se lograron obtener resultados claros acerca de la necesidad que tienen los restaurantes típicos de trabajar bajo un Modelo de Administración Estratégica adecuado para lograr hacer frente a las grandes cadenas de restaurantes que están teniendo una gran presencia en México.  Se encontró que los restaurantes típicos deben trabajar más en la divulgación en medios publicitarios digitales, debido que en la actualidad es muy útil el hacerse presente en redes sociales y páginas web para poder incrementar su número de clientes frecuentes y lograr una mayor satisfacción ofreciendo promociones atractivas para ellos. Por otro lado, se pudo conocer que los directivos se están ocupando en adquirir conocimientos básicos necesarios sobre administración, liderazgo, competitividad, satisfacción al cliente, lo cual es muy bueno, pero no solo deben ser adquiridos, sino que también deben ser aplicados para la obtención de una mejor posición en el mercado.  
Saavedra González David, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México

CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT


CHATBOTS (AGENTES CONVERSACIONALES): HAUNTER Y DENUNCIA BOT

Alemón Pérez Alejandro, Instituto Politécnico Nacional. de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. López Hernández Omar, Instituto Tecnológico de Estudios Superiores de Zamora. Saavedra González David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

La inteligencia artificial está cada vez más acercado hacia nuestra realidad, como parte de los próximos sistemas que interactúen con nuestro mundo. Como parte de estos sistemas se encuentran los chatbots, que son sistemas con los que podemos llevar una conversación e interactuar. No obstante, el desarrollo actual de los chatbots no llega a permitir una interacción más natural ya que no cuenta con el suficiente procesamiento del lenguaje natural con el usuario que necesita de ellos, además de que en el país se cuentan con pocos que cubran necesidades y las hagan más sencillas. Por lo que se pretende crear un sistema conversacional el cual sea inteligente y que ayude en ciertas tareas cotidianas donde pueda comunicarse de manera hablada para mejorar la manera en la que se relaciona el usuario y el sistema, para introducir cada vez más con tecnología de este tipo y sentar las bases para otros nuevos proyectos.



METODOLOGÍA

Para poder comenzar a trabajar con un chatbot los elementos de un chatbot, nos familiarizamos con el tema e interactuamos con chatbots ya creados para conocer su funcionamiento. Como primer punto de partida en programación trabajamos en realizar ejemplos de chatbots en servicio web, creando nuestra propia inteligencia usando el lenguaje AIML y fueron puestos a prueba por varios usuarios, la temática fue muy fácil para el usuario donde el objetivo principal era comprar frutas. Posteriormente realizamos ejemplos de chatbots usando chatvoice, decidimos programar varios temas de chatbot, después de una evaluación de 30 ideas iniciales solo elegimos dos los cuales se describirán a continuación: HAUNTER Haunter es un Chatbot diseñado en las personas que buscan una herramienta que les facilite conseguir un empleo, pero que aun tengan dudas de como realizar su currículum vitae, Haunter le realiza una serie de preguntas en cuanto a sus datos personales, historial académico, historial de empleos, aptitudes y habilidades técnicas. Cuando termina la conversación Haunter genera el documento dando un diseño del currículum donde el usuario solo tiene que introducir su fotografiá. Haunter también pregunta si desea realizar una simulación sobre una entrevista de trabajo, en esta simulación Haunter tiene una charla con el usuario como si fuera cuestionado por un reclutador, es por ello que fue diseñado para adquirir experiencia en cuanto realice una entrevista real. DenunciaBot La inseguridad cada vez es mas común para muchas personas en la ciudad de México y la mayoría de los robos realizados no tienen ninguna denuncia es por ello y estando consciente de ello se decidió realizar un chatbot para ayudar a las personas a realizar una denuncia. DenunciaBot a través de un pequeño cuestionario donde el usuario narra los hechos y dependiendo lo robado da recomendaciones para que el usuario este informado de lo que tiene que hacer en caso de un asalto o robo. Fueron desarrollados en el lenguaje de programación Python ya que es un lenguaje de programación procedural con una sintaxis muy limpia. Además tiene una gran cantidad de recursos que lo han convertido en uno de los lenguajes de programación predilecto entre programadores. También esta desarrollado YAML que contiene un formato para guardar objetos con estructura de árbol; nos familiarizamos con el lenguaje de programación conociendo primeramente aspectos generales como tipos de datos, declaración de variables, estructuras de datos, ejecución, formas de control, módulos, funciones, archivos de texto para lectura y escritura, excepciones y algunas funciones extras. Los chatbots estan funcionando en Linux y Anaconda como entorno de desarrollo en Windows.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos acerca del chatbot y chatvoice. Se cumplieron los objetivos propuestos al iniciar la estancia de investigación. Se administró correctamente el tiempo para su realización. El material de apoyo proporcionado por el profesor fueron de gran utilidad. Se aplicaron y reafirmaron los conocimientos adquiridos en nuestras respectivas universidades.
Saavedra Maiz Santos Javier, Instituto Politécnico Nacional
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

ESPECTRO-METRO ELECTROMAGNETICO CON RTOS


ESPECTRO-METRO ELECTROMAGNETICO CON RTOS

Saavedra Maiz Santos Javier, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Un espectrómetro es un dispositivo que sirve para analizar el espectro de frecuencias característicos de un movimiento ondulatorio. Particularmente los espectrómetros ópticos miden las propiedades de la luz en una determinada proporción del espectro magnético.   En el mercado actual los espectrómetros que pueden medir propiedades de materiales cuentan con precios que van desde los 18000.00 MXN, lo cual hace que un laboratorio tenga dificultades para equiparse con muchos de estos dispositivos.   Para que un espectrómetro funcione de forma adecuada debe estar monitoreando constantemente el sensor que capta la luz, conocer los tiempos y ejecutar tareas de análisis de información obtenida deben realizarse con precisión para tener latencias bajas. Es por ello que un sistema operativo de tiempo real es una buena opción.



METODOLOGÍA

El sistema operativo FreeRTOS  fue diseñado para ser utilizado en microcontroladores de baja potencia, además es gratis y posee soporte técnico, estas características fueron las principales para seleccionar este SO (Sistema Operativo) y ser implementado en una tarjeta de desarrollo ESP32, la cual posee sensores y periféricos orientados a tecnologías IoT (Internet of Things), además de potentes procesadores para su reducido tamaño.   Se implementaron y programaron dos tareas principales las cuales realizan las funciones de leer la información obtenida de un sensor TCD1404AP, filtrarla y posteriormente enviarlas por medio de puerto Serial o Wifi para que una tercera aplicación lea el contenido y lo muestre al usuario.   Se realizó también en placa Protoboard el circuito que sirve para que el sensor funcione correctamente. Ya que este es sensible a la estática, es necesario introducir componentes de protección, así como implementar el circuito recomendado en la hoja de datos del sensor.    Para que un sistema en tiempo real funcione de manera correcta es necesario conocer las latencias y tiempos de ejecución de cada una de las tareas programadas, para ello se utilizó un osciloscopio y pulsos en cada sección del código para conocer el tiempo de ejecución y al mismo tiempo asegurarse que fuera fijo.   Un programa en forma secuencial (realizado en lenguaje C) fue programado para verificar que el funcionamiento utilizando FreeRTOS es superior. Y así demostrar nuevamente la eficacia de introducir RTOS a ciertas aplicaciones.  


CONCLUSIONES

Durante la estancia de verano reforcé conocimientos adquiridos anteriormente en RTOS, adquirí conocimiento teórico acerca de los espectrómetros, desperté mi interés por utilizar más la tarjeta de desarrollo ESP32 y comenzar a investigar acerca de tecnologías IoT.   Durante el desarrollo del programa algunas secciones como la adquisición de la información y la optimización de código para hacerla más rápido fue un desafío que llevo gran parte de la estadía.   El proyecto se encuentra en fase inicial por lo que aún es necesario diseñar una interfaz en la cual analizar los datos obtenidos, o implementar otra tarea de análisis para que la información final sea desplegada a un usuario, ya sea en su computadora, celular o una pantalla incluida en el dispositivo. Agregar tareas de calibración y un ambiente controlado donde hacer pruebas con el sensor, serán actividades que se desarrollarán a futuro, esperando buenos resultados y un costo de producción final, por debajo de los actuales espectrómetros en el mercado.   Cabe destacar que un colega del Doctor, estuvo asesorando al mismo tiempo, el es el Dr. Gerardo Rodríguez Hernández
Salas Luque Vanya Sinai, Universidad Autónoma de Sinaloa
Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora

INTERFAZ GRáFICA PARA MODELADO DE EFICIENCIA EN CELDAS SOLARES.


INTERFAZ GRáFICA PARA MODELADO DE EFICIENCIA EN CELDAS SOLARES.

Salas Luque Vanya Sinai, Universidad Autónoma de Sinaloa. Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Introducción Existen varios programas que permiten simular la reflexión, refracción y transmisión de la luz, pero pocos que permiten además simular la interfaz eléctrica y eficiencia en una celda solar. Entre ellos tenemos AMP1, Pvsyst, PV-Sol, FV-Expert, GeoClock, PC-Solar, PVCompare, PVS, Solar Design Studio, SolarSize, Sombrero, SUNDI, Sunpath, Winsize, Ashling Los programas antes mencionados que son comerciales son caros. En este trabajo se realizará una comparativa entre nuestro modelo realizado por un estudiante de doctorado en Matlab, al cual se le desarrolló su interfaz, con el programa AMP1 el cual es muy reportado en publicaciones recientes [1,2]. AMP1 es desarrollado por la universidad del estado de Pennsylvania, por el profesor Stephen Fonash y varios de sus estudiantes. La comparación se hará con una versión 2018. La ventaja de nuestro programa es que es desarrollado completamente en la UNISON y que tenemos el código fuente para poderlo modificar. Además de tener las opciones de agregar bases de datos experimentales. Objetivo Realizar una interfaz gráfica al modelado de celdas solares mediante MatLab, buscando una mejor comprensión y variación de parámetros sobre la eficiencia óptica y eléctrica.



METODOLOGÍA

1.- Entender el problema. 2.- Investigar y comparar programas con interfaz similares. 3.- Analizar ventajas y desventajas. 4.- Desglosar a bloques e identificar entradas y salidas. 5.- Presentación de resultados


CONCLUSIONES

Realizamos un programa el cual facilita el cálculo, para el estudio o diseño de celdas solares. Ambos software nos muestran las gráficas de resultados, con la única diferencia que se tendrá un acceso más rápido, ya que no necesitara el uso de un Windows descontinuado. La ventaja de tener el código fuente es que nuestro programa puede ser modificado, a diferencia de los comerciales que se manejan como el distribuidor lo ha distribuido/compilado. Teniendo en cuenta que siempre se le pueden implementar mejoras, para hacerlo más eficiente. REFERENCIAS -[1] Conference Record of the Twenty-Ninth IEEE Photovoltaic Specialists Conference, 2002. -[2] M. N. Imamzai , M. A. Islam , M. J. Rashid , T. H. Chowdhury , Optimization Of Graded Bandgap Cd,Zn,Te Thin Film Solar Cells From Numerical Analysis, 2014. -R. A. Sabory-garcia, A. L. Leal-cruz, A. Vera-marquina,l. A. García-delgado, A. García -Juarez, A. G. Rojas-hernandez, Modeling And Analytical Study For Efficiency Improvement For Thin Film Solar Cells Based On CdS/PbS, CdS/CdTe, and CdS/CdSe, 2018.
Salas Medina Raúl Alfredo, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California

IMPLEMENTACIóN DE UN AMBIENTE VIRTUAL PARA UN GUANTE HáPTICO.


IMPLEMENTACIóN DE UN AMBIENTE VIRTUAL PARA UN GUANTE HáPTICO.

Díaz Campaña Akira David, Instituto Tecnológico de Culiacán. Salas Medina Raúl Alfredo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Personas que sufren algún accidente cerebrovascular tienen secuelas, las cuales limitan el movimiento de alguna extremidad total o parcialmente. A pesar de ello, la plasticidad  del cerebro humano es capaz de recobrar gran porcentaje de movilidad en el área afectada, lo cual puede ser logrado por medio de terapias de rehabilitación [1]. El principal problema en torno a los modelos de rehabilitación motora que existen actualmente es la inaccesibilidad que pueden presentar dichos modelos comerciales para las personas de nuestra sociedad, siendo las cuestiones económicas los principales impedimentos que niegan el acceso a ellas [2, 3]. Dichas terapias de rehabilitación deberán de ser inmersivas y fáciles de usar Además es altamente recomendable que los sistemas diseñados sean validados clínicamente. El objetivo de este proyecto de investigación es diseñar e implementar un ambiente virtual para un prototipo de un guante háptico de bajo costo  que pueda utilizarse en terapias de rehabilitación de la mano.



METODOLOGÍA

En el proyecto trabajamos con  un exoesqueleto mecánico de tipo guante, diseñado previamente por compañeros del Instituto Tecnológico de Oaxaca para  apoyar el movimiento de flexión y extensión de los dedos pulgar e índice. El prototipo incluye una placa Arduino, sensores de flexión, un acelerómetro para conocer la orientación del guante y micromotores para simular el efecto háptico. La primera parte del trabajo consistió en establecer la comunicación entre el Arduino y el ambiente de desarrollo Unity [4] a través del puerto serial. El diseño del ambiente virtual está compuesto por una mano virtual donde se representan los movimientos que el usuario realiza, así como un cubo y una pequeña caja con los que el usuario interactúa a través de un pequeño ejercicio donde se toma el cubo y se mueve de lugar para ser depositado en un agujero. La interfaz gráfica cuenta también con tres botones: los dos primeros se usan para medir los parámetros de cada usuario correspondientes a los límites de apertura de la mano, y hacer de el uso del ambiente virtual una experiencia personalizada; el último botón es un reset, que como su nombre lo indica, reinicia toda la escena una vez que el cubo es depositado en el agujero, para que el ejercicio sea realizado de nuevo cuantas veces sean necesarias. Dependiendo de las interacciones del usuario con el ambiente virtual, se generarán ciertos valores que serían enviados a través del puerto serial como datos de salida a la placa Arduino para poder obtener una respuesta física a replicar en el usuario y así realizar el efecto háptico deseado.


CONCLUSIONES

Al concluir la estancia se adquirieron conocimientos considerables en el manejo del motor gráfico utilizado, así como del lenguaje de programación en el que se trabajó, que fue C#. Dichos conocimientos nos permitieron lograr la creación de un ambiente virtual háptico funcional.  El ambiente virtual funciona a partir de diferentes conversiones que se realizan en el sistema para estandarizar los movimientos que se despliegan en la pantalla y que toma en cuenta las limitaciones del sistema mecánico. Como trabajo futuro, sugerimos rediseñar tanto el ambiente virtual como el  exoesqueleto, de tal forma que incorporen las sugerencias de los terapeutas y especialistas en rehabilitación.    Referencias: [1] B. H. Dobkin, Rehabilitation after stroke The New England Journal of Medicine, vol. 352, p. 1677-1684, April 2001. [2] A. Darekar, B. J. McFadyen, A. Lamontagne, and J. Fung, Efficacy of virtual reality-based intervention on balance and mobility disorders post-stroke: a scoping review, Journal of Neuro Engineering and Rehabilitation, vol. 12, No. 46,pp. 1-14, December 2015. [3] A. Turolla, M. Dam, L. Ventura, P. Tonin, M. Agostini, C. Zucconi, P. Kiper, A. Cagnin, and L. Piron, Virtual reality for the rehabilitation of the upper limb motor function after stroke: a prospective controlled trial, Journal of Neuro Engineering and Rehabilitation, vol. 10, No. 85, pp. 1-9, December 2013. [4]Unity User Manual (2019.1), 2019. [En linea] Disponible: https://docs.unity3d.com/es/530/Manual/UnityManual.html [Accedido: 29-jul-2019]      
Salazar Ordoñez Luis Fernando, Instituto Politécnico Nacional
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

IMPLEMENTACIóN DE ALGORITMOS PARA EL ANáLISIS DE LA CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN VOZ SOBRE EL PROTOCOLO DE INTERNET


IMPLEMENTACIóN DE ALGORITMOS PARA EL ANáLISIS DE LA CALIDAD DE SERVICIO (QOS) Y CALIDAD DE EXPERIENCIA (QOE) EN VOZ SOBRE EL PROTOCOLO DE INTERNET

Carbajal Charco Diana Fernanda, Instituto Politécnico Nacional. Salazar Ordoñez Luis Fernando, Instituto Politécnico Nacional. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

VoIP es la tecnología de telefonía más usada mundialmente. VoIP (Voz sobre protocolo de internet) son un conjunto de tecnologías que habilitan la comunicación de voz en tiempo real mediante el uso del protocolo IP, en redes por conmutación de paquetes, a comparación con la red PSTN, la cual usa una conmutación por circuitos para dar enlaces dedicados a la comunicación, VoIP busca un uso eficiente de recursos al compartir los enlaces, pero dando como consecuencias diferentes afecciones a la transmisión como lo son retardos y pérdidas de paquetes.Es importante lidiar con estos problemas con el fin de brindar una calidad de servicio (QoS) aceptable para el usuario. Varias de estas afecciones ya han sido estudiadas y modeladas para su control y prevención. Es por ello que el enfoque de la investigación es encontrar una proporción que relacione las métricas de QoS (Calidad de Servicio) y QoE (Calidad de Experiencia), para que los proveedores de servicio encuentren una solución adecuada de red para nuevos dispositivos



METODOLOGÍA

La metodología empleada para llevar a cabo la investigación fue una documental-experimental, en primera instancia leímos una serie de artículos relacionados con el fenómeno de transferencia de voz a través del protocolo de internet, para profundizar los conocimientos del tema. Posteriormente se comenzó a plasmar en un documento un informe en el que se describe los problemas de VoIP. Mediante de la realización de la documentación se resolvieron las dudas y logramos conocer lo suficiente el protocolo de comunicación a través de una red IP, además de los parámetros que influyen para brindar un buen servicio, así como aquellos que lo deterioran. Las métricas de la calidad de una llamada en VoIP se dividen en calidad de servicio (QoS) y calidad de experiencia (QoE). Las primeras están directamente relacionadas con los factores que afectan el audio tales como Jitter, perdida de paquetes o el retraso; mientras que las segundas están directamente relacionadas con la percepción subjetiva del usuario final. Se ha estudiado que el Jitter del tráfico VoIP guarda características de auto-similitud con dependencia estadística de largo y corto alcance (LRD y SRD respectivamente). Se ha demostrado (H. Toral & A. Khan 2011) la relación empírica entre el parámetro Hurst y la tasa de pérdida de paquetes, cuando H <0.5 (SRD) la pérdida de paquetes es PL <0.75%, lo que corresponde a una alta calidad de voz, es decir, 4.03 0.5 (LRD) el impacto negativo en la tasa de pérdida de paquetes y MOS es considerablemente mayor. Por lo tanto, la degradación de la calidad de voz se puede caracterizar en función del parámetro Hurst. Esto habilita el uso del valor H como una métrica de rendimiento de QoS de red. Además se propone la elaboración de un algoritmo de clasificación de la rafagosidad para la pérdida de paquetes en tráfico VoIP que considere los efectos percibidos distinguidos causados por diferentes incidentes de pérdida. Como lo son: incidentes aislados de pérdida incidentes de pérdida corta altamente frecuentes y poco frecuentes largos incidentes de pérdida que inducen interrupciones en las llamadas y entonces ser incorporado todo esto a modelos de evaluación de métricas objetivas como el Modelo E.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos en el área de voz sobre IP. Debido a que el tiempo de desarrollo de la investigación fue corto, los avances realizados resultaron ser en su mayoría teóricos, sin embargo el resultado final se realizará en conjunto con el investigador a pesar de que el plazo de la investigación llegara a su fin. Finalmente a través del tiempo invertido en la realización de esta estancia se han reforzado nuestras formaciones académicas y despertando el interés por la investigación.
Salazar Ruiz Miguel Ángel, Instituto Tecnológico de Tapachula
Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua

HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)


HIDRAULICA URBANA PARA OPTIMIZACIÓN DEL DISEÑO HIDRÁULICO DE SEDIMENTADOR DE ALTA TASA EN PLANTAS POTABILIZADORAS UTILIZANDO ANALISIS DE VARIANZA Y DINAMICA DE FLUIDOS COMPUTACIONAL(CFD)

Morales Vazquez Samuel, Instituto Tecnológico de Tapachula. Pérez Arcos. Miguel Alejandro, Instituto Tecnológico Superior de Los Ríos. Rodas Cabrera Carlos Valentin, Instituto Tecnológico de Tapachula. Salazar Ruiz Miguel Ángel, Instituto Tecnológico de Tapachula. Asesor: Dr. Velitchko Gueorguiev Tzatchkov , Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

Actualmente los diseños de los sedimentadores de alta tasa se realizan con base en los criterios y ecuaciones recomendados en la literatura y la metodología descrita por los diversos autores es muy similar entre sí y data de varios años atrás. Los actuales diseños de tanques sedimentadores están sobredimensionados, esto hace que existan perturbaciones en el comportamiento del fluido y la presencia de corrientes preferenciales o flujos anómalos, provocando corto-circuitos y zonas muertas En este trabajo se va a realizar una revisión y evaluación exhaustiva, sobre cómo se encuentran actualmente diseñados los tanques sedimentadores de alta tasa que integran al proceso de clarificación convencional durante la potabilización, para desarrollar una metodología de diseño y recomendaciones, que permitan mejorar las condiciones de operación de las plantas potabilizadoras.



METODOLOGÍA

  Se realizó un análisis crítico de los procedimientos de diseño existentes de sedimentadores de alta tasa que se utilizan en plantas potabilizadoras, basado en una revisión bibliográfica, experiencias e investigación propia. De la revisión bibliográfica se observó que los diseños de las unidades de sedimentación se fundamentan en criterios, lineamientos, ecuaciones algebraicas, diagramas y ejemplos prácticos, que los ingenieros han transmitido desde hace varios años y que no han tenido modificaciones importantes en fechas recientes.  La metodología de cálculo propuesta por Romero J. (2000), donde utiliza ecuaciones algebraicas para determinar la carga superficial, el número de Reynolds, la velocidad de sedimentación y tiempo de residencia; sin embargo, no considera el tipo de entrada del flujo ni la posición de salida, por lo tanto, el diseño no garantiza eficiencia hidráulica del tanque sedimentador.                                                                                                                                         


CONCLUSIONES

El presente trabajo pretende sentar las bases para analizar la influencia que ejerce, la carga superficial, el ancho, el largo, la profundidad, el tipo y posición de la entrada y salida del agua en el sedimentador de alta tasa, sobre el comportamiento hidráulico- presencia de zonas muertas y cortos circuitos, para mejorar la eficiencia de la sedimentación. El objetivo principal de usar un software de Dinámica de Fluidos Computacional (CFD), es para realizar una evaluación hidrodinámica de los diferentes escenarios del sedimentador de alta tasa y encontrar las variables de respuesta y con ellos determinar la presencia de zonas de corto-circuito, así como de zonas muertas.
Salgado Sandoval Orlando, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: M.C. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena (Colombia)

POTENCIAL ENERGÉTICO Y AMBIENTAL DEL BIOGÁS GENERADO A PARTIR DE DIFERENTES SUSTRATOS EN EL CENTRO ACUÍCOLA Y AGROINDUSTRIAL DE GAIRA


POTENCIAL ENERGÉTICO Y AMBIENTAL DEL BIOGÁS GENERADO A PARTIR DE DIFERENTES SUSTRATOS EN EL CENTRO ACUÍCOLA Y AGROINDUSTRIAL DE GAIRA

Salgado Sandoval Orlando, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: M.C. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La crisis ambiental que enfrenta el mundo es producto de la explotación de los recursos naturales para satisfacer la demanda del sistema económico enfocado hacia el consumo masivo, y este comportamiento se ve reflejado en el daño ambiental que afecta al planeta y se encuentra inmerso en un proceso de acumulación de riqueza. El tema del cambio climático, ha llegado a ser visto a nivel global como una cuestión importante, entendiendo que hay escasez de servicios ambientales, la energía y las materias primas son cada vez más escasas y no se está aportando en la construcción de un desarrollo sostenible. Se hace necesario cambiar el uso de combustibles fósiles y energía hidráulica a otras fuentes alternativas, que puedan generar energía sin provocar la destrucción del medio ambiente.



METODOLOGÍA

- En este proyecto se busca obtener biogás a través de residuos orgánicos que se encuentran en el Centro Acuícola y Agroindustrial de Gaira usando principalmente como materia orgánica las excretas de animales vacunos, caprinos y porcino en el cual también se piensa manejar aguas residuales. -Como base para establecer los parámetros de dimensionamiento del biodigestor y de cada uno de los elementos constitutivos, fue tomada la cantidad de estiércol y orina generada, tanto como aminales en engorda y en producción de leche  Debido a las diferencias en ciertos parámetros físico químicos en las excretas generadas por estos animales


CONCLUSIONES

Para el caso de los vacunos fue propuesto un biodigestor tipo Dranco, manteniendo una relación de 4L de agua y 1Kg de excreta, generando aproximadamente una producción diaria de biogás de 0.1672 m3/dia. con principios y mecanismos de automatización debido al volumen de la carga orgánica, tomando una temperatura ambiente de 32ºC y 1 mes a 45 días de producción.  Para el tratamiento de las excretas porcinas se dimensiona, 4L de agua y 1kg de excreta con una producción diaria de biogás de 0.154 m3/dia. La producción de biogás generada por el tratamiento de las excretas es suficiente para suplir las necesidades energéticas del proceso productivo. para obtener estos cálculos se contaron los animales que se encuentran en Centro Acuícola y Agroindustrial de Gaira obteniendo así la relación comparativa de cantidades para generación de nuestro biogás. Se realizo el cálculo tomando en cuanta que se cuenta con 29 animales de diferentes especies para la producción de excretas, pudimos obtener 0.1672 m3/dia de biogas y 5.016 m3/mes tomando en cuenta 4L de agua y 1kg de excreta, como podemos ver el  biogas es promover la producción sostenible de energía a pequeña escala a partir del biogás obtenido de residuos agrícolas y de la industria de alimentación y aguas residuales (residuos agro-alimentarios) para lograr la autosuficiencia energética en mundo.
Sánchez Aguilar Braulio, Instituto Tecnológico del Valle de Morelia
Asesor: M.C. Pablo Javier Maldonado Rivas, Universidad Autónoma de Campeche

IMPLEMENTACIóN DE MEDIDAS DE SEGURIDAD E HIGIENE EN UNA INSTITUCIóN DE EDUCACIóN SUPERIOR POR MEDIO DE LAS NOM DE LA STPS


IMPLEMENTACIóN DE MEDIDAS DE SEGURIDAD E HIGIENE EN UNA INSTITUCIóN DE EDUCACIóN SUPERIOR POR MEDIO DE LAS NOM DE LA STPS

Sánchez Aguilar Braulio, Instituto Tecnológico del Valle de Morelia. Asesor: M.C. Pablo Javier Maldonado Rivas, Universidad Autónoma de Campeche



PLANTEAMIENTO DEL PROBLEMA

En las Instituciones de Educación Superior (IES) se desarrollan actividades docentes, administrativas y de investigación en las que pueden estar presentes riesgos físicos, químicos, biológicos, ergonómicos y psicosociales. Estos pueden comprometer la salud y seguridad de las personas, así como deteriorar la infraestructura del centro de trabajo. En virtud de lo anterior, resulta apremiante implementar medidas de seguridad y salud en las IES entre las que destacan el diagnóstico y análisis de riesgos, programa de seguridad y salud, activar la comisión de seguridad e higiene, proporcionar el equipo de protección personal adecuado y capacitar al personal en la prevención de riesgos y atención de emergencias. Lo anterior, con la finalidad de realizar sus actividades bajo condiciones seguras, fortaleciendo con ello la cultura de prevención. En esta investigación se plantea implementar medidas de seguridad e higiene en una IES de una manera dinámica con la ayuda del Programa de Autogestión para la Seguridad y Salud en el Trabajo (PASST) y facilitar el inicio de labores de seguridad correspondientes para el centro de trabajo.



METODOLOGÍA

Afiliación al Programa de Autogestión para la Seguridad y Salud en el Trabajo (PASST) Para registrar el centro de trabajo al PASST es necesario recopilar información sobre el mismo, tal como: Registro Patronal RFC Nombre o razón social Actividad económica según el IMSS (Instituto Mexicano del Seguro Social) Actividad económica según SCIAN (Sistema de Clasificación Industrial de América del Norte) Al introducir la información solicitada se obtendrá un usuario y contraseña con lo que el centro de trabajo se encontrará afiliado y podrá seleccionar los servicios convenientes para la implementación de medidas de seguridad e higiene. Obtención de servicios a evaluar el centro de trabajo por medio del PASST Se seleccionaron los siguientes servicios: Asistente para la Identificación de las Normas Oficiales Mexicanas de Seguridad y Salud en el Trabajo Al iniciar el servicio Asistente para la Identificación de las Normas Oficiales Mexicanas de Seguridad y Salud en el Trabajo, este recopiló información del centro de trabajo por medio de preguntas directas-cerradas con la finalidad de analizar las NOM en materia de seguridad y salud aplicables a la IES y con ello obtener un listado por tipo de norma, punto normativo y sección de las mismas. Una vez que se conocieron los apartados de las NOM en los que se debía mejorar, se propusieron actividades para mejorar las cuestiones de seguridad e higiene, tales como: Generar un plan de trabajo anual a realizar por parte de la comisión de seguridad e higiene. Desarrollar los planos de rutas de evacuación, planos de los dispositivos de seguridad y riesgos de la IES. Capacitación de los trabajadores a través del portal PROCADIST. Crear formularios online para conocer el estado de los dispositivos de seguridad de las distintas áreas del centro de trabajo.


CONCLUSIONES

Se hizo una análisis de normatividad aplicable a una IES y se obtuvo que de un total de ocho normas de salud dos son aplicables, mientras que de las diez normas de seguridad le aplican ocho, por otro lado, en normas de organización le aplican cinco de siete normas. Tratándose aun de un centro de trabajo que realiza actividades docentes, administrativas e investigación, no lo exime de la presencia de riesgos físicos, químicos, biológicos, ergonómicos e infecciosos. REFERENCIAS Anaya, V. A. (2006). Diagnóstico de seguridad e higiene del trabajo listados de verificación basados en la normatividad mexicana. e-gnosis, 4(3), 1-15. Salgado, B. J. (2002). Higiene y seguridad industrial. Ciudad de México, México: Instituto Politécnico Nacional. Rojo, M. E., Alados. J. C., Gómez, G. E., L, J., y Pérez, J. L. (2014). Seguridad en el laboratorio de microbiología clínica. Enferm Infecc Microbiol Clin, x(x), xx-xx. doi: http://dx.doi.org/10.1016/j.eimc.2014.06.014 Secretaría del Trabajo y Previsión Social. (23 de Julio de 2019). Programa de Autogestión en Seguridad y Salud en el Trabajo. Obtenido de Portal de Servicios Electrónicos: http://passt.stps.gob.mx/Dgsst_PASST/Login/LoginCT.aspx  
Sanchez Agustin Karinthia, Universidad Veracruzana
Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional

FORMACIóN DE HIDRATOS DE METANO POR UN MéTODO A VOLUMEN CONSTANTE


FORMACIóN DE HIDRATOS DE METANO POR UN MéTODO A VOLUMEN CONSTANTE

Ramírez Parada José Alejandro, Universidad de Sonora. Sanchez Agustin Karinthia, Universidad Veracruzana. Asesor: Dr. Octavio Elizalde Solis, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Los hidratos de metano son sólidos cristalinos muy parecidos al hielo común, en los que moléculas de gas son encerradas dentro de una red sólida de agua sin que las moléculas de agua y gas formen un enlace químico. El que no exista un enlace propicia que las moléculas de gas se encuentren libres dentro de las jaulas de hidratos. Los hidratos son producidos por los puentes de hidrógeno formados por las moléculas de agua, que, debido a las moléculas de gas, se alinean en una sola orientación formando así los hidratos. Las moléculas de agua son llamadas anfitrión, mientras las moléculas de gas son llamadas huésped. Los sólidos cristalinos formados por los hidratos pueden tener distintas estructuras cristalinas, pueden formar redes de tipo I (sI), tipo II (sII) y tipo H (sH), todas con una disposición espacial de las moléculas de agua en particular. Las condiciones que favorecen la formación de hidratos son, altas presiones, bajas temperaturas, cantidad suficiente de agua, gas de bajo peso molecular y tiempo, si alguno de estos factores no está presente difícilmente se formarán los hidratos. La investigación de los hidratos de metano, tiene diferentes vértices, encontrar una forma de explotar este recurso no convencional reduciendo el impacto ambiental al máximo, ya que la explotación de este recurso representa un riesgo geológico,  así mismo el estudio sobre la formación de los hidratos para almacenar cantidades de CO2 y con ello mitigar el efecto invernadero. También existen estudios que se centran en la inhibición de la formación de hidratos, ya que en la industria del petroleo pueden llegar a ser problemáticos. Los hidratos de metano han llamado la atención de la comunidad científica debido a su alto poder de almacenamiento de metano, ya que 1 m³ puede llegar a contener 164 m³ de gas natural, considerando también que las reservas de los hidratos están distribuidas de una forma más uniforme en la tierra, y superan el volumen estimado del hidrocarburo convencional a nivel mundial. Durante este trabajo de investigación se busca la formación de hidratos de metano mediante la experimentación con un método a volumen constante a 10  MPa y variando la temperatura de formación.



METODOLOGÍA

El arreglo experimental está compuesto por los siguientes elementos: Celda de equilibrio marca Parr, fabricada de acero inoxidable con capacidad de 600 cm³ y capaz de soportar presiones hasta 20 MPa y temperaturas hasta 498 K. Baño recirculador térmico con control de temperatura, marca PolyScience modelo PD07R-20, que trabaja en un intervalo de temperatura de 243.15 a 473.15 K con una estabilidad de 0.005 K Manómetro digital Crystal XP2i, para lecturas de presión hasta 69 MPa. Sonda de platino con resistencia de platino de 100 Ohm/0°C. Tanque de metano 99.99% Indicador de temperatura ASL CTR2000, con rango de temperaturas de -200 °C a 962 °C. Ordenador con interfaz de procesador de datos Phyton y Gnuplot. Válvula para la alimentación a la celda para una presión máxima de 15000 psi. Válvula de paso, para una presión máxima de 103.4 MPa. La celda de equilibrio está formada por una celda ciega de equilibrio en donde se forman los hidratos, y de una brida, la cual cuenta con un termopozo donde se acopla el termómetro de platino, el manómetro, y la válvula por donde se introduce el gas. Para cerrar la celda se usa un sello de teflón entre la celda y la brida. Metodología experimental Se lavó la celda de equilibrio con metanol y se seca completamente para no tener ningún contaminante dentro de la celda. Se vació dentro de la celda 350 ml de agua desionizada. Luego se colocó la brida de la celda y se ajustó perfectamente los tornillos para asegurar la hermeticidad del experimento. Se instaló la celda dentro del recirculador térmico. Utilizando etilenglicol como refrigerante se vació dentro del recirculador hasta que se cubra completamente la celda. Se conectó el manómetro y el indicador de temperatura a la PC, se disminuyó la temperatura de la celda hasta 2.5 °C utilizando el recirculador. Se encendió la PC, para luego iniciar la interfaz del programa Python y Gnuplot que mostró los gráficos de la presión y temperatura en tiempo real dentro de la celda. Se conectó el tanque de metano para alimentar el reactor, y se introdujo gas metano hasta lograr una presión de 100 bar en el reactor. El sistema de recopilación de datos fue encendido y permaneció de esta manera hasta que la presión del sistema se estabilizó. Se esperó a que el sistema lograra una estabilidad en su presión debido a que esto significaría que se ha formado la cantidad máxima de hidratos posible.   El experimento realizado arrojó los gráficos P vs t, P vs T y T vs t. Este proceso fue realizado por triplicado para corroborar que los datos obtenidos corresponden a la realidad. Posteriormente, se realizó el mismo experimento cambiando la temperatura a 3°C. De igual manera, fue realizado por triplicado y se obtuvieron los gráficos correspondientes a la experimentación. A partir de los dos experimentos realizados, se compararon los 6 gráficos obtenidos para determinar a qué condiciones se mejora la formación de los hidratos y por lo tanto a qué temperatura es factible al almacenar gas dentro de hidratos.


CONCLUSIONES

Tras realizar los seis experimentos fue posible observar en los gráficos que la temperatura en todos los casos en un inicio disminuyó rápidamente para posteriormente aumentar de una manera mucho más lenta. Esto nos hace pensar que los hidratos fueron formados, ya que este proceso corresponde a un proceso exotérmico. En el caso de los gráficos de presión es posible observar desde un inicio una caída de la presión. Esto ocurre hasta que en un punto determinado esta deja de disminuir y se mantiene constante, por lo tanto, no continua la formación de hidratos. Sin embargo, es posible observar que la presión en los experimentos de 3°C disminuyó en una mayor cantidad que en los experimentos realizados a 2.5°C. Por lo cual, podemos determinar que es factible almacenar metano a partir de hidratos a 3°C, debido a que posee un mayor gasto.
Sánchez Angeles Alexis, Universidad de Guanajuato
Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato

OPTIMIZACIóN DE LA EFICIENCIA ENERGéTICA DE UNA CELDA DE COMBUSTIBLE


OPTIMIZACIóN DE LA EFICIENCIA ENERGéTICA DE UNA CELDA DE COMBUSTIBLE

Sánchez Angeles Alexis, Universidad de Guanajuato. Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Las celdas de combustible proporcionan un mecanismo eficiente y limpio para la conversión de energía. Las celdas de combustible tipo PEM (por sus siglas en inglés Proton Membrane Exchange) son los dispositivos más prometedores para las aplicaciones de transporte debido a su alta densidad de potencia, alta eficiencia, el producto de reacción es únicamente agua, funcionan bajo condiciones de operación fácilmente reproducibles. Sin embargo, las PEMFC’s son aún demasiado caras para ser competitivas o económicamente viables. Diversas investigaciones reportan eficiencias bajas debido a una mala distribución de los flujos de hidrógeno y oxígeno. El objetivo de este proyecto es identificar los principales parámetros que afectan la eficiencia de una celda de combustible. Además, se hace uso de geometrías novedosas para obtener nuevas formas de distribución de flujo en las placas bipolares.



METODOLOGÍA

Se consultó el estado del arte para recopilar información de los parámetros de operación y diseño de una celda de combustible tipo PEM. Este dispositivo está conformado por los siguientes elementos: placas sujetadoras, colectores de corriente, placas bipolares y conectores . Estos componentes fueron construidos con el uso de software de diseño asistido por computadora (CAD), software de maquinado asistido por computadora (CAM) y una máquina CNC. Para llevar a cabo los diferentes experimentos es de vital importancia asegurarse que las condiciones de operación y los materiales en cada prueba sean constantes. Los ensayos se deben repetir para asegurar que los resultados experimentales sean consistentes y replicables. Las condiciones de operación se resumen de manera general en los siguientes puntos: Reactivo en el ánodo: Hidrógeno (H2) Reactivo en el cátodo: Oxígeno (O2) Características de operación de los reactivos: Temperatura: 70 °C Humedad: 55% Presión en el ánodo: 0.141 psi Presión en el cátodo: 0.177 psi Geometría de los Canales Difusivos: Para el ánodo se utilizó una geometría no convencional llamada D2D, y para el cátodo una geometría tipo serpentín. Una parte muy importante en la realización de los experimentos es la preparación de la membrana, en la cual debe llevarse a cabo un proceso especial de activación que permitirá que la reacción se efectué correctamente. Si la membrana no se activa correctamente o si no se tienen los cuidados pertinentes, el experimento puede terminar siendo incorrecto. Después, se procedió a montar el prototipo en un banco de experimentos. Enseguida, se realizaron pruebas para medir el voltaje y corriente de la celda de combustible con cada una de las diferentes geometrías propuestas. Finalmente, se realizó una comparación entre los resultados obtenidos con las nuevas geometrías y una geometría de uso comercial.


CONCLUSIONES

Se observó una serie de factores que impactan de manera directa en el desempeño de la celda de combustible al momento que está en operación. Estos factores se identificaron porque se modificaron los parámetros de operación y se observaron cambios en el voltaje y en la densidad de corriente que se obtiene. La temperatura de operación de la celda no influye demasiado para que exista un gran cambio en el potencial de voltaje. Sin embargo, cuando se trabajó con los reactivos a temperatura ambiente, el potencial eléctrico bajo alrededor de 10 a 20 mV en promedio. El flujo másico y la presión de operación de la celda de combustible también afectan su funcionamiento. Se observó que cuando se aumentaban dichos parámetros, la celda de combustible mostraba un mejor funcionamiento en cuanto al potencial entregado. Sin embargo, si no se ajustan adecuadamente dichos parámetros junto con el torque de los tornillos del ensamble, se corre el peligro de que la membrana pueda romperse y que deje funcionar. Si la membrana no está en buen estado, el potencial eléctrico obtenido varía significativamente. Cuando se utilizó una membrana nueva, los resultados fueron visiblemente mejores en comparación con membranas usadas previamente. Finalmente, el tipo de geometría de los canales de distribución de flujo tiene un papel de vital importancia cuando se tiene en operación la celda de combustible. Al comparar las curvas de polarización de las placas serpentín-serpentín vs serpentín-no convencional, los potenciales entregados fueron diferentes. Para las placas serpentín-serpentín, el voltaje varió entre los 500 y 1000 mV. Mientras que para serpentín-no convencional, el voltaje fue muy estable y varió entre los 730 y 750 mV. Sin embargo, una característica importante fue que la densidad de potencia aumentó de manera considerable al llegar a los 2820 mW/cm2, 300 mW/cm2 más que la serpentín-serpentín.
Sánchez Barraza Arens, Instituto Tecnológico de Pachuca
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

MOVILIDAD INTELIGENTE Y FLUJO DE USUARIOS FINALES EN LA ESTACIÓN NARANJAL DEL METROPOLITANO, LIMA-PERÚ 2019


MOVILIDAD INTELIGENTE Y FLUJO DE USUARIOS FINALES EN LA ESTACIÓN NARANJAL DEL METROPOLITANO, LIMA-PERÚ 2019

Sánchez Barraza Arens, Instituto Tecnológico de Pachuca. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Lima - Perú, el sistema de transporte público Metropolitano se ha convertido en el principal medio de traslado masivo de la ciudad, siendo una estimación actual de 650 mil personas al día que se movilizan. El Metropolitano, desde su planeación (2010) se diseñó para movilizar 750 mil usuarios al día, pero ocho (08) años de operación la capacidad llego al límite. (El Comercio, diario oficial del Perú, 2018). Esto, se ve reflejado en el contaste congestionamiento de las estaciones o paradas de los buses que tiene en todo su desarrollo el sistema de transporte, siendo la estación EL Naranjal (terminal norte) el más afectado, debido a la mayor afluencia de usuarios finales que llegan desde distintas partes del Cono Norte de la Ciudad de Lima, con cifras de hasta 20 mil usuarios finales en horas punta (7:00 am - 9:00 am / 7:00 pm - 10:00 pm) circulando, siendo que el diseño de la estación considero un aforo máximo de 2450 personas. A diario, se forman largas filas dentro y fuera de las estaciones del metropolitano, y el tiempo de espera para abordar alguno de los buses excede los 45 min, incluso en horas rutinarias. Así mismo, solo recargar saldo de la tarjeta supone un excedente de tiempo perdido, debido a la deficiente interfaz de usuario que presentan las máquinas expendedoras, lo que conlleva, que un usuario final pierda en total de 2 a 3 horas promedio al día, significando un costo diario de S/23.47 nuevos soles (970 % del valor del pasaje). Otro costo asociado intangible, pero no menos sensible es el de la energía desperdiciada y transformada en emisión de gases, mal humor y estrés de los usuarios finales. Por otra parte, el nivel de seguridad que ofrece a sus usuarios finales del servicio de transporte ha despertado diversas interrogantes, esto a consecuencia de los constantes robos menores (celulares, billeteras u otros objetos personales) en estaciones con bastante afluencia de público (estación El Naranjal), ya que los delincuentes suelen aprovechar la confusión y el desorden que se genera; del mismo modo, es el caso de los usuarios vulnerables (niños, adultos mayores y discapacitados) donde su orientación se ve limitada a una escases de señalética y de zonas seguras donde puedan ser auxiliados.



METODOLOGÍA

Para esta investigación se desarrolló un enfoque causal (causa/efecto) no experimental, descriptivo y cuantitativo. Esto con la finalidad de tener un contexto definido de la situación que se desarrolla en la estación El Naranjal, y determinar una propuesta de mejora a partir de los resultados obtenidos mediante la observación de campo y la implementación de encuestas vía online como instrumentos de medición, donde las variables (flujo de personas, tiempo de espera para subir al bus y tiempo de recarga de saldo), se determinaron con base en datos recolectados mediante observaciones previas y soportes digitales de difusión. Durante el desarrollo de la investigación se observó en el lapso de una semana a distintos horarios del día, el comportamiento interno y externo de la estación El Naranjal, donde se registraron datos de tiempo, vaciados en una tabla donde se contenía intervalos de distintos horarios en el transcurso de un día, el flujo de personas por hora, tiempo promedio que tarda un grupo de 3 personas formadas en recargar saldo (T/GR) y tiempo promedio de espera que tarda una persona en subir al bus desde que empieza a hacer fila (TEAB). Por otra parte, dichas encuestas online se realizaron a un total de quinientas (500) personas de la comunidad universitaria Cesar Vallejo (Estudiantes, docentes, administrativos, entre otros) que utilizan la estación El Naranjal. Se formulo un cuestionario de 22 preguntas de opción múltiple, donde se abordaron temas como, tiempos de espera, horarios de uso, frecuencia de uso, recarga de saldo entre otros. Tras el análisis e interpretación de los datos, permitió el desarrollo del prototipo digital ID con un diseño de electrónica digital a través SolidWorks® de fácil acceso y movilidad en la estación con una solución basada en criptografía de hardware completo en un solo paquete. Tras la validación del modelo digital  por los usuarios finales mediante la APP se realizara una  producción masiva.


CONCLUSIONES

Se desarrolla un dispositivo ID (Identificador Personal), que influirá significativamente en el flujo de usuarios finales y vulnerables de la estación Naranjal del Metropolitano, mediante un Sistema de Radio Frecuencia de identificación dinamizando el ingreso a la estación. El ID creará patrones de rutas frecuentes, lo que permitirá atender la demanda con antelación, viéndose reflejado en una reducción de tiempo de espera para bordar el bus de más, lo que significa un impacto 17 % en el aumento de los ingresos de los usuarios El ID ayudara a mejorar el proceso de recarga de saldo, evitando también que se generan largar filas, esto se lograra a través de un sistema de pago inteligente donde el usuario podrá realizar la recarga mediante una aplicación móvil que se encontrara vinculada con el ID o en el sitio web de la aplicación. Lo que reducirá en un 100% el congestionamiento de usuarios por recarga de saldo. El ID permitirá al usuario tener una correcta orientación dentro de las estaciones y buses, logrando tener una ubicación en los andenes de ascenso y evitando que puedan pasar de estación de destino. El ID contara con un sistema de voz integrado permitiendo a las personas vulnerables (niños, adulto mayor, discapacitados) manipular el dispositivo de manera eficiente (asistente digital) para una orientación y otros usos que se requiera (pago inteligente).    El ID también contará con una aplicación móvil, donde el usuario podrá vincular el dispositivo con el celular mediante bluetooth, y conocer el saldo actual con el que cuenta, tiempo ahorrado gracias al uso del dispositivo, afluencia de usuarios en las estaciones, creando un entorno eficiente y amigable con los usuarios.
Sánchez Cedeño Carlos Daniel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL DE INUNDACIONES EN LA ZONA DEL DREN "ARROYO DE TIERRAS" EN LA CIUDAD DE MORELIA, MICHOACÁN.


CONTROL DE INUNDACIONES EN LA ZONA DEL DREN "ARROYO DE TIERRAS" EN LA CIUDAD DE MORELIA, MICHOACÁN.

Sánchez Cedeño Carlos Daniel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Morelia se presentan constantes inundaciones en temporada de lluvias debido a la acumulación de volumen de agua que escurre y provoca el desbordamiento de ríos y drenes, provocando daños a las estructuras aledañas al cauce, tales como viviendas, calles, redes de comunicación telefónica, líneas de conducción de energía eléctrica, entre otras. La presente investigación se realiza debido a que la creación de bordos y represas es necesaria para evitar futuros daños a la zona urbana de Morelia.  



METODOLOGÍA

Se realizó la propuesta de construir 23 represas y bordos alrededor de la mancha urbana de la ciudad, en lugares donde se puede embalsar cierto volumen de agua que en algunos casos podría ser aprovechado para que las localidades cercanas tengan la posibilidad de regar sus cultivos. Particularmente, se enfocó en mitigar las inundaciones que se provocan por el desbordamiento del dren Arroyo de Tierras que se ubica en la zona sur de la ciudad de Morelia. Se realizó un estudio hidrológico de la zona con el software ArcGIS 10.5 para conocer las precipitaciones máximas de las estaciones meteorológicas que se encuentran en el área de análisis, así como parámetros de cada una de las cuencas que se generan, tales como área, coeficiente N de escurrimiento, parámetro K, entre otros, que fueron necesarios para elaborar las curvas IDT (intensidad-duración-periodo de retorno). Con ayuda del software Hidroesta2 se obtuvieron las intensidades máximas de precipitación considerando diferentes periodos de retorno y a distintas duraciones con el criterio de Frederich Bell. Asimismo, se obtuvieron las curvas de área-capacidad para las presas diseñadas calculando en volumen que topográficamente es capaz de almacenar el embalse. Posteriormente, con el software Hec-HMS se obtuvieron los hidrogramas para el dren que se analizó, con el objetivo de conocer los gastos de entrada y de salida y en función a ello realizar el diseño de la cortina de los bordos o represas. Finalmente, se realizó una modelación a condiciones naturales con el software Hec-Ras, y se obtuvo un mapa de inundaciones. Se eligió alguno de los sitios propuestos para colocar la represa. Se volvió a realizar la modelación posterior a la colocación de la represa y se analizaron los resultados.


CONCLUSIONES

Se concluye que una solución para la mitigación de los daños provocados por las inundaciones constantes en la ciudad, es el almacenamiento del volumen excedente de agua que, para el caso particular de la ciudad de Morelia se puede realizar con la construcción de represas que puedan atenuar la intensidad del escurrimiento de las avenidas. Este dren recibe determinados caudales de cinco cuencas distintas, provocando que tenga un gasto considerable y tienda a desbordarse a condiciones naturales. Al realizar el diseño de la presa para controlar el tránsito de la avenida del dren Arroyo de Tierras se espera que el dren ya no se desborde, y con ello atenuar considerablemente las inundaciones en la zona sur de Morelia.
Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN


EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN

Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic. Ceras Flores Norma Paulina, Universidad de Guadalajara. Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic. Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic. Valdez López Marco Augusto, Instituto Tecnológico de Tepic. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fitorremediación es una tecnología que utiliza plantas, hongos y semillas para la remediación de agua y suelo contaminados. Consiste en la remoción, transferencia, estabilización y/o degradación y neutralización de compuestos orgánicos, inorgánicos y radioactivos. Es una tecnología de bajo costo, posee un impacto regenerativo en áreas donde se aplica y su capacidad extractiva se mantiene debido al crecimiento vegetal. Las emisiones de dióxido de azufre y óxidos de nitrógeno, que se emiten a la atmósfera mediante fuentes naturales y antropogénicas, originan la lluvia ácida (compuesta por ácido sulfúrico y nítrico), ésta cambia la composición del suelo y desplaza los metales pesados hacia las aguas subterráneas, aumentando su toxicidad e imposibilitando su consumo. Además, los ácidos disminuyen el PH de los acuíferos dulces lo que afecta al desarrollo de la fauna acuática. Según el Registro de Emisiones y Transferencia de Contaminantes (RETC) que se aplica en 17 países, México es el primer lugar (de los países en vías de desarrollo) en la utilización de ácido sulfúrico.  Otra gran problemática actual del ácido sulfúrico en nuestro paíes es el derrame de 3 mil litros de éste el pasado 9 de julio del 2019 en el Mar de Córtés, en la bahía de Guaymas.  Varios compuestos derivados del azufre son nocivos en el medio ambiente, tales como el sulfuro de hidrógeno, disulfuro de carbono o dióxido de azufre Durante el verano de investigación se estudian las capacidades de biorremediación de Crassula ovata en un sitio contaminado por ácido sulfúrico y una Zinnia elegante en un sitio contaminado por azufre.  



METODOLOGÍA

- Preparación de la tierra  Se usó tierra del lago de la BUAP, donde nuestra base fue 500 gramos para cada bolsa siendo las proporciones de esta 91% de tierra y 9% de aserrín, esta relación se usó para las plantas zinnia elegante, las cuales necesitaron de 17 bolsas en total, que contenían 2 blancos y 3 bolsas por cada concentración de contaminante usado los cuales fueron 5. Para la planta suculenta prepararon sólo 5 bolsas con una relación de 95 % tierra y 5% aserrín. - Contaminación de la tierra Se utilizó como contaminante para las plantas zinnia el azufre en forma sólida, teniendo diferentes concentraciones que variaban de 1 a 5%, teniendo cada una un triplicado. Después de realizada las concentraciones se procedió a verter cada una de las concentraciones a una bolsa distinta, dejando reposar una semana y utilizando métodos mecánicos para la agitación y mezclado de la tierra con el contaminante. Para las plantas suculentas se usó como contaminante ácido sulfurico, el cual también se realizaron diluciones que iban de 1 a 5%, cada una agregada a una bolsa distinta, dejando reposar un día y de igual manera usando métodos mécanicos para la agitación y mezclado del contaminante con la tierra. - Determinación de la estratigrafía de la tierra Para determinar el tipo de suelo usado, se pesaron 200 gramos de tierra en una balanza granataria y estos fueron agregados a una probeta de 1 litro, la cual fue aforada con agua por lo que provocó la sedimentación y separación de esta. Como resultado obtuvimos que nuestro suelo es de tipo arenoso y gravilloso. - Selección y germinación de las semillas Se utilizaron dos tipos de plantas, la primera fue conseguida en un supermercado local, la planta es llamada zinnia elegante conseguida en forma de semillas, con un tiempo de germinación corto. Se seleccionó otra planta llamada suculenta por ser típica de la región y tener muy pocos requerimientos para crecer, la cual fue conseguida en un vivero localizado en la ciudad de puebla. Para la germinación de las zinnias se utilizó algodón y agua, dejandolas germinar durante aproximadamente 1 semana en la cual adquirieron una altura de 5 cm. - Plantación en la tierra contaminada Se realizó un proceso de trasplante común, simplemente cubriendo las raíces de las plantas con la tierra previamente contaminada. - Mediciones de pH, densidad de la tierra y humedad Se realizaron mediciones de los parámetros de la tierra antes y después de contaminarla. Además de que se realizan dos mediciones de los parámetros cada semana. Los equipos usados son potenciometro para medir el pH, y la humedad esrealizada con una balanza analítica y una parrilla, dónde se calcula el % de humedad restando el peso húmedo menos el peso seco.  


CONCLUSIONES

- Elaboración de las curvas de calibración. - Determinación de la remoción de los contaminantes. - Analizar las capacidades de biorremediación de Crassula ovata y Zinnia elegante con el respecto al contaminante empleado.  
Sánchez Corona Omar, Instituto Tecnológico de Cuautla
Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México

CONTORNOS ACTIVOS POR FILTROS


CONTORNOS ACTIVOS POR FILTROS

Sánchez Corona Omar, Instituto Tecnológico de Cuautla. Asesor: Dr. Jorge Luis Perez Gonzalez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las imágenes medicas tienen diferentes métodos para ser obtenidos, que van desde la radiografía, ultrasonido, ecografía, etc., al igual que su procesamiento, su utilidad es de gran ayuda en los procesos clínicos que buscan revelar, diagnosticar o examinar enfermedades como el cáncer entre otras. Actualmente no existe un método que procese las imágenes en tiempo real y que logre sobreponer dos imágenes, una estudiada previamente por los médicos y otra que es obtenida en tiempo real. En la etapa gestacional sería de gran utilidad el predecir anomalías como podría el síndrome de Down a una temprana edad, sin embargo, no existe la técnica de procesamiento de imágenes que logre tal predicción pues requiere una programación de alto nivel.



METODOLOGÍA

Se realizó la lectura de artículos relacionados con el tema, se nos impartió un curso de visión por computadora, valoración y pruebas de imágenes médicas, programación de nuevos algoritmos, talleres relacionados con árboles de decisión en Matlab al igual que el Dr. Jorge Luis Pérez Gonzales nos impartió conferencias de imágenes médicas. Se utilizó una laptop Lenovo con un procesador Intel® Core™ i3-7100U CPU @2.40GHz, con un RAM de 8 GB, con el sistema operativo de 64 bits. Se programó contornos activos en el software de Matlab dando un enfoque en la utilización de filtros como filtro gaussiano, filtro Laplace, filtro anisotropic, filtro de entropía, etc.., para una mejor segmentación del Snake,  los cuales son aplicados a un video clínico fotograma por fotograma, donde el usuario (medico) realiza una segmentación inicial con el mouse a la región de interés, el código Snake realiza una segmentación final por cada filtro, el código contiene funciones que fueron escritas por la Universidad D.Kroon de Twente (julio de 2010) y otras funciones que se desarrollaron para la utilización de los filtros y el procesamiento óptimo de los fotogramas del video con su visualización. Este código será combinado con otros cuatro más, que fueron desarrollados por los demás compañeros de verano que son: Métricas de distancia entre nubes de puntos aplicado a imágenes médicas en 2D y 3D. Extracción de puntos salientes mediante algoritmos de visión por computadora. Contornos activos probabilísticos para segmentación de imágenes médicas. Contornos activos con ondas senoidal.


CONCLUSIONES

Durante la estancia de verano se adquirió conocimientos en el procesamiento de imágenes médicas por medio del software Matlab. Se aprendió la importancia de las imágenes médicas para el estudio y diagnóstico de enfermedades. Se encontraron variaciones en los pixeles con la utilización de dos filtros de los 14 utilizados. Se espera que la combinación de los cinco códigos realizados sirva para la utilización de predecir anomalías en la etapa gestacional, sobre poner imágenes médicas donde se puedan encontrar diferencias de una imagen con otra para cirugías, facilitación para los médicos en la evaluación diagnostica y reducir el tiempo en las evaluaciones diagnósticas.
Sánchez Cortes José Arley, Instituto Politécnico Nacional
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO E IMPLEMENTACIóN DE UN ALGORITMO DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE MARCAS EN FORMATOS DE CONTROL DE CALIDAD


DISEñO E IMPLEMENTACIóN DE UN ALGORITMO DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE MARCAS EN FORMATOS DE CONTROL DE CALIDAD

Sánchez Cortes José Arley, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

En las plantas industriales existen diferentes procesos de producción aplicados al producto final o intermedio, por lo cual es necesario contar con una base de datos que facilite la identificación del número de pieza  que se está elaborando, las posibles fallas detectadas, etc. Para obtener esta información, las empresas utilizan formatos en papel que los operadores tienden a llenar a mano,  pero, debido a que los operadores son descuidados con estas hojas ,al finalizar el proceso de producción las hojas tienden a presentar daños como manchas, arrugas y rupturas; estas hojas se almacenan en gabinetes que representan el uso de un espacio físico dentro de la distribución de planta de la empresa,  lo cual se puede traducir en un consumo de recursos e incluso con el paso del tiempo estos elementos tienden a degradarse, perdiendo así información valiosa para la empresa. Con estos problemas existentes,  se planteó mantener el uso de hojas de papel para llenar los datos, pero, al finalizar se recolecten las hojas y se digitalicen para que posteriormente sea posible obtener su información a través visión artificial y almacenarla en una base de datos dentro de un equipo de cómputo.



METODOLOGÍA

El proyecto tiene diferentes módulos para la detección de información, esto debido a que la hoja contiene diferentes campos de información. Para este caso se hizo énfasis en el módulo detector del número de serie, principalmente en la separación de los números y los rectángulos marcados a mano por el operador. Para esto  se utilizó el lenguaje de programación Python, este lenguaje se utilizó debido a que es de licencia libre, además, existe una gran variedad de paqueterías e información que permite realizar las tareas de forma sencilla. A través  de treinta y cuatro muestras de hojas de datos se hace un corte aproximado para la sección de la esquina superior derecha, a esta sección se hace un tratamiento con filtros para obtener una imagen a blanco y negro sin manchas propias de las arrugas existentes. Para perfeccionar el recorte en el eje x se implementó la herramienta Pytesseract de Google, la cual aplica OCR (Optical Character Recognition) para detectar algunas palabras del formato, por ejemplo RET, Reloj, OK y LCK. Una vez detectadas dichas palabras, se encierran en  un rectángulo para obtener el ancho máximo de la palabra, posteriormente se aplica un barrido de pixeles hasta detectar la zona blanca entre las palabras ya mencionadas y los números del formato, una vez detectada dicha zona se hace otro barrido desde la zona blanca hasta el primer pixel negro encontrado,  finalmente se realizó un recorte desde el pixel negro hasta el final de la esquina de la hoja. Una vez realizado el recorte en x, se procede a hacer el recorte sobre el eje y. De forma similar se aplica un barrido desde la parte superior del recorte hasta encontrar el primer pixel negro, posteriormente se realiza otro barrido hasta detectar la zona blanca entre la palabra SERIE y los números llenados a mano por el operador. Con esto, se vuelve a realizar un barrido hasta detectar un pixel negro, finalmente se hace otro barrido para eliminar los números de serie escritos por el operador hasta la zona blanca entre los recuadros y el numero escrito a mano, en dicho punto se hace el recorte sobre el eje y. Ya con el filtrado de los números y los recuadros  de la hoja de datos, se procedió a recortar la imagen a un tercio de su ancho, lo cual facilita el uso de algunos métodos de la librería de OpenCV, particularmente el método que permite dibujar los contornos de una imagen. Para esto, a la  nueva imagen que contiene los números y una porción mínima de los recuadros se le aplica un filtro de Canny, el cual permite realzar los bordes y facilita la detección de contornos, una vez aplicado dicho filtro es posible utilizar la función findContours. Una vez  encontrados los contornos,  se procedió a utilizar la función minEnclosingCircle, la cual encuentra el circulo mínimo que encierra el contorno, proporcionando el radio del circulo y el centro; a través de estas coordenadas el número que se encuentra más a la izquierda de la imagen y el número que se encuentra más a la derecha de la imagen; con esta información es posible delimitar el máximo y el mínimo valor de corte para separar los números de los recuadros. Una vez obtenido el radio de cada número, es posible marcar un punto  al lado derecho de los números, con dichos puntos es posible hacer un recorte poligonal y así separar los números de los recuadro. Este proceso es importante debido a que reduce el procesamiento de información al hacer el análisis de la sección deseada en las próximas etapas del proyecto.   


CONCLUSIONES

Durante la estancia el investigador me compartió conocimiento útil con respecto a su experiencia en la industria manufacturera, explicando algunas carencias existentes en la industria y como la inteligencia artificial puede solucionar estos problemas. Además, adquirí información importante sobre el manejo del lenguaje Python y la metodología propuesta por el investigador para hacer la detección de elementos en una imagen. Por otro lado, se espera que con las treinta y cuatro imágenes de ejemplo el algoritmo pueda recortarlas de forma perfecta, el proyecto sigue en desarrollo y se espera la implementación de diferentes métodos de detección para hacer el reconocimiento de los recuadros que se llenan a mano, así como la prueba intensiva con una biblioteca de al menos mil imágenes que presentan daños esperados a los del ambiente de trabajo.
Sanchez de Jesus Paola, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua

ESTUDIO DE INTERFACES CEREBRO-COMPUTADORA


ESTUDIO DE INTERFACES CEREBRO-COMPUTADORA

Reyes Carrera Manuela, Instituto Tecnológico Superior de Ciudad Serdán. Sanchez de Jesus Paola, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Fernando Martinez Reyes, Universidad Autónoma de Chihuahua



PLANTEAMIENTO DEL PROBLEMA

Las emociones forman parte del día a día de las personas, y a través de las emociones se puede estudiar el comportamiento humano y su interacción con el entorno. Este proyecto explora el área de Interfaces Cerebro Computador o Brain Computer Interfaces (BCI), en el cual se utiliza una diadema Emotiv1 para recolectar señales electroencefalográficas (EEG) que pueden procesarse para generar comandos que permitan a una persona interactuar con la computadora. Una estadística del INEGI del 2010 indica que el 5.1% del total de la población en México presenta una discapacidad y de esas cifras arriba del 50% presenta problemas de movilidad (caminar o moverse). Alrededor del 27% tienen discapacidad visual, 8.5% problemas mentales, y 4.4% presenta dificultades para poner atención y en el aprendizaje. El desarrollo de aplicaciones BCI podría facilitar la inclusión de personas con discapacidad en espacios educativos ya que a través de la diadema se puede proveer de un medio de comunicación.



METODOLOGÍA

Se utiliza una diadema Emotiv Insight la cual cuenta con 5 electrodos para la recolección de datos EEG. El software propietario de Emotiv se usa para estudiar las señales EEG, la recolección de datos del usuario, la detección de gestos y de estados mentales, y finalmente el envío de datos hacia una escena digital desarrollada en Unity. El software EmotivPRO permite observar el tipo de señales EEG recolectadas con la diadema. Utilizando una aplicación desarrollada en Unity para realizar ejercicios de trabajo de memoria de corto plazo se recolectaron datos del usuario. La aplicación muestra por 5 segundos un subgrupo de objetos y agotado el tiempo presenta una matriz con el conjunto total de objetos colocados aleatoriamente. El usuario debe recordar cada uno de los objetos presentados inicialmente. Con esta información se aplicó un clasificador de eventos de memoria, desarrollando en Python por otro estudiante de la UACH. Este ejercicio nos permitió comprender la aplicación de interfaces BCI para captar patrones de eventos. Mediante el software Emotiv Control Panel se estudiaron otros recursos de trabajo con la diadema EEG. Por ejemplo, se trabajó con la calibración de la diadema, se exploró las señales generadas para estados afectivos de enganche, interés, relajación, estrés y emoción, eventos que se utilizan en el desarrollo de aplicaciones que adaptan su contenido de acuerdo a alguna condición afectiva de la persona. También se estudió le detección de expresiones faciales como parpadeo, sorpresa, entre otros. Se generaron comandos mentales para controlar una escena 3D disponible en el software Emotiv. Se estudió el uso del sensor inercial disponible en la diadema para por ejemplo controlar el apuntador del ratón en la computadora. Con el software Emotiv Emokey se continuó el estudio de la generación de comandos mentales asociados a la actividad cerebral detectada con la diadema. Se trabajaron algunos ejemplos disponibles con el SDK de Emotiv para la captura de señales y comandos mentales desde otras aplicaciones de software desarrolladas en C#, Java y Python, por ejemplo. Una herramienta adicional es Emotiv Composer con la cual es posible simular eventos que pueden ser utilizados para evaluar el desempeño de los programas externos. Finalmente, se trabajó el desarrollo de una escena en Unity que debe recibir eventos de la diadema para controlar el desempeño de la escena virtual. Adicionalmente a la diadema, en la etapa final de la estancia se están integrando eventos de temperatura y luz recolectados con un dispositivo Arduino con el objetivo de enriquecer el control de la escena virtual.


CONCLUSIONES

El área de investigación en Interfaces Cerebro Computadora resulta muy interesante ya que a través del desarrollo de aplicaciones basadas en esta tecnología se pueden ofrecer recursos de apoyo a personas con discapacidad. El trabajo con la diadema Emotiv permitió comprender las diferentes fases de desarrollo que deben cubrirse para generar interfaces humano-computadora que permiten la interacción natural, es decir, con gestos o comandos mentales en sustitución del teclado y el ratón. El software proporcionado por Emotiv facilitó la comprensión de la recolección, registro, entrenamiento, y generación de eventos EEG. La lectura e integración de eventos EEG en contenido digital permite visualizar el desarrollo de herramientas educativas para apoyar a personas con discapacidad.
Sánchez Drewes Erece, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)

SíNTESIS Y CARACTERIZACIóN DE CIANOCOBALTATOS DE COBRE ENSAMBLADO SOBRE SURFACTANTES


SíNTESIS Y CARACTERIZACIóN DE CIANOCOBALTATOS DE COBRE ENSAMBLADO SOBRE SURFACTANTES

Sánchez Drewes Erece, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Adela Lemus Santana, Centro de Investigación en Ciencia Aplicada y Tecnología Avanzada (IPN)



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, la demanda de energía y combustibles fósiles va en aumento debido al gran requerimiento de estos recursos para los procesos de fabricación y funcionamiento de todo tipo de productos necesarios para la vida del ser humano. No obstante, además de provenir de una fuente agotable, se ha comprobado que los residuos y gases que producen la combustión de combustibles fósiles son dañinos para el medio ambiente. Por lo que es importante desarrollar nuevas tecnologías que puedan sustituir estos recursos no renovables para producir energía que provenga de recursos renovables de manera limpia y eficiente. De igual manera, es necesario implementar medidas y crear materiales que puedan eliminar o disminuir los contaminantes presentes en la atmósfera para asegurar una mejor calidad del aire y así garantizar una mejor calidad de vida. Es por ello que en CICATA, durante el verano de investigación científica se sintetizaron y caracterizaron materiales porosos (enrejados moleculares) con el fin de utilizarlos en catálisis para conversión de energía, en adsorción o separación de ciertos gases como el CO2 y así combatir el calentamiento global.



METODOLOGÍA

En específico, se trabajó con hexacianocobaltato de cobre ensamblado sobre diferentes surfactantes con el objetivo de probar si disminuye el tamaño de partícula para así lograr una mayor superficie disponible de adsorción, en comparación a los que no contienen surfactantes. Primeramente, después de una revisión bibliográfica, se elaboraron los cálculos de molaridad, volúmenes, proporciones y masa de los compuestos correspondientes a utilizar en la síntesis. En el diseño de experimentos se estableció preparar una síntesis testigo, una con Polietilenglicol y otra con Citrato de sodio como surfactantes, con el compuesto de cobre como reactivo limitante. Durante la síntesis se utilizaron equipos como balanza analítica, parrillas de agitación, vidriería de laboratorio y reactivos. Una vez terminada la síntesis, todas las soluciones se dejaron en reposo durante una semana y posteriormente se centrifugaron y lavaron tres veces para obtener el material de interés. Una vez teniendo el material en polvo, previamente sometido a secado, se procedió a la caracterización. Las técnicas que se utilizaron para caracterizar a los nuevos materiales son: Espectroscopia IR y Espectroscopia UV-vis, con el fin de identificar los grupos funcionales las propiedades ópticas de los materiales resultantes.


CONCLUSIONES

En cuanto a resultados, las bandas en IR de los materiales preparados coincidieron con las reportadas en la literatura para el hexacianocobaltato de cobre, lo que demuestra que se obtuvo el producto esperado. Los materiales preparados en presencia de surfactantes mostraron por IR la presencia del surfactante respectivo, lo que señala que se obtuvieron materiales compuestos (compositos), de los cuales es de esperar propiedades distintas a las del hexacianocobaltato de cobre puro, lo que requiere un trabajo de caracterización más extenso. Durante la estancia de verano se llevaron a la práctica y se reforzaron conocimientos teóricos adquiridos en la carrera tales como: química analítica, diseño de experimentos y análisis de resultados. De igual manera, se logró el aprendizaje del funcionamiento de equipos como espectrómetro de IR. También se adquirieron habilidades en la preparación de materiales y su caracterización.
Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional
Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

LA IMPORTANCIA DE LOS HUERTOS URBANOS


LA IMPORTANCIA DE LOS HUERTOS URBANOS

Garcia Yuriar Omar Antonio, Instituto Tecnológico de Culiacán. González González Fátima Paulina, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Guel Diaz Mayra Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Martínez Contla Joshua Alexei, Universidad Politécnica de Texcoco. Mayen Delgadillo Amanda Citlali, Universidad Politécnica de Texcoco. Rivera Romero Raymundo, Universidad Politécnica de Texcoco. Sánchez Fernández Erandi Yoalli, Instituto Politécnico Nacional. Asesor: Ing. Flor Elizabeth Hernández González, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

En un escenario en el cual cada familia tendría su propio huerto urbano habría beneficios considerables hacia la sociedad, la economía, salud y el medio ambiente. La práctica de esta actividad fomentaría la seguridad alimentaria de las personas, también se ha comprobado que el interactuar con plantar y darles el debido cuidado resulta como una terapia familiar y fortalecer vínculos. Es un buen benefactor hacia el cambio climático ya que esto genera una mayor huella verde en las ciudades y por ende esto genera un microclima, lo cual contribuye regular temperaturas y el tiempo de resiliencia en un ecosistema. La seguridad alimentaria es el derecho que tiene todo ser humano para tener acceso físico y económico a alimento sano, inocuo y nutritivo para tener una vida sana y activa.



METODOLOGÍA

Al poder implementar el proyecto nos damos cuenta que la mayoría de las familias optan por comprar sus alimentos en supermercados, teniendo en cuenta el daño que estos causan de diferentes maneras a su salud y el bienestar del planeta, por lo que nuestra propuesta es pequeña, de fácil uso e integradora, tomando en cuenta el poco tiempo con el que puedan contar los usuarios para el cuidado, pero sin descuidarlo por completo, además de ser económico puesto que producimos nuestros alimentos, agregando que son libres de plaguicidas.


CONCLUSIONES

Uno de los tantos propósitos es fomentar la cultura de comer sanamente, puesto que las enfermedades por este descuido en la alimentación son muchas, así si desde casa comenzamos a tener el hábito de consumir nuestros vegetales, prevenimos futuras enfermedades en las familias que cuenten con un huerto en casa.
Sánchez Flores Luis Fernando, Universidad Autónoma de Sinaloa
Asesor: M.C. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla

CARACTERIZACIÓN DEL SARGAZO PARA SU APROVECHAMIENTO EN LA FORMULACIÓN DE FIBRAS REFORZADAS.


CARACTERIZACIÓN DEL SARGAZO PARA SU APROVECHAMIENTO EN LA FORMULACIÓN DE FIBRAS REFORZADAS.

Ponce Vásquez Jenifer, Universidad Autónoma de Sinaloa. Sánchez Flores Luis Fernando, Universidad Autónoma de Sinaloa. Asesor: M.C. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el sargazo es una de las principales problemáticas que presentan las costas del Caribe mexicano especialmente la costa del estado de Quintana Roo. El sargazo es un alga que flota libremente en el océano y nunca se adhiere al fondo del océano. Es un hábitat de cría muy importante que provee refugio y alimento para especies en peligro de extinción como las tortugas marinas y para especies comerciales importantes de peces. Hay dos especies de sargazo involucrados en la afluencia de sargazo: Sargassum natans y Sargassum fluitans. (Doyle, 2015). Esta alga presente en cantidades pequeñas juega un papel importante en el equilibrio del ecosistema marino, sin embargo, en cantidades mayores se convierte en una problemática ambiental, teniendo repercusiones en el ecosistema a mediano y largo plazo. Una de las principales problemáticas radica en la percepción social que estas masas de sargazo generan afectando a la industria turística, otra de ellas es la alteración de los ecosistemas costeros, causando mortalidad de fauna y mortandad de pastos marinos.



METODOLOGÍA

La metodología fue tanto cualitativa como cuantitativa, para ello se recolectaron 6 tipos diferentes de sargazo de distintas ubicaciones de las playas de Quintana Roo, primeramente, se utilizó la búsqueda de revisión bibliográfica para posteriormente realizar las pruebas analíticas e instrumentales. De las 6 muestras de sargazo que ya nos las otorgaron molidas y secadas, se pesaron 10 gramos de cada una para ser nuevamente secadas y trituradas, se secaron en la estufa a 100°C  durante 24 horas, después de esto se trituraron en un mortero con pistilo de ágata, y por último fueron tamizadas en un tamiz de malla 100, de esta manera obtuvimos partículas más finas requeridas para las técnicas de análisis que posteriormente se realizaron. Una de las técnicas utilizadas fue la Espectroscopia Infrarroja, así como también dichas muestras fueron analizadas en Difracción de Rayos X, Microscopia Electrónica de Barrido con detector EDS y Espectroscopia de absorción atómica. Para esta última técnica se tuvo que hacer una digestión de las 6 muestras del sargazo pesando 0.5 gramos de cada muestra y con 10 ml de HNO3 para su degradación, momento de agregar el ácido se colocó en un calentador por un día y medio a una temperatura de 150℃, ya que la muestra se encontraba digestada completamente se proseguía a filtrar la solución y aforar a 45 ml. Esto se realizó para la espectroscopia de absorción atómica que es para la medición de las muestras, se midieron los metales tales como: Na, K, Cu, Mn, Pb, Zn, Ni, Fe. Agregado a esto realizamos la medición de pH de acuerdo a la Norma Oficial Mexicana NOM-021-SEMARNAT-2000 que establece las especificaciones de fertilidad, salinidad y clasificación de suelos, estudios, muestreo y análisis.


CONCLUSIONES

Por medio de la caracterización de los resultados obtenidos a través de las técnicas de análisis utilizadas podemos concluir que el sargazo posee un gran potencial de aprovechamiento y uno ellos es su utilización en fibras reforzadas, atendiendo así a la problemática que estas masas de algas generan. Pero también pudimos observar a partir de los resultados de la técnica de Microscopia Electrónica de Barrido que una de nuestras muestras cuenta con una pequeña cantidad de plomo por lo que su uso para alimento en animales no es viable. A pesar de esto aún existen muchos usos en los que el sargazo puede ser implementado.
Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara

LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA


LAS TIC EN LAS MICROEMPRESAS DE COMERCIO DE PUERTO VALLARTA

Acosta Nieves Efren, Instituto Tecnológico Superior de Ciudad Hidalgo. Avila Valencia Ana Claudette, Universidad de Sonora. Flores Trejo Edgar, Instituto Tecnológico Superior de Ciudad Hidalgo. Ortiz de Stefani Jocelyn Michelle, Universidad de Sonora. Sánchez Franco Luis Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Jose Luis Lopez Lopez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El interés por impulsar el desarrollo de las Micro, Pequeñas y Medianas Empresas (MIPYMES), ha sido cada vez mayor en los últimos años, no sólo en México, sino también en casi todos los países desarrollados o en proceso de desarrollo. En los últimos años se ha incrementado la localización industrial en la área metropolitana, principalmente en algunas ramas de punta como la electrónica, automotriz, zapatera y la cibernética, lo que ha impreso un nuevo sello a la estructura productiva y a la fisonomía de los suburbios tapatíos. Jalisco es la cuarta economía más importante de México en base a su contribución del 11.9% al Producto Interno Bruto Nacional (PIB); por sectores de actividad económica, los porcentajes de aportación al PIB estatal en el año 2015 fueron los siguientes: agricultura, ganadería, aprovechamiento forestal, pesca y caza, 6%; las industrias manufactureras aportaron el 23%; el comercio, restaurantes y hoteles, 25%; los servicios financieros e inmobiliarios, 12%, y los servicios educativos y médicos, 8%. (INEGI, 2015). Para impulsar un negocio no sólo se requiere interés, inversión y tiempo, ya que esto no garantiza su permanencia. De acuerdo con una investigación efectuada en el Centro Universitario de la Costa (CUCosta), 75 por ciento de microempresas del sector comercio en Puerto Vallarta no sobreviven los primeros cinco años a partir de su creación. Para México, las PYMES son un eslabón fundamental, indispensable para el crecimiento del país. Contamos con una importante base de Micro, Pequeñas y Medianas empresas, claramente más sólida que muchos otros países del mundo, debemos aprovecharla para hacer de eso una fortaleza que haga competitivo al país, que se convierta en una ventaja real para atraer nuevas inversiones y fortalecer la presencia de productos mexicanos tanto dentro como fuera de nuestra nación.



METODOLOGÍA

La investigación a realizar es una investigación mixta, cualitativa y de campo,  en un primer momento de alcance descriptivo, para soportar la observación, revisión de documentos y aplicación de cuestionarios. La unidad de análisis del proyecto de investigación descrito se enfocará a las microempresas de comercio del municipio de la ciudad de Puerto Vallarta. La recolección de la información se realizará por medio de una muestra probabilística estratificada de forma proporcional, esto es, conforme al giro comercial de la microempresa, proporcional a la cantidad de estas en el registro de licencias y en un periodo determinado, para de forma analítico-sintético se analizarán los indicadores de las empresas del municipio de Puerto Vallarta y dar respuesta a las interrogantes y objetivos de la investigación. Como primera actividad de investigación se realiza la recolección documental o información de soporte de la investigación la cual en parte se desarrolla con el acceso a biblioteca digital de la Universidad de Guadalajara, proporcionada por nuestro investigador, maestro José Luis López, además del acceso a la biblioteca del Centro Universitario de la Costa. Con acceso a un basta base de información gracias a estos recursos, además del sitios en Internet, en donde pudimos expandir la investigación gracias a sitios del INEGI como el DENUE, Secretaría de Economía, etc.


CONCLUSIONES

Las tecnologías de la información y comunicación han sido fundamentales para el desarrollo de las actuales empresas de comercio, no sólo en Puerto Vallarta, sino en el mundo. En la actividad de investigación colaboramos principalmente en el trabajo de recolección y revisión de información, como parte de los aspectos fundamentales de esta y hasta los principios de la realización y desarrollo del instrumento de investigación. Con el trabajo realizado podemos concluir que: Un 75% de las microempresas no duran más de 5 años por falta de conocimientos de las TICs. De acuerdo con un estudio realizado por el INEGI en el año 2014, logramos identificar que hay un total de 4 millones 926 mil 061 pymes en México. (INEGI, 2014). Según la revista expansión, las Pymes generan 81% del empleo en México. Existen 4.2 millones de unidades económicas en México. De ese universo, el 99.8% son consideradas Pequeñas y Medianas Empresas (Pymes), esta publicación fue hecha por la revista Forbes. (INEGI, 2014)   Hemos culminado este proyecto con gran satisfacción. Obtuvimos muy buena atención por el maestro, fue directo, nos explicaba cualquier duda.
Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Sanchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes
Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes

DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.


DESARROLLO DE UN MODELO UNIFICADO PARA LA ELABORACIÓN DE PROYECTOS DE INVERSIÓN PARA LAS MIPYMES AGROINDUSTRIALES DEL ESTADO DE MICHOACÁN.

Cacho Figueroa Rosa Isabel, Instituto Tecnológico Superior de Los Reyes. Garcia Bucio Graciela, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Tinajero Juan Jorge, Instituto Tecnológico Superior de Ciudad Hidalgo. Sanchez Guerrero Brenda Anaid, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Alejandro Sinai Anguiano Magaña, Instituto Tecnológico Superior de Los Reyes



PLANTEAMIENTO DEL PROBLEMA

En la actualidad las MIPYMES independientemente del sector en el que se analicen, es evidente que se han convertido en un factor indiscutible para el crecimiento económico de nuestro país, sin embargo, debido a la mala planeación, escases de recursos, mala administración financiera entre otros factores se han posicionado en el sector como uno de los más desalentadores en términos de consolidación y crecimiento a corto mediano y largo plazo, en datos de la encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas (ENAPROCE), presentado por el INEGI(2015), nos muestran que el promedio de vida es menor a los 2 años, sumándole que el 75% de las mismas no logra consolidarse o desaparecen de manera definitiva en el mismo lapso de tiempo, datos alarmantes que nos invitan a realizar una retrospectiva minuciosa a fin de subsanar los errores cometidos en el pasado con la finalidad de fortalecer de manera holística a las empresas y a los stakeholders que forman parte de esta importantísima cadena de valor. La presente línea de investigación se centra principalmente en conocer si los modelos actuales para la elaboración de proyectos de inversión, contienen los elementos necesarios para el correcto uso de los emprendedores que les permitan tener una visión certera del panorama de sus inversiones, por último y con el fin de dar solución al problema, es necesario el desarrollo y aplicación de un modelo de inversión con el objetivo de conocer si impacta en el éxito o fracaso de las micro, pequeñas y medianas empresas agroindustriales del estado de Michoacán.



METODOLOGÍA

IDEA: Al iniciar se tomó en cuenta a donde se pretendía llegar con este proyecto, que beneficios daría  y por lo tanto la realización que este mismo tendría y así concretar la idea para el comienzo del trabajo. PLANTEAMIENTO DEL PROBLEMA: Para su elaboración en primer lugar se tomó en cuenta la factibilidad que tendría la investigación durante el tiempo que se estaría trabajando, expresando el tiempo en forma real y de igual manera llegar resolver las incógnitas que se obtuvieron en la elaboración de la idea. REVISIÓN LITERARIA: Este punto es clave para para la selección y formulación que se obtendrá en la investigación, para iniciar con la revisión se analizó el estudio de los temas que tuvieran cierta  relación, teniendo una visión más teórica, aceptando información necesaria y rechazando lo innecesario. Utilizando páginas confiables. ELABORACIÓN DEL INSTRUMENTO: Se desarrolló una encuesta con el fin de obtener los resultados. HIPÓTESIS ¿El factor principal factor de fracaso de las MIPYMES en el estado de Michoacán se debe a la incorrecta o nula planeación estratégica de los proyectos? DEFINICIÓN Y SELECCIÓN DE LA MUESTRA. Encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas ENAPROCE (2015), representan un total de 3505 empresas en total.


CONCLUSIONES

Se observa en la investigación elaborada una contribución a obtener información de las MIPYMES del estado de Michoacán, donde actualmente en la región de Los Reyes de Salgado se encuentra conformado en su mayoría por microempresas, estas empresas se caracterizan por una escasa formación de desarrollo de las habilidades empresariales, insuficientes sistemas de información, problemas de comercialización, bajo control administrativo y deficiente análisis mercadológico. Es por ello que para que una empresa sea exitosa y ampliamente competitiva se debe regir bajo un plan de negocios; tomando en cuenta los análisis y planes al momento de crear la empresa y hacerla crecer. Se llevó acabo el análisis de la relación que existe entre el éxito competitivo de cuatro factores relacionados con el ambiente interno y externos de las MIPYMES, específicamente en las áreas de: administración, técnicas, mercadológicas y financieras. Estas cuatro áreas mencionadas anteriormente son eficaces al momento de su desarrollo. Resultados obtenidos: un 64% de las empresas gira entorno a servicios en donde se enfoca como principal éxito en la cuestión de oferta y demanda de productos puesto que incrementa las ventas y sus precios los fijan de acuerdo al costo. En las agroindustrias encuestadas no elaboran ningún tipo de plan que garantice el éxito puesto que el 59% cree que no es útil planear los aspectos mercadológicos, así mismo el 61% dijo que no es de utilidad la elaboración de un plan financiero. Solo por abarcar algunos resultados, sin embargo en las 29 preguntas de la encuesta en su mayoría se obtuvieron resultados alarmantes.
Sánchez Hernández Julio Víctor, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

CLASIFICACIóN AUTOMáTICA DE TEXTOS UTILIZANDO REDES NEURONALES ARTIFICIALES


CLASIFICACIóN AUTOMáTICA DE TEXTOS UTILIZANDO REDES NEURONALES ARTIFICIALES

Sánchez Hernández Julio Víctor, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

La clasificación automática de textos, puede definirse como la acción ejecutada por un sistema artificial sobre un conjunto de elementos para odenarlos por clases o categorı́as. Si bien los elementos a clasificar pueden ser de cualquier tipo, es la clasificación automática de textos una de las áreas de investigación que ha cobrado mayor importancia en los ultimos años debido, en gran parte, a los grandes volúmenes de textos digitales que se almacenan en bases de datos, páginas web, redes sociales, etc. La clasificación automática de textos esta ligada a la Inteligencia Artificial (IA) y la Inteligencia Computacional, que se basa en el desarrollo de algoritmos que aprenden o reconocen patrones recurrentes en cada clase a partir de un gran volumen de textos de entrada, para que posteriormente sean entrenados y clasificados automáticamente. La clasificación de textos tiene entre sus particularidades un desbalance entre categorı́as, lo que la distingue y la hace ser más complicada a la otra de tratar mas que la de otro tipo de datos, como por ejemplo las imágenes. Por esta razón, es un problema de gran desarrollo en las Ciencias de la Computación, especificamente el área del Procesamiento del Lenguaje Natural. En las últimas decadas, el manejo automático de documentos electrónicos se ha transformado en el mayor campo de investigación de esta área. Es precisamente dentro de este escenario, en el que se inserta este trabajo que tiene como objetivo proponer un algoritmo, basado en Redes Neuronales Artificiales, para la clasificación automática de textos de acuerdo a las áreas de conocimiento que hay en el ITTG.



METODOLOGÍA

La Red Neuronal Artificial (RNA), utilizada para la clasificación de los textos, se entreno con una serie de palabras claves preestablecidas por categoŕias, con el fin de que pueda realizar la predicción/clasificación posteriormente. Utilizando el método de "prueba y error", se configuraron los parámetros a utilizar de la RNA para que permitiera identificar y clasificar los textos de acuerdo con la información suministrada. Para crea la RNA se utilizo el lenguaje de programación Python en el entorno de desarrollo JupyterNotebook, ya que ambas son herramientas especializadas en el área de "DataScience". Se probaron diferentes modelos y parámetros para la RNA, pero el que mejor comportamiento obtuvo fue la que posee una capa de entrada, una de salida y una oculta.


CONCLUSIONES

En este trabajo se presentó un algoritmo de RNA para la clasificación automática de textos de acuerdo a las áreas de conocimiento que hay en el ITTG. Este algoritmo consiste en el uso de una RNA en el cual se le proporcionan datos de entradas para el entrenamiento de la RNA, estos datos de entrada son las palabras claves de cada categoría seleccionada. Posteriormente, después de terminar el entrenamiento de la RNA se introducen el texto a clasificar, y como resultado se da un rango de compatibilidad de 0 - 1 con cada una de las categorías, cabe destacar que 1 es el valor deseado y 0 es el valor de partida. Hablando del proceso y trabajo del algoritmo, podemos concluir que sus resultados son satisfactorios ya que cumple en un 90% con su objetivo final, mas sin embargo no se pudo llevar acabo la implementación web de este sistema, debido a el entorno web en el cual se trabajaría.  
Sánchez Juárez Diego Ariel, Instituto Politécnico Nacional
Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa

VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.


VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.

Davila Arias Exel, Instituto Politécnico Nacional. Sánchez Juárez Diego Ariel, Instituto Politécnico Nacional. Solis Carrillo Jesús Andrés, Universidad Politécnica de Sinaloa. Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las plagas de los cultivos son una de las principales causas de pérdidas de cosechas y por ende pérdidas económicas en la agricultura mundial. En México, 78.2% reporta pérdidas debidas a causas climáticas, plagas y enfermedades [1]. Entre los problemas principales de la producción del tomate las principales plagas y enfermedades se destacan araña roja, minador, mosca blanca, polilla del tomate y trips [4]. Existen invernaderos que cuentan con la ayuda de sensores de humedad, presión y temperatura para monitorear las plantaciones, sin embargo, no siempre se pueden realizar las instalaciones necesarias para colocar adecuadamente todos estos dispositivos, y darle el cuidado necesario al invernadero. Con el avance de los drones en la actualidad este proyecto surge para poder realizar un cuidado adecuado en las plantas con un solo dispositivo. Por lo que se propone el diseño de un vehículo aéreo no tripulado de tipo cuadricóptero con movimiento autónomo mediante el trazado de trayectoria en el área de interés, equipado con una cámara infrarroja y sensores para la detección y ubicación de plagas en los cultivos de tomate.     



METODOLOGÍA

Un drone o vehículo aéreo no tripulado, esencialmente es un robot volador que puede ser controlado remotamente o puede volar autónomamente a través de planos de vuelo controlados por software en sus sistemas embebidos trabajando en conjunto con sensores a bordo y GPS. En el presente proyecto se implementó el drone móvil o rotacional con una configuración llamada Cuadricoptero, sus características son las siguientes: Los motores en este tipo de multirrotor se encuentran separados 45° en dirección a uno de los brazos y orientados en la dirección de vuelo, es necesario que los cuatro motores sean dirigidos al mismo tiempo. Apropiada para el soporte de cámaras, ofrece un campo de visión mayor al no existir motores que interfieran en la visión. Facilita el equilibrio del dispositivo. Con base en lo analizado durante el verano delfín, se optó por añadirle los siguientes componentes al drone para su respectivo diseño: Para el control de vuelo se utilizó el controlador Airbot OMNIBUS F4 PRO con el firmware INAV, ya que cuenta con un procesador F4, lo que significa que trabaja a una frecuencia de 168MHz y cuenta de 3-5 UART’S, además de que el firmware permite vuelo autónomo.  Se sabe que la corriente pico que puede alcanzar es hasta de 18 A, por lo que se decidió emplear el ESC de 30 A, de esta manera se asegura que soportaran la demanda de corriente exigida por cada uno de los motores. Se eligió la batería de 3300 mAh, la cual ofrece mayor capacidad, al tener un menor rating tiene un menor precio, sin embargo, cumple con la demanda de corriente, además cumple con las dimensiones del chasis a diseñar.  Se eligió el PDB que permitiera la conexión de la batería LiPo y de al menos cuatro motores sin escobillas. Se verificó que esta soportara la tensión de la batería LiPo a emplear, en este caso del tipo 4S. Se decidió emplear el URUAV UR6 como Buzzer ya que contiene una batería interna permitiéndole que en cualquier extravió pueda generar sin ninguna dificultad su función. Se, seleccionaron los motores sin escobillas 2212 con las hélices 1047 que ofrecen un empuje de 885 g, los cuatro pares de motor hélice ofrecen un empuje de 3540 g, esto nos permite un radio de 3.52. Se pretende utilizar una cámara infrarroja FLIR C2 (ya que es un componente otorgado por el investigador) es una cámara térmica de bolsillo que cuenta con un campo de cisión de 45°, además de un detector de alta sensibilidad que captura las diferencias sutiles de temperatura y patrones térmicos. Permite almacenar hasta 4800 mediciones térmicas individuales que pueden analizarse y editar utilizando el software FLIR Tools. Se propone utilizar un sensor MEMs capaz de medir la presión barométrica, de modo que este sensor nos permita obtener la altura a la que el dron se encuentra volando. Se piensa implementar el GPS NEO 6M (nos permitirá conocer la altitud, latitud, así como la velocidad del drone).  También se utilizará el sensor SIM800l GSM/GPRS, sensor DHT11.    


CONCLUSIONES

Durante el verano Delfín, se pudo ampliar el conocimiento previo sobre el cuidado de la siembra, el manejo en base al control y diseño de un vehículo autónomo no tripulado.  El proyecto quedó en el diseño estructural del drone, con sus respectivos circuitos eléctrico y de control desarrollado. Se prevé que el siguiente equipo sucesor lleve este diseño a su creación y prueba para determinar si es un factor factible para la siembra del producto y del área determinada.    
Sanchez Julian Augusto, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla

CIFRADO DE CHAT PARA EMPRESA


CIFRADO DE CHAT PARA EMPRESA

Sanchez Julian Augusto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La comunicación de una empresa es muy importante entre sus empleados como entre sus sucursales. La información enviada a cada empleado como a cada gerente es tan valioso, y por esto debemos asegurar la integridad de la información enviada a través de internet. Los riesgos de pérdida de información en una empresa son muy elevados si no se tiene la seguridad, integridad y confiabilidad en el sistema de comunicación que utilizan las empresas privadas. Como internet es un medio de comunicación universal, no se puede dar soporte de seguridad al mismo, es por eso, asegurarnos de que la información enviada tanto de sus empleados como de las sucursales de las empresas es integra y autentica. Es por esto que, surge el problema de la confianza de seguridad en los sistemas de mensajería actuales.



METODOLOGÍA

Para esta investigación se requirió de un análisis exhaustivo sobre  la criptografía, un poco de historia, cifrado simétrico, el concepto de seguridad, informática, seguridad informática y una investigación a fondo acerca del cifrado de transposición. Para la teoría se realizó la investigación en diferentes sitios web para encontrar la información relevante y posteriormente proponer una solución al problema en base a lo investigado. El cifrado de transposición se realizara en él envió de información que realice cada empleado y solo se podrá cifrar mediante la llave del remitente que actualizada automáticamente mediante el sistema. El cifrado de transposición consiste en reorganizar los símbolos del mensaje original colocándolos en un orden diferente, de tal forma que el criptograma contengan los mismos elementos del mensaje original, pero colocándolos de tal forma que resulten incomprensibles. La aplicación es para dispositivos Android, por lo cual, el desarrollo será basado en la arquitectura Linux para los dispositivos Android. La realización de los diferentes modelos serán realizados en el software StarUML que es una herramienta que permite la generación de diferentes modelos para la ingeniería de software y nos permite un mejor desarrollo de los diferentes modelos llevados a cabo en el proyecto. Los modelos realizados son los principales, para comprender el sistema así como también su funcionamiento y tolerabilidad. El levantamiento de requerimientos es indispensable para el sistema, esta parte se llevó a cabo mediante una reunión entre asesor y estudiante para compartir los requerimientos. EL modelo de clases nos permite visualizar la arquitectura del sistema de una manera global, el modelo de secuencia, permite al desarrollador visualizar las operaciones que realizaran y como serán realizadas para llevar a cabo la tarea. El diagrama de flujo nos permite observar la operación y su secuencia así como también afinar los detalles remarcados o importantes. Por último, el diseño de la interfaz fue hecho en una plataforma online llamada NinjaMock que es una plataforma que ofrece un servicio de diseño de aplicaciones de software en los diferentes sistemas operativos, en el cual se escogió el sistema Android por ser un sistema más distribuido en la población y las empresas. El diseño consta de las diferentes ventanas que constituirán la aplicación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos acerca de un problema que tienen algunas empresas para la comunicación interior (en una sucursal) como la comunicación exterior (entre dos o más sucursales). Las empresas deben de asegurarse de que no les robaran información que envíen a través de internet. Una solución a este problema es crear una aplicación de mensajería exclusivamente para las empresas privadas, sin embargo, al ser un trabajo extenso, aun no se encuentra en fase de desarrollo, por tal motivo no se puede mostrar aun la aplicación desarrollada y en uso. Finalmente se logró realizar el análisis del sistema así como familiarizarnos con el método de cifrado de transposición, que, para una mejor seguridad se propone una propuesta de agregación al método para que sea aún más difícil de descifrar.
Sánchez López Claren Sofía, Universidad Autónoma de Occidente
Asesor: Dr. Paola Valenzuela García, Universidad Autónoma de Occidente

ESTANDARIZACIóN Y EVALUACIóN DE LA CALIDAD DE LA PRODUCCIóN INDUSTRIAL DE HARINA DE GARBANZO (CICER ARIETINUM).


ESTANDARIZACIóN Y EVALUACIóN DE LA CALIDAD DE LA PRODUCCIóN INDUSTRIAL DE HARINA DE GARBANZO (CICER ARIETINUM).

Sánchez López Claren Sofía, Universidad Autónoma de Occidente. Asesor: Dr. Paola Valenzuela García, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

México se posiciona en 8vo lugar dentro de los países con mayor producción mundial de garbanzo. Con Sonora y Sinaloa como principales productores, en 2017 se obtuvo que dichos estados cosecharon casi el 80% del total del grano del garbanzo cosechado en el país, con la participación de Sonora en un 30.7% y Sinaloa con el 46.6%. Debido a la falta de industrialización y la sobreproducción existente de garbanzo (cicer arietinum), tanto a nivel nacional, como en el estado de Sinaloa,  se obtiene una rezaga de producto que no cumple con los estándares de calidad para ser exportado internacionalmente, y el cual no es usualmente consumido de manera local.  La industria ofrece una alternativa para el comercio y consumo del garbanzo en el país, que es darle un valor agregado procesándolo para convertirlo en harina, y ésta utilizarse como ingrediente principal en una variedad de productos que sean para todo tipo de público y a la vez, darle un plus al añadir nutrientes esenciales en su composición, como los son las proteínas, grasas, fibra y carbohidratos que contiene el grano de garbanzo. Y así ser una opción más saludable para el consumidor ya que dicha harina y productos derivados no contienen gluten, con lo cual llegan a ser adecuados para personas celíacas. Con ésto, se busca ofrecer una harina de garbanzo de calidad óptima y apta para ser comercializada en la región, y así traer beneficios sociales como la generación de empleos y un aporte positivo en la salud de las personas que la consuman.



METODOLOGÍA

Para obtener la harina de garbanzo se realizaron 3 etapas en el proceso: quebrado, descascarillado y molienda. En las etapa de quebrado y descascarillado del grano de garbanzo se utilizó una banda quebradora KEGMA, la cual contiene un ventilador que efectúa el proceso de descascarillado. Ésta se alimentó con 66 kg de grano, divididos en 11 corridas. Por lo tanto, cada corrida era de 6kg, los cuales duraban 3 minutos procesándose para después volver a alimentar. En la etapa de molienda, se utilizó un molino de martillos KEGMA. Se hicieron 3 corridas a diferentes tiempos de espera entre cada alimentación (2 min, 2:30 min y 3 min) para evaluar su rendimiento. Cada corrida fue de 1 hora en tiempo total. Para evaluar el rendimiento obtenido en los procesos de molienda, se tomó el dato del peso del grano quebrado a utilizar con una báscula electrónica METROLOGY, y el peso de la harina procesada para saber el porcentaje de rendimiento. Una vez obtenida la harina, se le realizó análisis de granulometría. De cada kilogramo de garbanzo molido, se tomaron 500g por el método de cuarteo manual, para su posterior tamizado en el equipo Ro Tap Tyler el cual consta de seis tamices (N° 35, 45, 60, 70, 80,100), con tamaño de partícula de 500 μm, 355 μm, 250 μm, 212 μm, 180 μm y 150 μm respectivamente. También se le realizó análisis proximal a la harina: Humedad. De acuerdo al método 920.39 AOAC (1998), se pesaron entre 2-3 g de  harina de garbanzo en el crisol previamente tarado, posteriormente la muestra se colocó en una estufa de aire forzado (PRECISION 18, México) durante 8 h a una temperatura de 70-80°C, hasta peso constante. La muestra deshidratada se colocó en un desecador durante 15 minutos y  después se pesó. El porcentaje de humedad se calculó de acuerdo a la siguiente formula: % Humedad = (Peso inicial  -  Peso final) / Peso inicial   x  100 Proteína. En base al método 988.05 AOAC (1998), el porcentaje de proteína de la harina de garbanzo se determinó como nitrógeno proteico por el método  de MicroKjeldahl. Cenizas. De acuerdo al método de calcinación a la mufla: 942.05 AOAC (1990), la muestra deshidratada que se obtuvo en la determinación de humedad se colocó en la mufla (FURNACE 6000, U.S.A.) a 650° C por 8 horas, hasta lograr la conversión de cenizas. El crisol se pasó a un desecador hasta que alcanzó la temperatura ambiente. Después se pesó el crisol frió y se calculó el % de cenizas por diferencia de pesos: % Cenizas =  100  -   (Peso inicial  -  Peso final)  / Muestra (g)  x  100  Grasa. Mediante el seguimiento del método 920.39 AOAC (1998), se pesó entre 12g de muestra y se colocó en un dedal de extracción para grasas. El dedal con la muestra se colocó en el condensador de extracción (LABCONCO, Missouri), se agregó éter etílico en el vaso del solvente previamente tarado, posteriormente se puso sobre el condensador y se aseguró con el anillo de rosca. Se calentó el vaso por un periodo de 4 horas reflujando un volumen de 4-6 gotas por segundo sobre el dedal con la muestra. Una vez transcurrido el tiempo, se retiró el éter de la muestra y el extracto de grasa contenido en el vaso se secó en la estufa de calor seco por 30 min a 100°C, para evaporar el resto del éter y luego se pesó. El contenido de grasa se determinó por diferencia de peso: % Grasa  =   Peso del extracto / Peso de la muestra x  100 Fibra dietética. El procedimiento desarrollado está basado en los métodos 32-05 Fibra dietética Total (TDF) y 32-21 Fibra dietética soluble/insoluble de AACC. Carbohidratos. En base al método 986.25 AOAC (1998), el porcentaje de carbohidratos se calculó por diferencia de 100 menos la sumatoria del porcentaje del resto de los componentes determinado: % Carbohidratos = 100 - (%H + %P + %G + %FC + %C)


CONCLUSIONES

En la etapa de quebrado y descascarillado se determinó que el tiempo estándar de ventilación es de 3 min, con una alimentación de 6 kg cada vez. En la molienda, con el tiempo de espera de 2:00 min entre cada alimentación, se obtuvo un rendimiento del 94%. Con el tiempo de espera de 3:00 min se obtuvo un rendimiento de 93.3%, y con el tiempo de espera de 2:30 min se obtuvo un rendimiento de 99.65%, siendo éste último el tiempo óptimo para el proceso. En la prueba de granulometría, la harina presentó un índice de finura de 0.264 mm, teniendo un grado de molienda medio, el cual va de 2-4mm. Y el análisis proximal tuvo los siguientes resultados: % Humedad = 9.6, % Proteína = 23.5, % Cenizas = 3.4, % Grasas = 5.8, % Fibra dietética = 5.0, % Carbohidratos = 100 - (9.6 + 23.5 + 3.4 + 5.8 + 5.0) = 52.7.
Sanchez Martinez Luis Enrique, Instituto Tecnológico de Culiacán
Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla

PROGRAMACIóN DE RUTINA DE CAMINADO PARA UN ROBOT BíPEDO BIOLOID


PROGRAMACIóN DE RUTINA DE CAMINADO PARA UN ROBOT BíPEDO BIOLOID

Sanchez Martinez Luis Enrique, Instituto Tecnológico de Culiacán. Asesor: Dr. Antonio Benitez Ruiz, Universidad Politécnica de Puebla



PLANTEAMIENTO DEL PROBLEMA

El largo camino que existe en el desarrollo de rutinas ó comportamientos para robots los cuales se asemejen lo más posible al caminado que lleva a cabo una ser humano es muy largo y complejo. A nivel universitario que es donde se inician las bases de investigación y desarrollo de pequeñas rutinas que buscan atraer a los jóvenes hacia este tipo de proyectos. La Universidad Politécnica de Puebla cuenta ya con un robot bípedo al cual se le han programado varias rutinas, una de estas rutinas es el caminado bípedo. Sin embargo, la rutina aun requiere ser mejorada ya que el robot pierde el equilibrio y cae. El propósito de este proyecto es mejorar la rutina de caminado con la que ya cuenta el robot para reducir las caídas.



METODOLOGÍA

Se utilizaron como base proyectos antecedentes que fueron realizados por alumnos que colaboraron en esta universidad. Se revisó cada documento que fue elaborado respecto a este tema para comprender como ha sido la evolución del desarrollo de estas rutinas con el robot, así como la forma en que se trabajó. Se hizo un análisis de las herramientas necesarias a ser utilizadas a lo largo de una semana, para probarlas en nuestros equipos y verificar como funciona y tener todo listo para iniciar con el proyecto. Al tener los robots previamente armados se dispuso a verificar que todo el equipo funcionara al 100%, cada servo motor AX12, el microcontrolador CM-510 y la conectividad con la plataforma en RoboPlus. Una vez que todo estuviera en funcionando, se inició con el trabajo en el código, donde se busco identificar cada parte de dicho código para comprenderlo totalmente y entender donde se tenia que modificar para avanzar con el objetivo de la investigación, que era específicamente mejorar el caminado ya existente. Siendo tan extenso el código realizado en AVR studio, tomo algo de tiempo comprender cada estructura de éste. Se inicio el diseño en 3D de la estructura del robot para poder modelarlo y utilizarlo como ejemplo con la idea de ejemplificar las posiciones del caminado y mostrarlo paso por paso mediante el diseño completo que se hizo con apoyo de la herramienta de Sketchup. Al mismo tiempo se trabajó en Robo Plus para modelar las posiciones que se requerían para obtener una secuencia mejorada del caminado bípedo, que, gracias a la lectura de diversos artículos y documentación obtenida por trabajos de diversos investigadores, se pudo dar una idea de las posturas que darían como resultado un mejor diseño de caminado. En la herramienta de Robo Plus se puede interactuar con el robot de una manera muy libre. Justo de ahí, se obtienen una serie de datos que funcionaban como coordenadas (medidas en pasos) para cade uno de los 18 servos, estas posiciones en pasos se encuentran en el rango de 0-1023. Este valor en pasos se pudo convertir a grados mediante una sencilla operación matemática, teniendo así los grados a los que había que llevar a cada una de las articulaciones del robot para cada una de las posiciones necesarias. Los códigos relacionados con la rutina de caminado se compilan en lenguaje C y se genera su archivo con extensión hexadecimal. Este archivo ejecutable se descarga al robot a través de la terminal de RoboPlus, para posteriormente ser ejecutado por el robot. En la etapa de pruebas, se observaba el caminado para identificar que movimientos eran favorables, que posiciones se podían omitir y en que se podía mejorar. Esta etapa de pruebas fue se repitió varias veces con cambios en las posiciones con el propósito de mejorar la rutina en cada ocasión. Una vez obtenida una rutina de caminado mejorada, se inició con la recolección de evidencias donde se tomo video de las rutinas realizadas para ejemplificar el cambio y la mejora, mostrando las diferentes etapas de la rutina de caminado, desde la primera versión hasta la última rutina desarrollada.


CONCLUSIONES

Se desarrollo con éxito la mejora a una rutina de caminado bípedo para un robot tipo humanoide de la plataforma Bioloid de Robotis. Se integró el diseño mecánico del robot para modelar gráficamente la secuencia de caminado utilizada a través de la herramienta de sketchup y de documento el desarrollo. Durante la estancia de verano se logro interactuar con robots de muy buena calidad que permitieron un gran aprendizaje en esta área, desde conocimiento teórico al mostrarme toda la investigación documentada acerca de estos proyectos y más importante todo lo práctico que se aprende al trabajar día a día con herramientas del entorno de la robótica desde el software hasta la forma en que funcionan los robots.
Sánchez Martínez Rodrigo, Universidad Católica de Pereira (Colombia)
Asesor: Dr. Olga Lucia Ocampo López, Universidad Autónoma de Manizales (Colombia)

APLICACIóN E IMPACTOS DEL ESTUDIO DE TIEMPOS Y MOVIMIENTOS EN LA INDUSTRIA


APLICACIóN E IMPACTOS DEL ESTUDIO DE TIEMPOS Y MOVIMIENTOS EN LA INDUSTRIA

Restrepo Martinez Brian, Universidad Católica de Pereira (Colombia). Sánchez Martínez Rodrigo, Universidad Católica de Pereira (Colombia). Asesor: Dr. Olga Lucia Ocampo López, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El vertiginoso avance de la tecnología en un entorno donde el cliente cada vez cuenta con más opciones para obtener el producto que desea, obliga a las empresas a fortalecer la capacidad para suplir dichas necesidades en el menor tiempo posible, sin dejar de lado la calidad. Para lograr, con suerte, mantenerse en el mercado. Pero reducir movimientos en los procesos se torna difícil para las empresas, y mucho más si adolecen de capacidad monetaria para la implementación de tecnología, sin embargo, la ingeniería de métodos que según el libro ingeniería industrial: métodos, estándares y diseño del trabajo: Implica el análisis en dos tiempos diferentes durante la historia de un producto. Primero, es responsable del diseño y desarrollo de varios centros de trabajo donde el producto será fabricado. Segundo, debe estudiar continuamente estos centros de trabajo con el fin de encontrar una mejor forma de fabricar el producto y/o mejorar su calidad. (Reyes, 2009) Ofrece diversas herramientas que permiten no solo reducir tiempos y movimientos en el proceso, sino también aumentar el rendimiento de las máquinas y operarios inmersos en este.



METODOLOGÍA

El desarrollo del artículo se centra en la revisión y recolección de información relacionada a la aplicación de la ingeniería de métodos, específicamente el estudio de tiempos y movimientos en los diferentes procesos que abarca la industria, realizando una segmentación de los documentos encontrados dependiendo del tipo de producto o procesos estudiados. La clasificación se divide en 1) industrias, que abarca la automotriz, calzado, textil y maquinaria. 2) Agroindustria, esta engloba todo lo relacionado a la transformación, manipulación o recolección de alimentos como café, cacao, chontaduro, carnes y lácteos. 3) Logística, abarca los centros de distribución. Además, se realizaron diferentes visitas a una microempresa de la región y talleres que atañan el objeto de estudio de la investigación, permitiendo aumentar el horizonte de conocimiento e identificar de forma práctica los procesos y sus dificultades.


CONCLUSIONES

Los resultados obtenidos mediante la revisión de literatura se dividen en industria, agroindustria y calidad alimentaria, cada uno de ellos compuesto por temáticas acordes al campo y sus respectivos autores. INDUSTRIA: Automotriz: Gutiérrez et al. (2018) - Vélez et al. (2013) - Fuentes & Rojas (2018) Calzado: Andrade, Del Rio & Alvear (2019) - Parra, Ballesteros & González (2017) Textil: Rodríguez, Chaves & Martínez (2014) - Fuentes et al. (2016) Maquinaria: Ruíz et al. (2017) CEDI: Henríquez et al. (2018)   AGROINDUSTRIA: Café: Martínez et al. (2005) - Tavares et al. (2019) Cacao: Tinoco & Ospina (2010) - Aguirre (2017) - Plúa & Cornejo (2015) Chontaduro: Godoy et al. (2006) Carnes: Argote, Velasco & Paz (2015) - Ramírez & Quiliche (2018) - Bellido, Villar & Esquivel (2016) Lácteos: Mosquera, Duque & Villada (2008) Madera, aprovechamiento forestal: Alvis & Sotelo (2009) - Nájera (2010)   CALIDAD E INODUIDAD ALIMENTARIA: Importancia: Vázquez & Labarca (2012) - Fonseca, Muñóz & Cleves (2011) Gestión: Mercado (2007) - Arispe & Tapia (2007)   Tras la revisión de los artículos se logran identificar las diferentes técnicas para el estudio de tiempos y  la determinación de un tiempo estándar, como lo son: Therbligs, Muestreo del trabajo, MTM, cronometro a cero, datos estándar, entre otros. También herramientas para representar de forma gráfica los movimientos como diagrama de flujo, procesos, estaciones de trabajo etc. Todas estas técnicas facilitan la identificación de las demoras, el cálculo de costos y cambios que se deben realizar en las operaciones, convirtiéndose en una herramienta imprescindible para la gerencia en el momento de tomar decisiones. Además, por medio de la visita técnica a la empresa Myrluz se realiza una propuesta de distribución en planta, y con el consentimiento de la persona encargada se lleva a cabo su aplicación, la cual generó una reducción significativa en los movimientos del proceso y por ende, un aumento en la productividad, permitiendonos un acercamiento práctico a los temas estudiados en la investigación.
Sánchez Méndez Martin, Universidad Autónoma del Estado de México
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DISEñO DE UN BAñO SECO EN LA UNAM


DISEñO DE UN BAñO SECO EN LA UNAM

Concha Ramirez Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Picazo Medina Paola Yamileth, Instituto Politécnico Nacional. Sánchez Méndez Martin, Universidad Autónoma del Estado de México. Tinajero Franco Diana Laura, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El problema de escasez de agua en la Ciudad de México se debe al uso ineficiente de los diversos servicios de agua y saneamientos. Dada la problemática de agua en la ciudad, cobra importancia la visión previsora en su cuidado y manejo, es por ello que el proyecto busca incorporar el uso de baños secos en una de las instalaciones del campus central de la Universidad Nacional Autónoma de México (UNAM). Un hecho notable es que en el campus debe abastecer una demanda de agua de 80 litros por segundo y, en promedio, el consumo diario total es de 8 050 metros cúbicos. De acuerdo con la Dirección General de Obras de la UNAM durante la última década el consumo anual promedio se ha mantenido en 3 millones de m3 de agua. El sistema de agua potable para el consumo en las distintas dependencias de Ciudad Universitaria (CU) se compone de tres subsistemas: el de suministro, el de almacenamiento y el de la red de distribución de agua. Este último lleva más de 30 años en servicio, por lo cual su mantenimiento se vuelve complicado. Con la finalidad de disminuir el consumo, desde hace más de diez años se ha modernizado el inmobiliario de los sanitarios en las distintas dependencias. En los últimos años, la Facultad de Ingeniería y el Centro de Investigación Avanzada (CIA) han desarrollado como propuesta alterna y visionaria un núcleo sanitario que reduzca el consumo de agua mediante sanitarios secos suficientes para abastecer la demanda de dicho edificio donde los  desechos se tratan mediante un sistema de compostaje adecuado para hacer uso de la materia fecal de una forma segura y eficaz para el usuario y el medio ambiente. El desarrollo de este producto también conlleva una seria problemática social debido al prejuicio que se tiene de los baños secos donde el rechazo hacia los olores y la suciedad es evidente por parte de los usuarios, a diferencia de casos análogos ya desarrollados cercanos a la ciudad. Se busca combatir este tipo de problemas desde el desarrollo mecánico y estético del cuerpo del producto propuesto. El mismo deberá responder a estándares de sustentabilidad, higiene, calidad y pretende obtener la aceptación de los distintos usuarios presentes y futuros, que utilicen el baño en la Facultad de Ingeniería, buscando ofrecer una buena experiencia en su uso. cantidades considerables de compostaje y el traslado del desecho.



METODOLOGÍA

Para desarrollar la propuesta del baño seco se realizaron una serie de pasos que nos han permitido tener un correcto desarrollo del proyecto. En principio revisamos los antecedentes respecto a los baños secos existentes y también analizamos el espacio donde se adaptará, el lugar se encuentra en el edificio I de la facultad de ingeniería, dentro de CU. Esto nos permitió tener noción de su estado para identificar su problemática, conocer sus magnitudes y características. Se hizo una investigación de campo en la cual se analizaron baños públicos de diferentes establecimientos, esto nos permitió realizar una tabla comparativa en donde se observaron cuáles eran los detalles que le generan una mejor experiencia al usuario, las cuales se tuvieron en cuenta a la hora de tomar decisiones en el diseño. De la misma manera se analizaron a los usuarios que participan en este proyecto y se determinaron que existían dos tipos (Estudiantes y conserjes). Siguiendo la metodología de Karl Ulrich se realizaron evaluaciones para determinar, entre todos los conceptos de solución,  el mejor diseño enfocado en el usuario. Durante estas evaluaciones simulamos Escenarios para entender mejor el contexto en el cual se desenvuelven los personajes, y del mismo modo a estos se les dotaron características que se vieron reflejadas en los diagramas de rutas de los usuarios. En conclusión durante este análisis se nos brindó una visión más amplia de los individuos que estarán en contacto directo con el producto final, así como sus rutinas y su metodología a la hora de estar dentro de los baños. Las propuestas de solución se evaluaron con diagramas de polaridad y matrices morfológicas para valorar las características, las funciones, los materiales y/u objetos que serían indispensables para la funcionalidad del proyecto. El proyecto se dividió en áreas de especialidad, dependiendo del perfil de cada integrante del equipo, de este modo la información se incorporaba y todo el equipo añadía un panorama más amplio acerca de los problemas ecológicos que se encontraron en la universidad. Con este sistema se facilitó la generación de alternativas de solución con rasgos ambientales que nos permiten disminuir la huella ecológica que actualmente estamos generando. Para concluir, los resultados se elaboraron virtualmente con el modelado de en 2D utilizando AutoCAD y en 3D utilizando Revit con la finalidad de compartir de manera gráfica los resultados y nuestra visión del baño del futuro.


CONCLUSIONES

La escasez de agua en todo el mundo es un problema que cada vez se vuelve más preocupante. Un sistema que ayude a evitar que las aguas residuales de las ciudades contengan heces fecales, tendrá beneficios en los ámbitos ambientales, sociales, agrícola y económico ya que serán únicamente aguas grises    Es importante mejorar la funcionalidad de los baños públicos con una nuevo diseño y mantener la sostenibilidad a medida que se van descubriendo vulnerabilidades. El proceso que se llevó a cabo para diseñar permitió desarrollar una propuesta la cual cumple con las necesidades del usuario. Más adelante se planea trabajar con otras disciplinas médicas, agrícolas y salud para garantizar la seguridad de los estudiantes interesados en la conservación del ambiente. Así mismo, validar la propuesta a través de prototipos funcionales que nos permitan tener un baño público favorable según los requerimientos establecidos.
Sanchez Montoya Karel, Instituto Tecnológico de Toluca
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

SISTEMA DE MOLIENDA PARA EL APOYO DE LA EXTRACCIÓN DE ÁCIDOS NUCLEICOS.


SISTEMA DE MOLIENDA PARA EL APOYO DE LA EXTRACCIÓN DE ÁCIDOS NUCLEICOS.

Sanchez Montoya Karel, Instituto Tecnológico de Toluca. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Dentro de la estancia de investigación del programa de Delfín 2019 realizado en la Universidad de Mar campus Puerto Escondido en Oaxaca se desarrolló un proyecto que sirva de apoyo en el proceso de extracción de ácidos nucleicos. Dentro de los protocolos de extracción de ácidos nucleicos, en la etapa de lisis celular se encuentran métodos mecánicos o químicos para generar la ruptura de la célula, en la mayoría de estos protocolos se utiliza la lisis por medio de métodos mecánicos entre los más comunes es el uso de mortero, pistilo y nitrógeno líquido. En esta etapa se congela la muestra con nitrógeno líquido para molerla en el mortero con la ayuda del pistilo ya congelado previamente permitiendo así obtener un polvo fino. Esta parte del proceso se vuelve complicado cuando es necesario moler un número grande de muestras ya que esto hace que el tiempo de desarrollo se vuelva más largo y complicado, además se deberá de contar con dispositivos adicionales (mortero y pistilo) para la molienda.



METODOLOGÍA

Para poder ayudar a este proceso de extracción se propuso a realizar un sistema que permita la molienda de hasta 96 muestras, este sistema se basa en un contenedor de acrílico y un mecanismo de manivela para transmitir el movimiento realizado por un motor de corriente alterna. El contenedor se diseñó en base a las medidas de la caja de muestras, posteriormente se realizó el diseño del contenedor con Solidworks. El contenedor del dispositivo contará con una tapa que servirá tanto para tapar el contenedor y como método de sujeción para la caja de muestras, el contenedor tiene además unas escuadras que permitirán que la caja de muestras no se mueva dentro del contendor. El elemento que proporcionará el movimiento del sistema será un motor AC de 1500 rpm, el movimiento del motor será transmitido y transformado por un mecanismo biela manivela el cual hará que el contendor apoyado por medio de unas guías laterales suba y baje de manera rápida siguiendo la línea vertical de los ejes. Los planos y modelados del sistema fueron realizados en software de dibujo asistido por computadora, además de que todos los diseños fueron realizados para ser cortados y ensamblados en acrílico de 6 mm ya que este material por su grosor es más resistente y no se romperá con facilidad. El material se cortó por medio de láser para posteriormente ensamblado y ser montado en la base con sus respectivas guías que permitirán que el contenedor siga el movimiento vertical. Dentro de la caja de muestras se colocarán balines que son los encargados de realizar la molienda ya que por medio del movimiento vertical (de arriba a abajo) estos impactarán las muestras congeladas por lo cual destrozarán el tejido y poder generar el polvo que se necesita para la extracción de DNA y RNA.


CONCLUSIONES

En este verano además de aplicar los conocimientos adquiridos en mi carrera, estos fueron aplicados en nuevas áreas o líneas de investigación aplicada, como es el caso en el área de biología molecular, específicamente en diseñar una herramienta para facilitar el proceso de molienda que es una etapa crítica en las extracciones de ácidos nucleicos. Se logró construir un primer prototipo, que da la posibilidad de albergar la caja de muestras y ser acoplado a un sistema de cuatro guías, posteriormente se procesará a realizar modificaciones necesarias por parte del director de dicha estancia.  De esta forma me di cuenta de que la tecnología se puede aplicar en diferentes áreas para poder ayudar a resolver diferentes problemas o mejorar los métodos ya existentes.  
Sanchez Moran Jose Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit

IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT


IMPLEMENTACIóN DE UN SISTEMA DE DETECCIóN DE AMENAZAS INTERNAS MEDIANTE EL USO DE SENSORES BASADOS EN HONEYPOT

Alpizar Martínez Niza Lucero, Universidad Autónoma del Estado de México. García Zamudio José Martín, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Sanchez Moran Jose Angel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Adalberto Iriarte Solis, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los ataques a los servidores conectados a través de internet siguen avanzando con el transcurso del tiempo, los atacantes utilizan diferentes herramientas para extraer información de un servidor de manera que no se vean expuestos a ser descubiertos, por lo cual se utilizan, los sistemas de detección de intrusos las cuales, son herramientas que detectan los ataques evitando que se sigan reproduciendo. Sin embargo, en los últimos años se ha empezado a utilizar la tecnología de honeypot como un sistema de seguridad, los cuales son equipos vulnerables para atraer a los atacantes y analizar las acciones que realizan, es decir, es un servidor falso diseñado para analizar las estrategias de los hackers y de esta manera entrar a un sistema con seguridad mínima con la finalidad de alterar, copiar o destruir los datos, por ejemplo, borrar la información del disco duro del servidor. ¿Para qué sirve? Desviar la atención de los atacantes del sistema para evitar que se comprometa la información de la empresa. Capturan todo tipo de ataques entre ellos virus y gusanos, para analizarlos posteriormente. Conocer nuevas vulnerabilidades y sistemas operativos que tengan riesgo de ser atacados para estudiarlos y evitar ocuparlos. Así mismo, los objetivos principales de este proyecto son los siguientes: Identificar los ataques que se realizan a un servidor en red. Implementar un sistema de detección de intrusos con base al sistema de T-Pot. Clasificar la gran cantidad de datos recolectados por un honeypot. Monitorizar cada uno de los ataques para posteriormente analizarlos y de esta manera evitar su utilización.



METODOLOGÍA

La metodología que se utilizó para la realización de este proyecto se menciona a continuación: Revisión de literatura actual sobre el tema de honeypots. Reconocimiento de las distintas actividades que se pudieran llevar a cabo hacia los sistemas para vulnerarlos. Utilización de herramientas en línea para detectar vulnerabilidades en diferentes páginas web, así mismo, se realizó el escaneo de algunas direcciones IP con la herramienta Nessus en Kali Linux. Investigación de diferentes herramientas y tipos de ataque que se pudieran ejecutar en los sistemas operativos Kali, BlackArch y Parrot para pruebas de penetración y escaneo. Análisis de vulnerabilidades que presentan los equipos escaneados. Búsqueda de información acerca de las herramientas para la implementación del honeypot. Se hizo un estudio acerca de los componentes que incluye el T-Pot y cuáles de ellos serían útil para la implementación. Para la implementación del honeypot se instaló primordialmente en máquinas virtuales para entender el funcionamiento, tomando en cuenta cada una de las características que se requería para su instalación, por ejemplo, el tamaño que necesitaba. Una vez conociendo la instalación y comportamiento en la máquina virtual fue necesario instalar el honeypot en una máquina física con las características requeridas para estudiar su comportamiento de acuerdo con los ataques que recibía. Ejecución de ataques a los equipos de prueba con las herramientas de los sistemas operativos, mencionados en el punto 4.   Análisis de la información generada de los ataques en el T-   Pot siendo una serie de reportes mostrados en un visualizador clasificando las características del ataque. Instalación de una máquina virtual en las plataformas de Amazon AWS y en Google Cloud Plataform para realizar la instalación del T-Pot y observar su comportamiento de acuerdo con los reportes generados. Creación de alertas y generación de reportes en la herramienta Kibanna.  Conforme a los resultados obtenidos se pudieron encontrar la forma de comportamiento que presentan los atacantes y los sistemas atacados, así como la ubicación de donde provienen, sus objetivos, tipos de ataque y los riesgos que presentan.


CONCLUSIONES

La instalación de honeypots en una red permite analizar las acciones que realizan los atacantes para acceder a los sistemas sin comprometer la seguridad de la información real. Así mismo, permitió detectar los equipos donde se produjeron los ataques. El análisis de los ataques producidos en la red realizados con éxito a los equipos trampa generaron reportes que posteriormente se analizaron para obtener resultados más acertados. Con base a los reportes generados se logró identificar los ataques más comunes para extraer información de un sistema. Es importante mencionar que se presentaron algunas complicaciones para la instalación del honeypot, ya que, por cuestiones de la red no se instalaban todos los paquetes por lo que al interactuar con el mismo no arrojaba resultados favorables. Sin embargo, se muestran algunos beneficios que nos ofrece el honeypot. Atrae a los atacantes evitando que muestre interés en otras máquinas que tienen información importante. Se puede ver la actividad de los atacantes que hacen, que información extraen, que es lo que buscan. Predecir el propósito de los intrusos, los métodos de ataques y las herramientas que utilizan. Mejora la seguridad de los servicios dentro de la red. Conforme a las pruebas de penetración se analizó el posible comportamiento que presentaran los atacantes posteriormente. 
Sánchez Olivera Francisco Javier, Instituto Politécnico Nacional
Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico

DISEñO DE MATERIALES COMPUESTOS CON ENFOQUE EN TOLERANCIA AL DAñO


DISEñO DE MATERIALES COMPUESTOS CON ENFOQUE EN TOLERANCIA AL DAñO

Celestin Chesly Junior, Instituto Tecnológico de Pachuca. Sánchez Olivera Francisco Javier, Instituto Politécnico Nacional. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico



PLANTEAMIENTO DEL PROBLEMA

A través de este proyecto se exploraron las variables de diseño para fabricar un material compuesto con un enfoque al modelo de tolerancia al daño de Mao Mahadevan y Shiri. Se exploran los diferentes mecanismos de daño que se pueden presentar en un material compuesto de matriz polimérica y refuerzo de fibras. 



METODOLOGÍA

Se realizaron las pruebas en base a las normas de pruebas ASTM necesarias para llevar a cabo la experimentación en las probetas, a su vez se obtuvieron las propiedades mecánicas y parámetro de fatiga del material. Por último se obtuvo el comportamiento mecánico del material a través de las curvas de esfuerzo-deformación y se implementan los modelos de daño mencionados para obtener las curvas de daño-ciclos de vida. Al final se comparó el comportamiento de tolerancia al daño del material compuesto con el de un material metálico y con resultados de tolerancia al daño en compuestos de otros autores.


CONCLUSIONES

A través de este proyecto se conocieron los diferentes modelos de tolerancia al daño de los materiales compuestos. Se pudo aplicar el modelo de Mao-Mahadevan a las probetas fabricadas para las pruebas, gracias a las pruebas cíclicas también se obtuvo la curva de daño-ciclos de carga. De estas curvas se obtuvo el comportamiento en tolerancia al daño de las probetas, donde se pudieron apreciar las 3 secciones de la curva daño-ciclos de carga en materiales compuesto, se pudo apreciar la zona de grieta de matriz, la delaminación, la desunión de la matriz y fibra y la ruptura de la fibra. También se pudo comprara la curva de daño-ciclos de carga entre un material metálico y uno compuesto donde se apreció la diferencia entre los mecanismos de daño de cada material. Se aplicaron los parámetros establecidos en las normas para poder obtener los resultados esperados de la teoría. Se aplicaron las normas ASTM D3039 y la norma ASTM D3479 para las respectivas pruebas de tensión y fatiga. Se operó la maquina Shimadzu y se operó su respectivo software. A su vez se obtuvieron las variables de diseño para obtener un material compuesto con enfoque a tolerancia al daño. Se aplicaron conceptos para obtener los esfuerzos sobre el material, así como las deformaciones en las pruebas, lo que nos sirvió para obtener la fuerza para la prueba de fatiga. También se obtuvo el daño a través del modelo de Mao-Mahadevan hallando el módulo de elasticidad final de la probeta y el módulo de elasticidad en cada ciclo de carga.  A través del estudio de las pruebas se puede ver como las variables de diseño afectan sobre la tolerancia al daño en el material. A través de las referencias podemos observar que la orientación de las fibras afecta la falla, mientras la orientación de las fibras sea mayor con respecto al eje neutro menor es la tolerancia al daño. La fracción volumétrica de fibra tiene un impacto negativo ya que mientras mayor sea esta menor es la tolerancia al daño, esto se debe a que es menor la distribución de esfuerzos que aporta la matriz.
Sánchez Orbe Daniel, Instituto Tecnológico de Sonora
Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora

AUTOMATIZACIÓN PICTS CON LOCK-IN


AUTOMATIZACIÓN PICTS CON LOCK-IN

Sánchez Orbe Daniel, Instituto Tecnológico de Sonora. Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La utilización de drivers en la automatización de instrumentos mediante LabVIEW es un problema ya que este software se mantiene liberando nuevas versiones mínimamente cada seis meses; siendo que los drivers dependen de la versión de la interfaz serial, para las últimas versiones no existen drivers. Por esta razón se realizó la actualización del software de caracterización de semiconductores de espectroscopia transitoria de corriente foto inducida (PICTS).



METODOLOGÍA

Investigación bibliográfica del tema a tratar. Instalación y configuración inicial de los programas requeridos para la ejecución del software. Elaboración de un video tutorial de instalación y configuración de un microcontrolador auxiliar en el proceso tratado. Prueba inicial con el software ya existente para verificar el desempeño de este. Búsqueda de actualizaciones o parches de los drivers que se utilizaron en el software. Al no existir actualizaciones de driver, se realizó la modificación manual del software utilizando la configuración individual de cada uno de los drivers del programa. Conexión del nuevo programa con los instrumentos de medición. Nuevas pruebas de control para el funcionamiento del software.


CONCLUSIONES

Los distintos elementos que compusieron la metodología requirieron cierto grado de complejidad, ya que se debió seguir de manera exacta cada paso para poder realizar una instalación completa de los softwares y las comunicaciones entre máquina y microcontrolador, principalmente en la elaboración del video tutorial, ya que al estar destinado a la educación no podía existir error alguno. Por otro lado, las pruebas con LabVIEW representaron el mayor problema al haber errores presentes al momento de correr el software, siendo estos incompatibilidades con los equipos de medición o directamente errores internos de compilación. A pesar de haber obtenido los resultados esperados, el uso de drivers y tecnologías ajenos a la de National Instruments debe ser moderada si se pretende evitar errores.
Sánchez Oropeza Francisco Javier, Instituto Tecnológico de Pachuca
Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICRO SERVICIOS DE NOTIFICACIONES PARA LA CALIDAD DEL AIRE EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.


MICRO SERVICIOS DE NOTIFICACIONES PARA LA CALIDAD DEL AIRE EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA.

López Pérez Luis Fidel, Instituto Tecnológico de Pachuca. Sánchez Oropeza Francisco Javier, Instituto Tecnológico de Pachuca. Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey Estudiantes: Francisco Javier Sánchez Oropeza, Instituto Tecnológico de Pachuca francisco_tuzo08@hotmail.com Luis Fidel López Pérez, Instituto Tecnológico de Pachuca Luis.f2.10995@gmail.com PLANTEAMIENTO DEL PROBLEMA La ciudad de México es una de las ciudades más habitadas del planeta lo que ha ocasionado un alto índice de contaminación y sobrepoblación, haciendo esta última que la demanda de uso de transporte sea excesiva, dando como resultado la congestión del tráfico terrestre. Asimismo, para 2019 México desplazaría a Japón del décimo lugar en habitantes. La contaminación atmosférica es un problema tanto local como global que se ve muy repercutido en la ciudad de México, la cual es provocada por la emisión de determinadas sustancias resultantes de sus reacciones químicas como la quema de combustibles fósiles, provocan efectos perjudiciales para el medio ambiente y la salud.   



METODOLOGÍA

METODOLOGÍA Se desarrolló un servicio de notificación que le proporcione al usuario mostrar los índices de la calidad del aire en la zona en la que se encuentra, notificaciones para considerar precauciones a partir del nivel de contaminación que hay en dicha zona de la ciudad, y por último, pero no menos importante, recomendaciones para usuario. La implementación de esta aplicación ayudara a evitar que las personas padezcan de enfermedades o malestares por exposición a altos niveles de contaminación, tomar conciencia de la contaminación ambiental, así como el elegir alternativas de modo de traslado más ecológicas. Para dicho desarrollo lo primero que se realizo fue la Selección del crawler y web scraper para el recopilado de información en Twitter de acuerdo a los siguientes criterios de búsqueda y recopilación (Crear tabla comparativa de las herramientas): Geolocalización (regiones o coordenadas) Keywords Tiempo Usuario (cuenta verificada, antigüedad...) Por lo consiguiente se definió la estructura de la base de datos en MongoDB, con la obtención de una pequeña muestra (100 tweets aprox.) de diferentes tiempos, usuarios y localizaciones para modelar. Para dicha muestra fue necesario hacer una limpieza y preparación de dichos datos, para finalmente integrarlos a base de datos. También se realizó un scraping de la página web oficial de la calidad del aire de CDMX para obtener datos en tiempo real de lo que sucede en las estaciones localizadas en cada una de las delegaciones de la ciudad. Se investigaron algoritmos, herramientas y frameworks para el procesamiento de lenguaje natural, análisis de sentimientos y predicciones, en los lenguajes Java, C, C# o Python Por último, se selección de la tecnología para desarrollar el backend y frontend, para la visualización de la información y servicio de notificaciones a través de una aplicación web progresiva que informe y dé recomendaciones a las personas. Esto fue representado en un semáforo de forma gráfica, de tal modo que muestre al usuario el índice de calidad de aire que hay en la zona en que se encuentra el usuario en la Ciudad de México y zona metropolitana.  


CONCLUSIONES

CONCLUSIONES Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos para la recolección de datos de una red social (Twitter), así como el manejo de ellos en una base de datos no relacional (Big Data), se experimentaron e investigaron nuevas herramientas para el desarrollo del proyecto. En el desarrollo del proyecto se extendió ya que es un tema muy complejo y se tuvieron que usar herramientas previamente no dominadas y conocidas, haciendo esto un obstáculo para la terminación del proyecto.
Sanchez Palma Alan Fernando, Instituto Tecnológico de Pachuca
Asesor: Dr. José Omar Dávalos Ramírez, Universidad Autónoma de Ciudad Juárez

DISEñO Y OPTIMIZACIóN MECáNICA


DISEñO Y OPTIMIZACIóN MECáNICA

Sanchez Palma Alan Fernando, Instituto Tecnológico de Pachuca. Asesor: Dr. José Omar Dávalos Ramírez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

La UACJ participa constantemente en el concurso que consta en construir un vehículo todo terreno para ponerlo a prueba con distintas pruebas, en la que participan distintas instituciones del país para determinar al que represente a México en la competencia internacional organizada por la sociedad de ingenieros automotrices (SAE). Debido a que la construcción de este vehículo es muchas veces más de forma intuitiva que de forma ingenieril. Los componentes de este prototipo antes mencionado son ineficientes, lo que le presenta una gran desventaja contra el resto de los competidores. Para intentar compensar este problema se quiere mejorar el sistema de transmisión, y de esta manera emparejar los marcadores. Pero ante este hecho surge una pregunta: ¿Cómo mejorar el diseño de la transmisión? Permaneciendo dentro de las normas establecidas en cuanto esfuerzos permitidos, vibraciones y deformaciones.  



METODOLOGÍA

Para dar respuesta a la pregunta antes planteada se lleva a cabo un estudio que nos permita determinar el comportamiento de los engranes en el sistema con una serie de actividades en un banco de pruebas que consta de dos engranes (piñón y rueda) como medición de los esfuerzos de los dientes de los engranes a distintas velocidades, prueba de vibraciones mecánicas en los distintos ejes y con las mismas velocidades con las que medimos esfuerzos, pruebas de deformaciones en los ejes.   Todo lo anterior realizado mediante la implementación de distintos sistemas de medición modernos que nos permitirán analizar con mayor detalle los datos arrojados por las pruebas y compararlos entre si con ayuda de los medios digitales. Tales como las películas de presión, las galgas sensores y el acelerómetro capaz de medir en tres ejes distintos.


CONCLUSIONES

Se obtuvo el conocimiento teórico y práctico de cómo usar los medios digitales, junto con su gran capacidad de reducir considerablemente el tiempo que le toma a una persona analizar e interpretar la gran cantidad de datos que se obtienen de las pruebas.   Además, de esta manera nos podemos familiarizar de mejor manera con los artículos extranjeros, así como con el idioma. Lo cual brinda cierta experiencia que no es fácil obtener dentro de las aulas.   Debido a la complejidad de analizar y expresar los datos registrados, no se puede expresar una conclusión por este medio de una forma clara y concisa. Sin embargo, se espera publicar un articulo acerca del estudio que se realizó mostrando de mejor manera los resultados y que este pueda ser de gran ayuda para futuros diseños.        
Sánchez Peña Oscar Alejandro, Instituto Tecnológico de Chilpancingo
Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero

IDENTIFICACIóN DE VULNERABILIDAD DE UN EDIFICIO TíPICO DE LA CIUDAD DE CHILPANCINGO, GRO; MEDIANTE SU ANáLISIS MODAL ESPECTRAL Y DE INTERACCIóN SUELO-ESTRUCTURA


IDENTIFICACIóN DE VULNERABILIDAD DE UN EDIFICIO TíPICO DE LA CIUDAD DE CHILPANCINGO, GRO; MEDIANTE SU ANáLISIS MODAL ESPECTRAL Y DE INTERACCIóN SUELO-ESTRUCTURA

Hernández Casarrubias Natividad, Instituto Tecnológico de Chilpancingo. Sánchez Peña Oscar Alejandro, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero



PLANTEAMIENTO DEL PROBLEMA

La necesidad de saber si una edificación será segura para las personas que la habitarán exige un análisis más realista de su estructura; éste puede llevarse a cabo mediante el análisis modal espectral y la interacción de la estructura con el suelo donde ésta se desplanta. Este tipo de análisis, por su precisión, debería realizarse antes de iniciar la construcción de toda edificación a fin de evitar posibles daños a la estructura y pérdida de vidas en un futuro debido a diversos factores al ocurrir un sismo. Además, debe respetarse el reglamento de construcciones del sitio en el que se está edificando. Con el fin de conocer dicha técnica, durante esta estancia se analizó un edificio de 5 entrepisos, ubicado en el centro de la ciudad de Chilpancingo, con ayuda del programa SAP2000 Ver. 19.  Dicho edificio está catalogado como un edificio de alto riesgo debido a su forma irregular, a su relación de esbeltez y por estar localizado en esquina, lo cual lo hace susceptible de presentar deformaciones excesivas por torsión.



METODOLOGÍA

Para llevar a cabo este trabajo, inicialmente se eligió una edificación de la ciudad que presentara irregularidad en planta. Al no conseguirse sus planos arquitectónicos, se procedió realizar una inspección técnica del edifico que incluyó un levantamiento de sus características geométricas. Dicha información permitió modelar la estructura en el programa SAP2000, para llevar a cabo el análisis dinámico modal usando el espectro de diseño recomendado para el suelo tipo II de la ciudad de Chilpancingo. Posteriormente, se propusieron los casos de carga y sus respectivas combinaciones, empleando los valores de las cargas vivas y muertas recomendadas por el reglamento de construcción vigente. En el primer caso analizado, se realizó el análisis modal espectral de la estructura como suelen efectuarse comúnmente los análisis típicos: Se le consideró empotrada al suelo. Esto significa erróneamente, que la estructura está desplantada en suelo infinitamente rígido, siendo que en realidad el suelo en el sitio es medianamente blando. Al ejecutar el análisis, se obtuvieron los modos de vibrar de la estructura, al igual que los desplazamientos que ésta tendría bajo una condición que no representa fielmente las características del suelo. Tal situación suele considerarse como válida en los análisis que no consideran la interacción suelo-estructura. En el segundo caso analizado, y empleando el modelo de la estructura del primer caso, se adicionó la cimentación, utilizando contratrabes y zapatas. A fin de modelar al suelo se agregaron, bajo la cimentación, un conjunto de resortes verticales a los cuales se les aplicó una rigidez axial calculada a partir del coeficiente de balasto del suelo. Finalmente, el modelo fue analizado y se obtuvieron los modos de vibrar, al igual que los desplazamientos que el edificio tendría en este caso. Una vez realizados los análisis citados, se compararon los resultados obtenidos en ambos modelos, tanto en los modos de vibrar como de los desplazamientos máximos de la estructura bajo solicitación sísmica.


CONCLUSIONES

El estudio realizado permitió identificar que el análisis de una estructura en la que se considera al suelo infinitamente rígido no es representativo de la situación real. El no dar la debida importancia que merece la representación fiel del comportamiento del suelo donde se encuentra desplantada la construcción puede ser fuente de errores importantes: Por ejemplo, la comparación de ambos casos permitió observar que el desplazamiento lateral en algunas zonas del modelo que toma en cuenta la interacción suelo-estructura (con resortes verticales), puede ser de hasta el doble del que se obtiene con el modelo con apoyos empotrados. Se observó también que las formas modales no cambian mucho, pero sí cambian los valores del periodo de vibrar. El valor del período fundamental considerando un empotre perfecto fue de 0.56618, mientras que en el caso del modelo con interacción suelo-estructura resultó de 0.8586. La diferencia resultó de 151.6%. Esto significa que el segundo modelo permite obtener un comportamiento más apropiado de la edificación. Además, el análisis detallado de los elementos mecánicos y el nivel de esfuerzos de cada uno de sus miembros permite determinar en conjunto con mayor precisión, si la edificación pudiera presentar daños futuros en caso de una solicitación sísmica extraordinaria.
Sanchez Rivera Victor, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: Ing. Jhon Haide Cano Beltrán, Universidad Cooperativa de Colombia (Colombia)

USABILIDAD Y ACCESIBILIDAD PARA ENTORNOS VIRTUALES DE APRENDIZAJE


USABILIDAD Y ACCESIBILIDAD PARA ENTORNOS VIRTUALES DE APRENDIZAJE

Sanchez Rivera Victor, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Ing. Jhon Haide Cano Beltrán, Universidad Cooperativa de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La usabilidad se refiere a la forma como un humano interactúa con cualquier producto, esta interacción puede ser evaluada y calificada (Lowdermilk, s. f.). Según la  ISO (International Organization for Standardization) 9241-11(ISO, 1998) la usabilidad se define como  el grado en que un producto puede ser usado por ciertos usuarios para alcanzar un objetivo tomando como criterios de medición la efectividad, la eficiencia y la satisfacción.  De manera general hay 4 tipos de pruebas que permiten evaluar la usabilidad para interfaces de usuario: (1) las técnicas de análisis formal, (2) los procedimientos automáticos, (3) la experimentación empírica con pruebas de usuarios y (4) las evaluaciones heurísticas por revisión de la interfaz.   Los principios de usabilidad pueden utilizarse para validaciones al final de la elaboración de un producto generando altos costos de mantenimiento y corrección o desde las etapas iniciales de desarrollo.   El Diseño Centrado en el Usuario (DCU) propone una metodología que implementa los elementos de usabilidad desde las etapas tempranas de desarrollo, donde las interfaces se realizan a partir del conocimiento de las habilidades y necesidades de los usuarios, logrando disminuir errores y aumentando la productividad a través de la aceptación y satisfacción al interactuar con la aplicación.(Marcos, 2001). Los entornos de aprendizaje virtual son una herramienta de alcance proporcionalmente amplio, y esto favorece a quien desea aprender de manera virtual, dando a conocer como resultados que, en efecto los entornos son bastante significativos para el buen aprendizaje, es decir, que los alumnos recabaron más información pues la información está ahí siempre, y nutrieron más los conceptos pues los entornos son dinámicos llevando así el interés de aprender. Además de que su desarrollo del pensamiento espacial y variacional se vio mucho más afectado con respecto a la interacción en este tipo de entornos. Siendo una respuesta muy positiva el jugar con ellos al momento de aprender.



METODOLOGÍA

Se realizó una indagación sobre la usabilidad y su origen la cual la mayoría de los autores la define como facilidad de uso que tiene una página web, un programa o sistema virtual, pero no todos ellos extienden el concepto a grupos de personas, aunque individualmente ha funcionado hasta el momento, en la indagación se percató de que  existen estos pocos autores que lo enfocan a entornos de grupos compartidos, algunos para ambientes de realidades virtuales, otros para entornos de aprendizaje, pero el enfoque que se da es el mismo, que la facilidad de uso no sea vaga, sino que sea compartida simultáneamente. Con ello vienen las métricas o medidas, las cuales son puntos a evaluar, es decir, que con ellas se verifican si existen en el entorno o no. Estas se deben usar para un buen funcionamiento de un Ambiente/Entorno Virtual de Aprendizaje (AVA/EVA). Por lo que las métricas aceptadas fueron una recolección de varias que ya se habrían postulado para páginas web y aprendizaje automático, sin embargo, la recolección fue reestructurada para conjuntar varias por métodos de clasificación teóricos propuestas por el modelo CALED, algunas otras sacadas con anterioridad de proyectos propios del investigador. Sin embargo, estas métricas al momento de ser usadas no se harían de forma cualquiera, sino que el método de empleo se basa en primera parte en segmentos o sectores los cuales son: tecnología, facilidad de aprendizaje, manejo de errores, formación, diseño instruccional, confiabilidad y servicios o soporte, en segundo, con respecto al modelo de seguimiento los pasos son: Recopilación de datos de los usuarios. Introducción de las métricas, (ver cuales existen y cuales no). La evaluación de esta se da por la escala de Likert, es decir, cada sector debería tener un valor mínimo de 4 puntos, máximo 5 para que el sector fuera usable, o bien satisfactorio. Aun después de esto, el valor total de los sectores debe cumplir con la misma regla. En dado caso que algún sector no alcanzara los 4 mínimo entra a un proceso de mejoramiento, referido a Machine Learning. El modelo que se elige para mejorar el sector se basa en una red neuronal que permita elevar ese porcentaje hasta que sea satisfactorio, corrigiendo errores y potenciándolo. Entre el modelo de la red neuronal, sus pasos internos son: Calcular el índice de severidad. Aplicar el análisis de Pareto.  Esta separa los problemas más fuertes de aquellos sin importancia, mediante el principio 80-20 (pocos vitales, muchos triviales). Mejorar el sistema de eLearning. Volver a iniciar con recopilación de datos, hasta ser satisfactorio. Sin embargo, siendo una red neuronal, se pretende que solo se dé una primera vuelta. La forma en la que se pretende evaluar los entornos son con una página web, programada en PHP.


CONCLUSIONES

Tanto usabilidad, como entornos virtuales de aprendizaje no son relativamente nuevos, a decir verdad, los AVA, están empezando como auge, al igual que el uso de las redes neuronales con aprendizaje propio, pero no porque no sean provechosas, sino que aún el conocimiento y herramientas es vago. Aun con esto, los AVA son sistemas que permiten adecuarse a un usuario o a un grupo de usuarios para constante aprendizaje, pero existen pocas formas de que estos entornos funcionen en su totalidad y se adecuen a cualquier aprendiz, por lo que una respectiva evaluación heurística por medio de usabilidad pretende dar esa explosión de ver si es satisfactorio ese sistema, con base a la escala de Likert., y corregidas o potenciadas con una red neuronal capaz de potenciar la severidad de lo que haga falta.
Sánchez Rodríguez Eloísa Denise, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

IMPLEMENTACIóN DE PROTOCOLO DE PRUEBAS ASTM PARA CARACTERIZACIóN DE BIODIESEL


IMPLEMENTACIóN DE PROTOCOLO DE PRUEBAS ASTM PARA CARACTERIZACIóN DE BIODIESEL

Sánchez Rodríguez Eloísa Denise, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La metodología utilizada se basa en la selección entre los numerosos trabajos de tipificación y caracterización de aceites y biodieseles, asociados a las normas ASTM Internacionales; son reconocidas por el Acuerdo de la Organización Mundial del Comercio (OMC) sobre Obstáculos Técnicos al Comercio (OTC), éste creó reglas para las medidas de normalización que México, como miembro de la OMC, debe cumplir con el fin de evitar obstáculos innecesarios al comercio internacional; cuya fiabilidad está relacionada con la representatividad de las muestras de aceite y biodiesel analizadas. Pero debido a que no todas las normas y /o técnicas de laboratorio están al alcance por la falta de equipos, material de laboratorio y reactivos; y además, hay una extensa gama de éstas, para caracterización de aceite y biodiesel, es necesario hacer una selección tomando en cuenta que sean económicas, eficientes y de fácil interpretación de resultados.



METODOLOGÍA

RECEPCIÓN DE ACEITE Para llevar a cabo la experimentación de este trabajo se usaron diferentes aceites: de piñón, de sargazo y comercial. CARACTERIZACIÓN FISICOQUÍMICA DE ACEITE Cromatografía en placa fina Valor ácido. Índice de yodo. Humedad y materia volátil. Punto de humeo. Punto de inflamación. Densidad a 15 °C. Índice de saponificación Índice de peróxidos. ELABORACIÓN DE BIODIESEL CON EL MÉTODO DE CATÁLISIS BÁSICA EN REACTOR. Elaborar  biodiesel a partir de los  triglicéridos, con el método de catálisis básica. Se prepara la solución de metóxido de sodio: calentamiento con agitación constante de metanol a temperatura de 50 - 60°C y adicionando hidróxido de potasio hasta su disolución. Se calienta el aceite a temperatura de 50 - 60 °C, y posteriormente, se adiciona  a la solución de metóxido de sodio. Se calienta con agitación constante la mezcla anterior, regulando la temperatura entre 50 - 60 °C, durante 2 h. Se coloca en un embudo de separación durante 24 h o hasta la formación de fases. CARACTERIZACIÓN FISICOQUÍMICA DE BIODIESEL. Cromatografía en placa fina Humedad y materia volátil. Punto de humeo. Punto de inflamación. Densidad a 15 °C. Índice de cetanos.


CONCLUSIONES

La selección de normas y/o técnicas de laboratorio se lleva a cabo tomando en cuenta que sean económicas, eficientes y de fácil interpretación de resultados. Los parámetros medidos del aceite, están dentro de los límites máximos permisibles de las normas ASTM correspondientes. Se propone el método de transesterificación como una aplicación importante para producir biodiesel a partir de aceites vegetales. Los parámetros medidos del biodiesel, están dentro de los límites máximos permisibles de las normas ASTM correspondientes.
Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional
Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)

IMPLEMENTACIóN DE PROTOCOLOS DE CARACTERIZACIóN BIOTRIBOLóGICA DE BIOMATERIALES


IMPLEMENTACIóN DE PROTOCOLOS DE CARACTERIZACIóN BIOTRIBOLóGICA DE BIOMATERIALES

Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Juan Muñoz Saldaña, Centro de Investigación y de Estudios Avanzados (IPN)



PLANTEAMIENTO DEL PROBLEMA

Los cerámicos son materiales cuya mayor desventaja son las pobres propiedades mecánicas que poseen. Entre las propiedades mecánicas podemos encontrar dureza, tenacidad, fragilidad etc. Por otro lado, la tribología, estudia los fenómenos de la fricción, desgaste y lubricación que tienen lugar durante el contacto entre superficies solidas en movimiento. El estudio de las propiedades tribológicas y mecánicas de los materiales es de gran importancia para el éxito en el diseño de piezas y mecanismo, a fin de evitar deformaciones, fisuras y desgaste de los componentes. Las cerámicas bioactivas producen un enlace químico directo con los tejidos; el exponente más importante de esta familia está dado por la hidroxiapatita (HAp), la cual es un fosfato de calcio (Ca10(PO4)(OH)2), el cual es biocompatible con los tejidos vivos y posibilita su uso en varias aplicaciones médicas. Se pueden incorporar iones de diversos elementos a su estructura buscando la sustitución  iónica o intersticial en las redes cristalinas para otorgarle otras propiedades. En la literatura podemos encontrar una gran cantidad de artículos que reportan el uso de plata, zinc, hierro entre otros, para dopar la HAp mediante sustitución catiónica. Estos reportes se centran en la biocompatibilidad, osteoconductividad, actividad microbiana y citotoxicidad. Menos estudiado es el lantano (La). El óxido de lantano (La2O3) es muy atractivo por los excelentes resultados referentes a las mejoras de las propiedades mecánicas, citocompatibilidad, biocompatibilidad y propiedades bactericidas en HAp. El cerio (Ce) es una tierra rara del grupo de los lantánidos con propiedades atómicas parecidas a las del lantano, los óxidos de cerio (Ce2O3 o CeO2), han presentado buenos resultados en cuanto a citocompatibilidad y propiedades antibacterianas. Los radios iónicos de Ce3+ y Ce4+ son 1.03 Å y 0.92 Å, el radio iónico del La3+ es 1.06 Å y del Ca2+ es de 0.99 Å. Las electronegatividades de estos elementos son 1.12 para el cerio, 1.1 para el lantano, y 1 para el calcio. Es posible obtener la sustitución de la HAp, entre los iones de Ce y La en el calcio. Adicionalmente se ha encontrado que este elemento otorga propiedades bactericidas, lo cual es bastante útil para aplicaciones biomédicas.



METODOLOGÍA

La HAp utilizada en los experimentos es de origen biológico (BHAp), obtenida de huesos de bovino. Los huesos se sometieron a la remoción de fluidos corporales y tejidos adheridos. Posteriormente, los huesos fueron triturados y sometidos a un tratamiento para la eliminación de grasa y el material orgánico restante. El polvo obtenido fue clasificado a partir de tres tamices con las mallas 100, 270 y 325, el polvo de la malla 270 es ingresado al Molino planetario RETSCH 400 para reducir el tamaño de la partícula y llevarlo a tratamiento químico junto con el polvo del fondo del tamiz y el polvo resultante de la malla 325, de manera siguiente se lleva a tratamiento térmico para obtener la Bio Hidroxiapatita. Finalmente, para hacer el polvo optimo para el proceso de prensado se introduce el polvo al Molino de alta energía SPEX 8000D. De manera inicial se propuso un estudio de factibilidad usando un diseño experimental 23, el cual plantea mezclas en estado sólido de BHAp/Ce (BHAp/Ce dopada con CeO2) y BHAp/La (BHAp/La dopada con La2O3) en una concentración 2%wt, las mezclas se realizaron en un Molino de alta energía SPEX 8000D y mortero. Posteriormente los polvos se prensaron a 2 Ton de presion en un dado de 10 mm de diámetro y 0.3 g por muestra en la Prensa Hidráulica YLJ-24TS. Las muestras obtenidas son a sinterizadas a 1200 oC por 4 hrs a una velocidad de calentamiento de 5 oC/min y una velocidad de enfriamiento de 10 oC/min en una mufla Thermolyne BIO. Finalmente se someten a prueba de Difracción de Rayos X (DRX) para verificar la presencia de las fases de óxido de cerio y óxido de lantano, tamaño de cristalita y determinar si existe el dopaje. Con base en los resultados obtenidos en el estudio de factibilidad, se realizó un nuevo diseño de experimentos variando el porcentaje de dopante de 2%wt a 0.2%wt y 0.5%wt, tiempo de sinterizado a 2 y 4 hrs con una velocidad de calentamiento de 5 oC/min y una velocidad de enfriamiento de 10 oC/min. El método de mezclado se llevó acabo únicamente en Molino de alta energía SPEX 8000D durante 15 minutos. Las muestras resultantes se analizarán por DRX y SEM (Scanning Electron Microscope) este último mediante micrografías y análisis elemental (EDS).


CONCLUSIONES

El tratamiento de los datos de los obtenidos por la técnica de DRX (BHAp pura, BHAp/Ce, BHAp/La, polvo de BHAp calcinado y BHAp sometida al Molino de alta energía SPEX) se llevó a cabo usando el software X’PERT para identificar las fases de la BHAp y el dopante correspondiente a la muestra analizada, luego la información es procesada en GSAS mediante la técnica de Refinamiento Rietveld, con los resultados que arroja el software es posible para determinar el tamaño de cristalita.  De esta manera es posible observar los cambios en los parámetros de red de la BHAp dopada y BHAp pura, además de determinar el método de mezclado y las condiciones de tiempo de sinterizado que favorecen la sustitución iónica de los dopantes. De las micrografías obtenidas en el SEM se espera observar el tamaño del grano estructura homogénea; la homogeneidad indica la sustitución de óxido de lantano u oxido de cerio III en la estructura de la BHAp y el tamaño del grano se ve afectado por el tiempo de sinterizado, esperándose un grano de mayor tamaño en las muestras sinterizadas 4 hrs. En caso de no lograr el dopaje se observarán partículas segregadas de dopante en la matriz de la muestra. En el EDS se busca encontrar la composición química de la hidroxiapatita y trazas de los dopantes.
Sánchez San Juan Henrry Alejandro, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Irma Martínez Carrillo, Universidad Autónoma del Estado de México

MANUAL DE OPERACIóN DE PLC


MANUAL DE OPERACIóN DE PLC

Sánchez San Juan Henrry Alejandro, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Irma Martínez Carrillo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Actualmente en la industria se usan controladores lógicos programables (PLC) para la automatización y control de procesos industriales. En la industria existen gran variedad de marcas distribuidoras de PLC’s así como periféricos, entre las marcas más reconocidas se encuentran: SIEMENS, MITSUBISHI, TEXAS INSTRUMENTS, Allen Bradley, etc. Hoy en día en las instituciones educativas se imparten materias que familiarizan a los alumnos con el uso de los PLC y su utilidad en la industria, ya que para su utilización se deben de tener conocimientos en programación, circuitos eléctricos y en algunos casos, conocimientos de neumática e hidráulica. Por tal motivo, durante el verano de investigación se realizó un manual de uso de 2 PLC con el fin de que cualquier persona con los conocimientos mínimos en el tema pueda realizar una práctica en el PLC



METODOLOGÍA

Para la realización del manual de operación se procedió a identificar el tipo de PLC y el software de programación del mismo, además se aprendió a programar en lenguaje ladder o escalera ya que los PLC a utilizar se programan en este lenguaje. Primero analizamos un PLC de la empresa SIEMENS de la serie s7-200 el cual se programa en el software STEP7. Para familiarizarnos con este PLC se realizaron varias prácticas con elementos neumáticos y eléctricos, entre ellos: sensores, botoneras, luminarias, válvulas electro neumáticas, actuadores de siempre efecto y doble efecto. En cuanto a la programación se aplicaron las siguientes instrucciones y elementos: contactos normalmente abiertos, contactos normalmente cerrados, marcas y temporizadores. La aplicación de los temporizadores es con la finalidad de crear secuencias con tiempos exactos. El PLC con el que trabajamos estaba integrado a un módulo que conectaba sus entradas y salidas digitales por medio de cables de comunicación, por lo que sus entradas y salidas estaban en módulos separados. Además este PLC necesitaba ser alimentado por una fuente externa de 24vcc. El programa STEP7 provee de las herramientas necesarias para el desarrollo de la programación y cargar el programa al PLC es algo sencillo. El segundo PLC que se analizo fue un PLC de la marca SIEMENS de la serie LOGO! el cual estaba incluido en un módulo que contenía 4 luminarias, y 2 botones de uso común y un botón de paro. Este PLC fue programado en el software LOGO! Soft Comfort, este PLC se comunica con la maquina por un cable Ethernet. En este PLC también se utilizaron las instrucciones básicas como contactos, botones y temporizadores. Posteriormente se procedió a la realización del manual en el cual se explica detalladamente el proceso de puesta en marca de cada PLC, la forma de programar y como cargar el programa al PLC, además de cómo se deben realizar las conexiones de los periféricos así como su configuración para que todo funcione correctamente. Además se incluyeron 2 prácticas en para cada PLC de baja dificultad con el propósito de adentrar en el tema y practicar de forma sencilla el uso de los PLC.


CONCLUSIONES

En este verano de investigación se lograron adquirir conocimientos en eléctrica, neumática, programación en escalera y el uso de PLC combinado con elementos neumáticos. El manual se puso a prueba en solo una etapa en donde se observaron algunos puntos en los cuales el manual no cumplia con los elementos suficientes para poder realizar las practicas con éxito, después de estas pruebas el manual se sometió a corrección y aclaración en los puntos donde era necesario, debido a la falta de tiempo el manual no se pudo volver a poner a prueba y no se puede mostrar si el manual funciona perfectamente. Se espera que el manual sirva como guía para la realización de las prácticas, y si este tuviera algún punto en el cual el usuario no entienda, se pueda resolver mediante la ayuda de alguien con experiencia en el tema, ya que al realizar un manual de uso para PLC y que este sirva para las personas que no tiene conocimientos en el tema es una tarea un tanto complicada.
Sanchez Sanchez Lizbet, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)

ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.


ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.

Cabral Berumen David Gabriel, Universidad de Guadalajara. Sanchez Sanchez Lizbet, Tecnológico de Estudios Superiores de Jocotitlán. Vazquez Rico Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)



PLANTEAMIENTO DEL PROBLEMA

  La creación de un centro de distribución (CEDI) tiene como objetivo principal almacenar productos terminados para poder hacerlos llegar a su destino final, de la manera más efectiva, rápida y económica posible, permitiéndole a las empresas mantener a los clientes permanentemente y adecuadamente abastecidos según las políticas de servicio al cliente y de acuerdo a los exigentes requerimientos del mercado. Pero las circunstancias que enfrenta Bogotá resultan interesantes ya que como primer paso se revisó bibliografía donde se pudo establecer la existencia de restricciones de horarios, tipos de carros, vialidad, concentración de tráfico, capacidades de mercancías al transportarse por el interior, calles, avenidas y carreteras adyacentes a la ciudad. Las distintas empresas del sector de bebidas cumplen con estas restricciones, pero se ven afectadas pues circulan a mitad e incluso menos de la mitad de la capacidad a transportar de mercancías en los diferentes tipos de vehículos que utilizan. Además, se observa una alta congestión vehicular a determinadas ventanas horarias en el día, de manera que los desplazamientos para realizar sus entregas, las restricciones para cada tipo de transporte, las capacidades, las normas de vialidad, etc hacen menos eficiente el sistema de distribución de mercancías.  



METODOLOGÍA

Revisión de material bibliográfico para conocer y entender las tendencias de logística urbana en la ciudad de Bogotá. Después de esto, se analizó y depuró una base de datos obtenidos en una encuesta que permitió visualizar el tipo de carro, nivel de carga, frecuencia e intensidad de las cargas que circulan de los orígenes a los diferentes destinos, así como el impacto ambiental. Posteriormente, para comprender el estado actual de la distribución urbana de mercancías se utilizó Google Earth donde se localizaron y capturaron las rutas de orígenes a destinos, así como el tiempo de traslado de mercancía, posterior a esto en el software ArcGis se exportó la información y se colocó en un mapa de la ciudad visualizando las zonas con mayor concentración y flujos de mercancía. Se observó, que las rutas coincidían en cierta zona, se dedujo que es factible colocar un CEDI que permite mejorar la movilidad de mercancías cumpliendo con los requerimientos que existen dentro del mercado, así mismo permitirá tener un mayor control de las flotas, capacidades y calidad del producto. Se prosiguió a determinar el cálculo de latitud y longitud de los zat tanto de origen como de destino para encontrar un punto intermedio que servirá para instalar el CEDI, se hizo uso del método de centro de gravedad. Una vez que se obtuvo la localización se buscó una cobertura de atención al mercado en un rango de 3.5 kilómetros en consecuencia, las coordenadas obtenidas marcaban una zona donde difícilmente se pudiera construir una bodega, se tomó en cuenta las restricciones de construcción, permisos y localización de almacenes, así como espacios donde los tipos de vehículos que accedieran pudieran circular respetando las normas de vialidad.  Colocar el CEDI da diferentes ventajas competitivas sostenibles por ejemplo mayor cercanía para tratos con intermediarios, acertado empleo de recursos tecnológicos y humanos, reducción de pérdidas debido a la manipulación o vencimientos, cumplimiento y buenas relaciones entre el productor y el cliente. A través de la base de datos y de la localización del CEDI se entendió que los vehículos de transporte requerían nuevas rutas dentro del área analizada. Para lograr establecer dichas rutas se volvió a utilizar Google Earth y se registraron los nuevos datos en ArcGis creando mapas de visualización que permitieran obtener información de localización y control de las mercancías.  Además, con un cambio en la flota de los automóviles se maximiza el uso de los vehículos cargándolos a su máxima capacidad y se disminuye la cantidad de éstos. Al disminuir la cantidad se optimiza el tráfico de vehículos, por consecuente los tiempos de traslado se reducen y las emisiones de  a la atmósfera también. Ya con las rutas principales analizadas, la localización del CEDI, el nuevo ruteo establecido, la flota de camiones actual y con una nueva flota mejorada se filtró la información con la ayuda del programa Excel y se llevó a cabo un análisis para destacar las mejoras y plantearlas a través de gráficos donde la percepción fuera comprensible y concreta. Estos gráficos expresan particularmente el desarrollo del proyecto, lo cual nos ayuda a diferenciar las situaciones iniciales de las situaciones mejoradas, gracias a la propuesta de establecer un CEDI y optimizar el número de transporte requerido.    


CONCLUSIONES

Durante nuestra estancia de investigación logramos adquirir conocimientos teóricos sobre la logística y gestión de operaciones en el sector urbano, ponerlos en práctica con el control y manipulación de software como ArcGis, Google Earth y la paquetería de Microsoft Office. Con el análisis se obtuvo una perspectiva más amplia de los problemas que se enfrentan en la distribución urbana considerando todos los factores que influyen dentro del sistema de distribución de mercancías, disminuyendo los costos de transporte, mayor control de la demanda, menos emisiones de CO2 a la atmósfera y abastecimiento a través de la implementación de un CEDI. Gracias al programa Delfín y a la línea de investigación guiada por la M.C Leila Nayibe Ramírez Castañeda docente de la Universidad Libre de Colombia sede Del Bosque se pudo obtener diversos conocimientos sobre la aplicación de software aplicados a la logística y a la distribución urbana, así como también el desarrollo de modelos para la toma de decisiones y planificación de cadenas de entrega tomando en cuenta indicadores ambientales, sociales y económicos
Sánchez Sánchez Orlando Miguel, Instituto Tecnológico Superior de Los Ríos
Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez

IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA


IOT-GRASS: APLICACIóN DEL IOT EN LA AGRICULTURA

Aguilar Rosas Leonardo Adrián, Instituto Politécnico Nacional. Cancino Escobar Manuel de Jesús, Instituto Tecnológico de Tuxtla Gutiérrez. Palma Alvarez Miguel Arturo, Instituto Tecnológico Superior de Los Ríos. Sánchez Sánchez Orlando Miguel, Instituto Tecnológico Superior de Los Ríos. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Hoy en día resulta una tarea algo compleja el conocer con exactitud el momento adecuado para cambiar un rebaño de un terreno, pero, ¿Por qué decimos eso? Bueno, se entiende que para mantener un rebaño en un determinado terreno se debe contar con una pastura en cantidad y calidad, para que así el rebaño tenga el alimento suficiente, y en buen estado, ¿En qué momento se requiere cambiar el rebaño de terreno? La respuesta es cuando ya no existe la pastura suficiente para alimentarse, y, ¿Qué me puede ayudar a saber eso?, como una solución surge este proyecto que consiste en realizar un sistema digital encargado de analizar la pastura del terreno a través de imágenes, así es, estamos hablando del procesamiento de imágenes ¿Por qué usarlo? Con el sistema se podrá obtener la información necesaria para determinar la cantidad de pastura buena que queda en el terreno y esa información podrá ayudar a tomar la decisión de cambiar al rebaño en el momento correcto.



METODOLOGÍA

Obtención de imágenes Las imágenes son obtenidas con la ayuda de un teléfono celular, el cual se coloca a los borregos en el cuello, el teléfono cuenta con una aplicación previamente programada para tomar una cantidad de 30 imágenes con un lapso de tiempo entre la captura de cada imagen de 2 minutos aproximadamente. El proceso de la toma de las imágenes tiene un tiempo estimado de 1 hora, al finalizar el proceso una persona encargada recogerá los teléfonos para extraer las imágenes en un ordenador para realizar el procesamiento de las imágenes.   Procesamiento y Análisis de las imágenes Cuando de procesamiento de imágenes se trata, estamos hablando de un sistema o programa lo bastante complejo para dicha tarea, en la actualidad hay lenguajes de programación que permiten hacer este tipo de actividades, un ejemplo de ellos lo es Matlab, Python, entre otros; en este proyecto se está utilizando Python debido a que brinda herramientas más adecuadas para las tareas que se necesitan realizar en el proyecto. Las imágenes se someten a un programa realizado en Python que se encarga de obtener la ubicación GPS de donde fueron tomadas, de igual forma analiza las imágenes y las divide por canal RGB, posteriormente realiza un análisis estadístico para determinar la tonalidad de cada canal/color y con ello se establece un rango con el que se puede determinar el estado de la pastura. Como parte final, el código guarda la información en archivos TXT para ser enviados a la nube.


CONCLUSIONES

Contando con las herramientas necesarias para la culminación del proyecto, se realizaron una serie de pruebas tomando las fotos directamente desde el teléfono sujetado al cuello del borrego para poder observar la calidad de las imágenes tomadas. De la misma manera se llevó a cabo el análisis de las imágenes mediante el sistema realizado donde se obtuvieron resultados dando la ubicación geográfica de la imagen, el estado de la pastura, y mediante estos datos se pudo calcular de manera porcentual el estado de la muestra de terreno que se ocupó para realizar una primera prueba de este proyecto donde los datos obtenidos fueron enviados a la nube para ser consultados por el usuario y tomar mejores decisiones.  
Sanchez Toledo Jesus Ivan, Universidad Politécnica de Sinaloa
Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa

EL PERFIL LOGíSTICO Y TRANSPORTE DEMANDADO POR LAS EMPRESAS DE MAZATLáN, SINALOA.


EL PERFIL LOGíSTICO Y TRANSPORTE DEMANDADO POR LAS EMPRESAS DE MAZATLáN, SINALOA.

Sanchez Toledo Jesus Ivan, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La falta de conocimiento e investigación de los perfiles que las organizaciones en Mazatlán demandan en sus trabajadores por parte de los estudiantes de licenciaturas o ingenierías en logística y carreras afines los hacen llegar al mundo laboral con escazas competencias que ofrecer o competencias que no son demandadas por las empresas del puerto. Debido a esto se busca encontrar el perfil idóneo del logístico en Mazatlán; se buscará a partir del análisis de resultados los planes de capacitación, aptitudes, competencias e idiomas necesarios para desarrollar un perfil competente en el mundo laboral de Mazatlán, Sinaloa.



METODOLOGÍA

Se utilizó como instrumento de investigación, una encuesta, la cual es una Metodología Cuantitativa ya que se busca obtener datos precisos (números), se llevará a cabo por una investigación Descriptiva, ya que se buscará un solo objetivo, se obtendrán los datos de primera mano, para posteriormente realizar un análisis de los resultados.


CONCLUSIONES

De la presente investigación se logró recopilar y analizar los datos obtenidos del instrumento de investigación que fue una encuesta aplicada a más de 60 empresas en la región de Mazatlán, Sinaloa, en los puntos de capital humano, innovación, logística y competencias profesionale, detectando que la planeación, trabajo en equipo, habilidades de comunicación y desarrollo humano son indispensables en el peril profesional general y en el perfil logístico las competencias de control de costos operativos, gestión de inventarios y almacenes, asi como la administración de compras y proveedores,  gracias a esta investigación me permitió conocer más acerca de las competencias demandadas actualmente en la región y generar un perfil logístico idóneo. Me permitió acercarme al ámbito de la investigación e interesarme más por él.
Sánchez Tovar Ricardo, Instituto Tecnológico de Tepic
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)

CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)


CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)

Ambriz Fregoso Carlos Alfredo, Instituto Tecnológico de Tepic. Martinez Ulloa Ana Patricia, Instituto Tecnológico de Tepic. Sánchez Tovar Ricardo, Instituto Tecnológico de Tepic. Sedano Cabanillas Angel Ivan, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas que enfrenta en la actualidad la industria de la construcción es el impacto ambiental provocado por el crecimiento poblacional y demanda de mayores espacios de vivienda e infraestructura en general. Dentro de los impactos se destacan: la disminución de los recursos naturales, la generación de residuos y la contaminación en general. Lo anterior, origina grandes desafíos para la industria desde ámbitos como la sostenibilidad y una economía circular de los materiales y residuos.



METODOLOGÍA

Para alcanzar el objetivo propuesto se plantea el siguiente proceso metodológico experimental: 1. Revisión de estudios a nivel mundial sobre el uso del RCD y la EHAE en la construcción. Se hará una búsqueda en las principales revistas científicas indexadas sobre la utilización de estos residuos en materiales a base de cemento. 2. Caracterización de los materiales para la fabricación de concreto. 3. Con los materiales estudiados, que deben cumplir con la norma indicada para la producción de concretos y morteros, se realizará el diseño de mezcla de concreto de resistencia normal según el método del ACI 211.1. 4. Fabricación de concretos con remplazos parciales (20% y 50%) de agregado grueso por RCD y EHAE, para así establecer sus propiedades en estado fresco. 5. Determinación de las propiedades en estado endurecido (resistencia a compresión, resistencia a tracción y absorción), a los 7 y 28 días, de los concretos fabricados.


CONCLUSIONES

Los residuos afectan la trabajabilidad del concreto, pues a medida que se incrementa el % de reemplazo, disminuyó el asentamiento. El reemplazo de agregado grueso por RCD en 20% produjo a los 7 días un incremento de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 20% tuvo un efecto positivo pues aumentó, tanto la resistencia a la compresión a los 7 días, como la resistencia a la tracción. El reemplazo de agregado grueso por RCD en 50% produjo a los 7 días una disminución de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 50% aumentó la resistencia a la compresión a los 7 días, y disminuyó la resistencia a la tracción. Finalmente, se concluye que los residuos han demostrado ser una alternativa técnica viable para la fabricación de concretos sostenibles.
Sanchez Ustoa Yessica, Universidad Autónoma de Baja California
Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo

DISEñO DE MORTEROS BASE CEMENTO CON ADICIONES DE ALMIDóN DE MAíZ Y ALMIDóN DE ARROZ.


DISEñO DE MORTEROS BASE CEMENTO CON ADICIONES DE ALMIDóN DE MAíZ Y ALMIDóN DE ARROZ.

Sanchez Ustoa Yessica, Universidad Autónoma de Baja California. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Un mortero para la construcción es el material formado por la mezcla de uno o más cementantes, arena, agua, y eventualmente aditivos o adiciones finamente pulverizadas (piedra caliza, arcilla, puzolana, escoria granulada de alto horno, ceniza volante). Los morteros de albañilería para la construcción pueden mejorarse aumentando su adherencia a elementos de mampostería como rocas naturales, tabiques de arcilla recocida, tabicones base cemento Portland, muros divisorios o estructurales. También aumentando su resistencia mecánica a diferentes solicitaciones, como pueden ser a compresión, tracción, flexión. Disminuyendo su agrietamiento para aumentar su impermeabilidad y durabilidad. En esta investigación se propone determinar el comportamiento de morteros incorporando polímeros naturales, a base de almidones de maíz y arroz, por medio de la caracterización de los componentes del mortero, así como por medio de pruebas de laboratorio no destructivas y destructivas.



METODOLOGÍA

En el transcurso de la investigación se elaboraron especímenes en forma de cubos para realizar pruebas destructivas y no destructivas a la edad de 7, 14 y 28 días con el fin de estudiar el comportamiento del mortero base cemento y evaluar el efecto que generan las adiciones de almidón de maíz y almidón de arroz en las mezclas. Los materiales utilizados para las mezclas fueron: Arena del banco Joyitas, ubicado en el Km 28 de la carretera Morelia-Quiroga, entrada a San Bernabé, Michoacán, cemento Portland tipo CPC 30R RS en su presentación de saco de 50 kg, agua, aditivo Flow x D85 y adiciones de almidón de maíz y arroz. Previamente antes de elaborar el diseño de las mezclas de mortero se realizó la caracterización de la arena. Se determinaron ciertas cantidades de material a utilizar para cada mezcla, se obtuvo el valor a/c que es el contenido óptimo de agua para que la mezcla sea lo suficientemente fluida para su aplicación y se realizó la prueba de fluidez de acuerdo a la NMX-C-061-ONNCCE-2015. La fluidez es la consistencia del mortero fresco y el nivel de fluidez se mide como el porcentaje del diámetro del mortero dispersado respecto al origen probado en una mesa de fluidez. Se utilizó un aditivo reductor de agua (Flow X D85) para que la mezcla llegara a un nivel de fluidez dentro de los límites establecidos en la norma NMX-C-061-ONNCCE-2015 ya que esta especifica que un mortero debe tener un nivel de fluidez entre 105 y 130. Para el reductor de agua (Flow x D85), según su ficha técnica por cada kilogramo de cemento debe agregarse 12 ml del aditivo. La composición final de las mezclas de acuerdo a la prueba de fluidez realizada fue la siguiente: Testigo: (Fluidez de 113%) 1000 g de cemento. 2,750 g de arena. 550 ml de agua. 12 ml de aditivo reductor de agua (Flow X D85). Almidón de maíz 6%: (Fluidez 110.5%) 1000g de cemento. 2,750 g de arena. 550 ml de agua. 12 ml de aditivo reductor de agua (Flow X D85). 60 g de almidón de maíz. Almidón de arroz 6%: (Fluidez 112%) 1000 g de cemento. 2,750 g de arena. 550 ml de agua. 12 ml de aditivo reductor de agua (Flow X D85). 60 g de almidón de arroz. Almidón de maíz 3% y almidón de arroz 3%: (Fluidez 105%) 1000g de cemento. 2,750 g de arena. 550 ml de agua. 12 ml de aditivo reductor de agua (Flow X D85). 60 g de almidón de arroz. 60 g de almidón de maíz. Una vez obtenido el diseño de la mezcla se realizó el llenado de los moldes para los especímenes de acuerdo a la NMX-C-061-ONNCCE-2015 (los moldes tienen forma cubica con aristas de 5 cm). Para la realización de los especímenes se engrasaron los moldes y se vertió la mezcla en dos partes dentro del molde, primero se llenó a la mitad y se apisonó 32 veces, después se golpeó el molde para sacar el aire atrapado y reducir la formación de poros, posteriormente se llenó la otra mitad y se realizaron los mismo pasos, una vez que se llenó el molde, se hizo un enrasado y se dejó secar. Una vez secos se desmoldaron los cubos para continuar con las pruebas correspondientes. Se elaboraron 9 especímenes de cada una de las mezclas para la realización de las pruebas destructivas y no destructivas. Dentro de las pruebas no destructivas, se realizó la prueba de velocidad de pulso ultrasónico (NMX-C-275-ONNCCE-2004), para determinar la propagación de ondas ultrasónicas longitudinales que está asociada a las propiedades del concreto y su densidad. También se realizó la prueba de resistividad eléctrica (NMX-C-514-ONNCCE-2016), del mortero en función del tipo de exposición a un ambiente determinado. Después se realizó prueba destructiva de compresión simple, mediante la máquina universal Forney (NMX-C-083-0NNCCE-2014). Esta prueba se realizó para estimar la resistencia del mortero en estructuras. 


CONCLUSIONES

Durante la estancia en el verano se logró obtener conocimiento teórico acerca de distintos materiales de construcción además de adquirir conocimiento práctico a través de la caracterización de arenas y gravas y  distintas pruebas para la elaboración del diseño de morteros como la prueba de fluidez, velocidad de pulso, resistencia a la compresión, etc. De acuerdo a los resultados de las pruebas obtenidas hasta ahora podemos decir que el almidón presenta buenas características como adición en los morteros, ayudó a retener el agua por lo que tuvo una retardación en el tiempo de fraguado además de ayudar en la dispersión de las partículas del cemento, otro factor que se vio reflejado en los resultados de las pruebas fue una reducción de los poros, por lo que se puede decir que presenta una resistencia a la penetración de agentes ambientales agresivos, dando como resultado el aumento de la vida útil del mortero y un aumento en su resistencia mecánica. Aún faltan pruebas por realizar a los 28 días por lo que no se puede comprobar si el uso de almidón será bueno o si presentará algún efecto negativo a mayor edad. Una vez concluidas las pruebas, se podrá determinar el comportamiento de los almidones de maíz y arroz en un mortero base cemento. 
Sanchez Valdivia Jeremy Ryan, Universidad Autónoma de Baja California
Asesor: Dr. Ulises Mena Hernández, Instituto Nacional de Electricidad y Energías Limpias

ANáLISIS DE RIESGO POR INUNDACIóN EN LA ZONA URBANA DE TIJUANA


ANáLISIS DE RIESGO POR INUNDACIóN EN LA ZONA URBANA DE TIJUANA

Sanchez Valdivia Jeremy Ryan, Universidad Autónoma de Baja California. Willys Duarte Guillermo, Universidad Autónoma de Baja California. Asesor: Dr. Ulises Mena Hernández, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Históricamente, en la ciudad de Tijuana del estado de Baja California, se han desarrollado grandes precipitaciones pluviales que generan inundaciones en ciertas zonas de la ciudad, algunas fechas donde se han desarrollado esta problemática son en los años: 1916, 1937, 1969, y 1993. Estas lluvias, en general, se presentan en periodos de retorno de aproximadamente 25 y 50 años. La poca información documentada del ciclo hidrológico de la región provoca que cuando hay ausencia de lluvias por periodos largos de tiempo y esto implica que, muchas zonas despobladas pueden ser consideradas para el desarrollo o crecimiento urbano a través de asentamientos humanos que son construidos en zonas con alto potencial de inundarse tras un evento extraordinario. Ante esta situación, los tres niveles de gobierno deben actuar en consecuencia para evitar pérdidas económicas, materiales e incluso humanas con obras hidrológicas que eviten estos problemas de inundación en las ciudades, tal es el caso de la canalización del Río Tijuana en sus tres etapas y la reciente canalización del arroyo Alamar, dos de los principales escurrimientos de la ciudad. Desafortunadamente, los esfuerzos llevados a cabo en Tijuana, han reducido considerablemente la problemática, sin embargo, siguen sucediendo. Se centran los esfuerzos en generar un posible escenario de inundación en la zona urbana de Tijuana mediante un modelo hidrológico para conocer las zonas de mayor peligro, que nos describa el comportamiento de las canalizaciones ya existentes y sobre todo nos permita dimensionar las necesidades del actual sistema pluvial.



METODOLOGÍA

  Siendo el principal objetivo de estudio, la zona urbana de Tijuana, se debe analizar parte de la cuenca del río Tijuana, que corresponde específicamente a la zona en donde desembocan el río Tijuana alimentado por sus dos afluentes principales, arroyo Alamar y río El Carrizo. Para esta subcuenca, se generan las curvas de nivel a cada 20 metros. Así, con estas curvas mediante el método de Taylor y Schwarz, se obtienen las pendientes que lleva cada escurrimiento natural hasta llegar a la canalización del río Tijuana. Adicionalmente, se requiere hacer un análisis histórico de los registros de las precipitaciones históricas de las estaciones hidrometeorológicas ubicadas dentro la cuenca de estudio correspondiente, tanto en México como de Estados Unidos. Se consideran solo las precipitaciones mayores a 50 mm, debido a que estas precipitaciones son las que provocan mayor afectación por inundación en la zona de Tijuana. Ahora bien, se obtienen los gastos para cada periodo de retorno que dependerán de diferentes factores como son: el tiempo de concentración ,el coeficiente de escorrentía, el área de cada micro-cuenca y la intensidad de la lluvia.   Tras un análisis de la zona de estudio con Google Earth® y la plataforma SIATL del (INEGI), se determinó el área de principal interés que corresponde a la canalización del Río Tijuana primera etapa ya que esta se encuentra prácticamente al final de una red hidrográfica que inicia desde el norte en Barret y Morena (sur de California, E.U.) y desde el este en la presa Carrizo. Simultáneamente, mediante el software ArcMap® se trabaja con los modelos digitales de elevación de ambos países, generando un solo archivo con información suficiente para cubrir la totalidad de la Cuenca del río Tijuana. Con esta información, se obtienen las curvas de nivel cada 20 metros, las cuales nos permiten generar un archivo de triangulación de elevación con una mayor precisión. Una vez identificadas las principales zonas que contribuyen al gasto de la sección antes mencionada, y todos los datos de elevación necesarios, se trazan los cauces, que permitirán determinar la sub-cuenca dentro de la cual, a su vez, se crean micro-cuencas para cada escurrimiento y así poder tener de forma oportuna su área de captación, calculando así sus respectivos gastos con mayor precisión. Con diversas herramientas de ArcMap®, se realizan tareas como el diseño de los cauces de la red detallando las características requeridas por el software HEC-RAS para que puedan ser exportados posteriormente. Una vez que se cuenta con toda la geometría del río y los diversos parámetros se pueden añadir al programa HEC-RAS. Además, se deben de tazar y diseñar los perfiles de las secciones canalizadas del Río Tijuana 1ra, 2da y 3ra etapa y del arroyo Alamar para posteriormente, ejecutar el modelo de análisis de inundación. El resultado del modelo de HEC-RAS, debe de exportarse a un sistema de información geográfica por medio de su extensión HEC-GEO-RAS, la cual nos permite generar el área de inundación con un archivo TIFF de elevaciones, para verificar que los resultados concuerden con las imágenes satelitales se exporta a Google Earth para una mejor visualización.


CONCLUSIONES

El modelo digital de inundación que se obtuvo concuerda con las zonas potenciales a inundarse con base en la información histórica. Adicionalmente, el apoyo de los sistemas de información geográfica, nos permite tener una mejor idea de las zonas afectadas y de las áreas en donde el peligro por inundación en mayor. Con este modelo, se conocen los posibles escenarios de inundación para cada periodo de retorno. Este modelo, permitirá conocer las zonas reales de peligro por inundación en los alrededores de los cauces ya mencionados, y poder tomar las acciones correspondientes para evitar esta problemática. Los eventos extremos, como consecuencia del cambio climático, han hecho que la capacidad de captación de la zona urbana de Tijuana se vea rebasada de lo que era antes, adicionalmente, el crecimiento y la demanda la zona urbana hace que muchas zonas se proyecten y construyan a las márgenes de los ríos o en zonas bajas que son susceptibles a inundarse. La pregunta a responder es, si la ciudad de Tijuana está preparada para otro evento como el sucedido en 1993 y que escenarios se esperan con el crecimiento de la zona urbana que se tiene ahora en comparación de como esta en ese año.
Sánchez Vargas Viridiana Guadalupe, Instituto Politécnico Nacional
Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL ÓPTIMO NO LINEAL DE UN CONVERTIDOR TIPO BUCK-BOOST


CONTROL ÓPTIMO NO LINEAL DE UN CONVERTIDOR TIPO BUCK-BOOST

Sánchez Vargas Viridiana Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Fernando Ornelas Tellez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El interés de la comunidad científica en los últimos años se ha centrado en técnicas que permitan eficientizar la generación con energías limpias tales como la solar; por lo que se han buscado múltiples alternativas que permitan obtener la Máxima Transferencia Potencia de un Sistema generador. En la actualidad uno de los algoritmos MPPT (seguimiento de máximo punto de potencia) más utilizados es el P&O (Perturba y Observa), si bien es cierto que tiene muchas ventajas, también tiene una gran desventaja:  presenta oscilación y problemas de Seguimiento en el MPP (máximo punto de potencia), por lo que se hace necesario diseñar el algoritmo de control adecuado para las diferentes etapas del sistema de generación. Uno de los controladores que se utilizan con mayor frecuencia por su simplicidad de aplicación son los controladores proporcionales-integrales (PI), desafortunadamente estos presentan una limitante para el seguimiento de trayectorias. Para resolver este problema se propone diseñar un algoritmo de Control Óptimo Robusto, que permita llevar al convertidor al punto de operación que se le indique logrando con esto dar seguimiento a las referencias para lograr el MPPT.



METODOLOGÍA

En términos generales se aplicó una estrategia de control no lineal óptimo y robusto que permitierá alcanzar el MPP, para ello se siguieron cuatro etapas: Modelado de sistemas. Diseño del algoritmo de control. Validación a nivel simulación. Validación de forma experimental. Modelado de Convertidor DC-DC tipo Buck-Boost para un Sistema Fotovoltaico conectado a la Red. El MPPT o el monitoreo del máximo punto de potencia es una técnica usada para garantizar la más alta eficiencia en la generación de energía eléctrica y es aplicada comúnmente en sistemas fotovoltaicos, su objetivo es garantizar que el sistema fotovoltaico opere en su máximo punto de potencia, se modela el algoritmo de control MPPT basado en la técnica de Extremun Seeking (ES) y P & O. Posteriormente se realiza el modelado matemático de un sistema fotovoltaico. En un panel fotovoltaico ideal no se toma en cuenta las pérdidas de la resistencia interna causadas por los materiales semiconductores, por lo tanto, se decidió incluir los elementos RSh y Rs y realizando el análisis de Kirchhoff se describió su modelo matemático. Por último, se modela el Convertidor Buck-Boost. Un Convertidor tipo Buck-Boost es un tipo de convertidor electrónico DC-DC que es capaz de entregar una magnitud de tensión de salida opuesta a la de entrada, sus cambios son dinámico con relación a la señal de entrada la cual esta definida por un PWM (modulación por ancho de pulso). Dado a las condiciones de operación del Buck-Boost siempre se obtendrá una salida negativa. Posterior a eso se modelan las ecuaciones de estado del sistema utilizando el método de modelos promediados, para poder aplicar la Ley de Control. Diseño del algoritmo de control óptimo El modelado del control óptimo se basa en la solución de la ecuación Hamilton-Jacobi_Bellman la cual considera la maximización de un funcional de Costo y requiere los parámetros de referencia que se obtienen del SE o del P&O. Validación a nivel simulación. Para verificar el funcionamiento del Sistema, se utilizó Matlab/Simulink®, primero se evaluó el sistema a lazo abierto para verificar que su modelado fuese correcto, posteriormente se controló con un controlador PI para analizar el comportamiento y por último se implementó el algoritmo de control óptimo robusto para el seguimiento de la referencia. Validación de forma experimental. Se hicieron mejoras estéticas al prototipo y se observo el experimento previamente implementado y se visualizaron las pruebas de cada una de las etapas del sistema, partiendo de la validación de las señales del algoritmo SE y P&O, del convertidor tipo Buck-Boost y del inversor de manera individual.


CONCLUSIONES

El proyecto hace uso de un algoritmo ES con el que se pretende alcanzar un máximo global de la función Corriente-Voltaje de un arreglo fotovoltaico de 2.5kW; este se comparó con el algoritmo perturba y observa (P&O) para comprobar su eficiencia, ya que los algoritmos más comunes quedan entrampados en máximos locales, todo con la finalidad de definir los parámetros con los que se alimentara al algoritmo de control óptimo del convertidor Buck-Boost. Se logró una representación de espacios de estado por el método de modelos promediados, en el cuál se sustituye una señal con un rango de 0 a 1. Los resultados de las simulaciones garantizaron la eficacia del esquema de control, sin embargo, en la implementación el ES no respondió como se esperaba y requería una ganancia muy alta para actuar. Dado el corto periodo de la estancia y la complejidad del proyecto, únicamente se lograron visualizar resultados parciales.
Sandoval Adame Luis Ramón, Universidad de Colima
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

LA EFICIENCIA ENERGéTICA Y EL CONFORT LUMíNICO EN LA ESTACIóN METROPOLITANA EL NARANJAL, LIMA - PERú, 2019


LA EFICIENCIA ENERGéTICA Y EL CONFORT LUMíNICO EN LA ESTACIóN METROPOLITANA EL NARANJAL, LIMA - PERú, 2019

Sandoval Adame Luis Ramón, Universidad de Colima. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

La estación metropolitana El naranjal localizada en la cuidad Lima-Perú es el centro de transporte público más congestionado en el ámbito de usuarios diarios teniendo una circulación estudiada de aproximadamente veinte mil (20) usuarios durante el  congestionamiento en horas punta (7:00 am a 9:00 am, 7:00 pm a 10:00 pm) sobrepasando el aforo de diseño proyectado  de dos mil cuatrocientas cincuenta (2,450) personas en el interior de la estación, esto crea una necesidad de mayor eficiencia energética por lo tanto para lograr un confort lumínico ideal las luminarias deberían tener la capacidad de mantener el flujo lumínico sin importar la cantidad de usuarios en la zona, para ello la infraestructura del edificio  no cuenta con las características espaciales ni energéticas suficientes para cumplir con el confort lumínico para los usuarios finales en el interior de esta misma estación. El sistema de iluminación está comprendido en trecientas treinta y ocho (338) unidades, de las cuales se estima (según observación) solo en funcionamiento se tiene un 20% - 35% de equipos, desarrollando un indicio de un mal proceso de mantenimiento que afecta directamente al usuario final, el horario de funcionamiento del sistema de iluminación (interior) se inicia a partir de las 6:00 pm hasta las  11:00 am del siguiente día, siendo un total de diecisiete (17) horas de funcionamiento continuo y que nos lleva a un consumo de energía estimado mensual  de 10,920 KWh (S/KWh mes 4.04 = 44,116.8 S/mes) y con una producción de  emisiones de gases de efecto invernadero (GEI) de 9.4 ton/mensual. Por otra parte, la seguridad interna de los usuarios finales se ve afectada directamente  al no tener un confort lumínico, siendo más propensos a sufrir accidentes y ser víctimas de la delincuencia (interior como exterior de la estación). A ello, con respecto al  tema de la salud y bienestar  es cada vez más vulnerable ante una deficiente iluminación artificial llegando en muchos casos a espacios de penumbra (inseguridad subjetiva y objetiva).



METODOLOGÍA

Para esta investigación se realizó un enfoque  de causa y efecto dando apertura a un estudio cuantitativo y cualitativo (cuasi). Se obtuvieron datos en base a las observaciones en campo de manera cuantitativa: cantidad de luminarias, dimensionamiento de las zonas de estudio con sus respectivas (Lux) para comprobar los niveles de iluminación artificial y la normativa aplicada del sistema de iluminación mediante una medición de lux (Lum/m²) con instrumentación medición digital (luxómetro), al igual que la medición de ingreso de iluminación natural para llevar a cabo una propuesta de reducción de horas de funcionamiento del sistema de iluminación y su regulación de la intensidad de la iluminación artificial (sensores crepusculares), obteniendo reducción de consumo de energía en base a los nuevos horarios de funcionamiento del sistema de iluminación (tarde/noche). Así mismo, se corroboro  los datos con las personas responsables del funcionamiento del sistema de iluminación en la estación para comparar con las mediciones de la investigación los horarios de encendido y apagado del sistema lumínico así como las características de cada luminaria, con la obtención de estos datos  se pudo obtener el gasto energético mensual así poder dar pie a nuevas propuestas.


CONCLUSIONES

Tras una medición de luz natural durante las horas críticas de disminución y aumento de luz natural se encontró una alternativa de ahorro de energía, los horarios de encendido de los sistemas energéticos, con una disminución a 13 horas de servicio diario se logra un gasto mensual  de 8,205 KWh (S/KWh mes 4.04 = 33,148.2 S/mes)  reflejado en emisiones de CO2 a 7.1 ton. Se propone un sistema de control y automatización a base de sensor crepuscular, este es un dispositivo electrónico que trabaja en función de la luz natural que ingresa en la edificación y esta regula a los sistemas artificiales, esto apegado a la norma ISO-8995, con esto se pretende eliminar horarios fijos para mantener un confort lumínico las 24 horas del día aclarando que esto no aumentara KWh de gasto mensual si no que previene cambios en el ambiente y así cumplir con el flujo lumínico por norma la totalidad del tiempo. Durante el desarrollo de la investigación se comprobó que existen espacios iluminados al 100% sin tener en cuenta la presencia de usuarios finales, la cual lleva a un derroche energético de la estación, cabe señalar que no nos referimos a las luminarias de todo el establecimiento , sí mismo se desarrolla la instalación de un sensor de presencia que nos permitirá regular la intensidad del flujo luminoso (no dejando en penumbra), conllevando a un ahorro de energía, este sensor presencial enfocara la intensidad luminosa solo en las secciones con usuarios presentes, recalcando que las secciones restantes no se apagaran por completo para no poner en riesgo al usuario si no que estas secciones con ausencia de personas bajaran su intensidad a un 40% - 50% o el porcentaje establecido por la administración, atribuyendo así al ahorro energético. A su parte la instalación de Power line (señal de internet por medio de la instalación eléctrica) contribuye al control y monitoreo del sistema energético, dando pie a la incorporación de una aplicación móvil (APP), esta aplicación contendrá la opción para el usuario de reporte de daños, inseguridad o vandalismo dándose una recompensa por informe reportado, estos informes ayudan estadísticamente a la administración, así como a la autoridad correspondiente actuar contra la inseguridad dada en la estación metropolitana a actuar rápidamente ante un atentado contra el sistema lumínico, en esta parte el Power line da un acceso rápido a los usuarios de la estación.
Sandoval Garfias Daniela, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo

CONTROL DE ILUMINACIóN


CONTROL DE ILUMINACIóN

Sandoval Garfias Daniela, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Para la sociedad de hoy en día es de vital importancia tener inclusión asía las personas que presentan alguna limitación o discapacidad, entonces como jóvenes comprometidos con el bienestar social nos toca crear algo para poder brindar a dichas personas una mejor calidad de vida.   Dentro de mi eje focal el cual fue la comunidad donde me desarrollo se logró ver que existe una gran cantidad de personas que cuentan con alguna discapacidad, y ellos no pueden tener el control sobre la luminaria de sus hogares. Por ello nosotros investigamos sobre el desarrollo de un prototipo de control de iluminación por medio del Smartphone.   Para que la investigación sea factible primero se deben tomar en cuenta las limitaciones que presentan las personas con otras capacidades para tener control por medio de Smartphone, tablets, etc. Dichas limitaciones deben ser sobre las personas a las cuales va dirigido el proyecto.



METODOLOGÍA

  Estudio de campo Realización de encuestas Utilizacion de medios electronicos y librerias Entrevistas con futuros usuarios Para una correcta realización de un proyecto innovador es de vital importancia ver la aceptación del proyecto a los posibles futuros usuarios del mismo. Para ello se pueden utilizar diferentes métodos, como lo pueden ser estudios de casa, estudias en campo, entrevistas, encuestas entre muchos más. Para el proyecto se tomarán estudio de campo, entrevistas y encuestas. Para el día de hoy se tomarán la realización de encuestas, donde aparte de contar con la opinión de otras personas también se obtendrán estudios socioeconómicos de las diferentes familias o personas para con ello obtener la viabilidad del proyecto. La encuesta a realizar se mostrará a continuación, con ella se obtendrá in formación necesaria para tener la continuación del proyecto, entonces se tiene que tomar un numero razonable de prospectos a encuesta, así como buscar a las personas adecuadas, para que la información sea más concreta y específica, así como que sea lo más verídica posible.         ENCUESTA 1.- ¿Conoce que es domótica?             a. Si                           b. No 2.- ¿Conoce la vitalidad de los proyectos domóticos?             a. Si                           b. No 3.- ¿Cuenta usted con algún prototipo de domótica?             a. Si                           b. No 4.- ¿Conoce el termino Iluminación?             a. Si                           b. No 5.- ¿Entiende el termino control de iluminación?             a. Si                           b. No 6.- ¿Qué tan aceptable vería un control de iluminación en su casa?             a. Aceptable             b. Poco aceptable   c. Inaceptable 7.- ¿Cuál sería el precio a pagar por un producto domótico que ayude a controlar la luz?             a. 700                        b. 1000                      c. Mas de 1000 8.- ¿Usted tiene una persona con capacidades diferentes en casa?             a. Si                           b. No 9.- ¿Cuántas personas viven en su casa contándose usted?             a. -5                            b. 5                             c.+5 10.- ¿Paga arriba de $300?00 por luz?             a. Si                           b. No 11.- ¿apoya a jóvenes emprendedores?             a. Si                           b. No 12.- ¿apoya estos proyectos?             a. Si                           b. No   De las 50 encuestas realizadas se obtuvieron los siguientes datos: a (20)                         b (30) a (5)                b (45) a (2)                b (48) a (15)                         b (35) a (16)             b (34) a (10)             b (17)             c (23) a (45)             b (2)                c (3) a (13)             b (37) a (21)             b (16)             c (13) a (23)             b (27) a (39)                         b (11) a (33)             b (17)    


CONCLUSIONES

De acuerdo con lo señalado el "Control de iluminación " es de vital importancia en la sociedad actual, por ello se quiere lograr reducir el costo del prototipo y se logró ver que se puede usando otros métodos, sin embargo, no se logró la finalización de un prototipo.  con lo anterior se busca lograr a futuro la conclusión e implementación en hogares donde sea de vital importancia para que la persona se sienta más autosuficiente.
Sandoval Ibarra Gaddiel Abraham, Universidad Autónoma de Baja California
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

INTEGRACIóN DEL GEN SINTéTICO “GENF-CI” EN EL GENOMA DE ESCHERICHIA COLI C, EMPLEANDO EL SISTEMA CRISPR/CAS – λ RED


INTEGRACIóN DEL GEN SINTéTICO “GENF-CI” EN EL GENOMA DE ESCHERICHIA COLI C, EMPLEANDO EL SISTEMA CRISPR/CAS – λ RED

Gómez Morales Xochitl Iveth, Consejo Sudcaliforniano de Ciencia y Tecnología. Sandoval Ibarra Gaddiel Abraham, Universidad Autónoma de Baja California. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La biosíntesis de distintos productos que resultan de gran interés en la industria, así como, la manipulación de la expresión y la regulación génica, requieren de modificaciones genómica cuyos objetivos de edición del genoma requieren herramientas eficientes para realizar manipulaciones secuenciales. La recombinación génica mediada por lambda Red (λ Red) es una técnica de manipulación génica que ha sido utilizada como método de recombinación de ADN en el genoma de Escherichia coli. Sin embargo, dicho sistema resulta perjudicial para la estabilidad genómica de la bacteria, debido a la formación de scars en los genes donde se realiza la recombinación. Como alternativa, se han aplicado herramientas génicas que involucran un corte de doble cadena en el ADN (DSB), que se han aplicado a dedos de Zinc (ZF) y las nucleasas efectoras de tipo activador de transcripción (TALENS).  Ambas herramientas presentan desventajas debido a la alta complejidad de diseño y construcción de los dominios de unión a ADN, así mismo, los costos de síntesis de dichos dominios son altos, y pueden conllevar a una baja tasa de éxito. El sistema CRISPR-Cas, se aplicó recientemente como tecnología eficiente de ingeniería genómica en varios procariotas y eucariotas, incluyendo a E. coli. No obstante, el empleo de CRISPR en bacterias conlleva a la muerte celular debido a la falta de mecanismos de reparación del DSB generado por Cas9. Ambos sistemas de modificación, por separado, conllevan a resultados no favorables, pero al acoplar dichos sistemas se logran obtener cepas editadas de E. coli. λ Red efectúa la inserción de ADN en el genoma de E. coli, el cual ayuda a evitar la muerte celular por la selección de Cas9 al intercambiar el sitio de ruptura generado por el ADN que se recombinará.



METODOLOGÍA

Extracción de ADN plasmídico Se recolectaron 2 mL de los cultivos de E. coli DH5α pUC57GenF y E. coli DH5α pUC57cI, y se depositaron en tubos de 2 mL, se centrifugaron a 8,000 rpm por 2 minutos. Se retiró el sobrenadante y se aislaron los vectores mediante la extracción de ADN plasmídico por lisis alcalina. Los paquetes celulares se resuspendieron en 200 µL de solución I y se incubaron a temperatura ambiente por 5 minutos. Se agregaron 400 µL de la solución II a cada tubo, y se homogenizaron por inversión e incubaron a temperatura ambiente por 5 minutos. Se agregaron 300 µL de acetato de amonio (7.5 M) a cada tubo, se mezclaron de nuevo y se incubaron a temperatura ambiente por 10 minutos. Se centrifugó a 14,000 rpm y cada sobrenadante fue transferido a un tubo de 1.6 mL, al que se le agregaron 650 µL de isopropanol al 100%. Los tubos se incubaron a -20°C por 30 minutos. Se precipitó el ADN mediante centrifugación a 14,000 rpm por 15 minutos. El sobrenadante se decantó, la pastilla resultante fue lavada con 500 µL de etanol al 70% (v/v) y se centrifugó a 14,000 rpm por 3 minutos. Se agregaron 5 µL de RNA’sa a cada tubo, los cuales se incubaron por 15 min a 37 ºC. Se cuantificó la concentración de ADN plasmídico empleando el Nanodrop 2000 (Thermo Scientific). La calidad, integridad y conformación plasmídica se observó en un gel de agarosa al 0.8%.  Construcción del fragmento genF-cI por Overlap PCR Se emplearon los cebadores ExtgenFf y ExtRepLr. Se tomaron 2 µL de la reacción obtenida en el fragmento genF y 1 µL del producto de amplificación del fragmento cI complementario al genF como molde. Todo el producto de amplificación se visualizó por medio de electroforesis en gel de agarosa al 1%.  Adición de brazos homólogos 5’ y 3’ al genF-cI El fragmento obtenido de la purificación del genF-cI se extendió por PCR con los cebadores 5'-OverlapGEN y 3'-OverlapGEN, para lograr adicionar sitios homólogos a los brazos sintetizados anteriormente. Se ajustó la concentración de ADN a 10 ng/µL. Se empleó el kit AccuzymeTM y se le agregó 1.5 µL de agua ultra pura. Por otra parte, al tubo de muestra se le agregó 1.5 µL del molde. Concluida la reacción de PCR, se realizó una electroforesis en gel de agarosa al 1%. Transformación de células electrocompetentes de E. coli C con pCas  Se tomaron 5 µL de las reacciones de ligación de cada sgRNA (1 y 2) y se colocaron en tubos. A los tubos C- y V no se les agregó ADN. El volumen de cada tubo fue transferido a una celda de electroporación con gap 2 mm, se colocaron en el electroporador y se les aplicó un choque eléctrico de 2,500 V a temperatura ambiente. Se agregaron 200 µL de caldo LB a cada celda y se mezclaron por inversión. El volumen total de cada celda se transfirió a tubos de 2 mL, que contenían 800 µL de caldo LB, para posteriormente incubarlos a 37°C por 1 hora en el thermomixer. Se prepararon 4 cajas Petri con agar LB al 2%. Se vertieron 500 µL del cultivo electroporado a sus respectivas cajas Petri, sembrándolas por extensión, y se incubaron a 37°C durante 16 horas. Las colonias crecidas se transfirieron a tubos estériles con 2 mL de caldo LB + espectinomicina (100 ng/µL) y se dejaron incubar a 37°C durante 16 horas. Para la electroporación del vector pCas se siguió la misma metodología. Las colonias crecidas se transfirieron a tubos estériles de 2 mL, los cuales contenían 2 mL de caldo LB + kanamicina. Finalmente, se incubaron y guardaron.


CONCLUSIONES

Se sintetizó el gen F-cl, a partir de los fragmentos F y cI, por Overlap PCR, y fue posible incorporarlo al locus lacZ de E. coli C, empleando el sistema CRISPR/Cas - λ Red. La transformación de E. coli C con el gen F-cI y los plásmidos pCas y p-TargetF se logró por electroporación.
Sandoval Pérez David Alejandro, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

DIFFERENTIAL PROTECTION OF THREE PHASE TRANSFORMERS CALCULATED FROM NEGATIVE SEQUENCE PHASOR


DIFFERENTIAL PROTECTION OF THREE PHASE TRANSFORMERS CALCULATED FROM NEGATIVE SEQUENCE PHASOR

Sandoval Pérez David Alejandro, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En un sistema de eléctrico de potencia, el trasformador de potencia es uno de los elementos mas importantes, ya que su valor económico ronda en varios millones de pesos, así como la función que realiza como parte del proceso de suministrar energía eléctrica suficiente para atender la demanda eléctrica de miles de personas. Por estas razones es importante poder protegerlo contra fallas eléctricas tanto internas y evitar que haya operaciones incorrectas para operaciones externas, en el cual se está implementando la protección diferencial calculada del fasor de secuencia negativa, éste aparece en el sistema solamente en situaciones de falla, el fasor de secuencia negativa se aprovecha para tener una mayor sensibilidad en la protección diferencial. En un sistema de eléctrico de potencia, el trasformador de potencia es uno de los elementos mas importantes, ya que su valor económico ronda en varios millones de pesos, así como la función que realiza como parte del proceso de suministrar energía eléctrica suficiente para atender la demanda eléctrica de miles de personas. Por estas razones es importante poder protegerlo contra fallas eléctricas tanto internas y evitar que haya operaciones incorrectas para operaciones externas, en el cual se está implementando la protección diferencial calculada del fasor de secuencia negativa, éste aparece en el sistema solamente en situaciones de falla, el fasor de secuencia negativa se aprovecha para tener una mayor sensibilidad en la protección diferencial.



METODOLOGÍA

En primera instancia se realiza un análisis bibliográfica, en donde se estudia la teoría necesaria para poder llevar a cabo la aplicación de la protección diferencial, posteriormente implementan el esquema eléctrico de pruebas en el software PSCAD, donde en el mismo software se programa la protección diferencial y se realizan pruebas de desempeño para evaluar fallas internas y externas correspondientes para obtener resultados.


CONCLUSIONES

Se puede deducir que usando el fasor de secuencia negativa se puede mejorar la sensibilidad de la protección diferencial que actualmente existe, en las simulaciones realizadas en el Software PSCAD, se puedo observar que el sistema funciona correctamente cuando se le implementan diferentes tipos de fallas internas, y esto hace que se active el relevador para la protección del transformador. Se espera obtener mas resultados para diferentes tipos de fallas como la falla trifásica que es un caso especial, y con más tiempo de simulación, también se realizará la compensación de las corrientes en otros tipos de transformadores, para su posterior análisis con el mismo método.
Sandoval Rodríguez Luis Alberto, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato

OBTENCION DE HIDROCARBUROS A PARTIR DE UNA MEZCLA ARBITRARIA DE RESIDUOS PLASTICOS MEDIANTE PIROLISIS.


OBTENCION DE HIDROCARBUROS A PARTIR DE UNA MEZCLA ARBITRARIA DE RESIDUOS PLASTICOS MEDIANTE PIROLISIS.

Sandoval Rodríguez Luis Alberto, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. José Manuel Riesco Avila, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Tras la búsqueda incesante de nuevas fuentes de energía, aunado a la gran contingencia ambiental que se vive en todo el mundo causado por la contaminación a causa de los desechos urbanos, los cuales en su mayoría no son tratados adecuadamente. Entre los desechos urbanos que mas se acumulan y contaminan el planeta son los plásticos ya que son utilizados para todo tipo de aplicaciones en la industria y fuera de ella. Una de las técnicas de reciclaje con mayor auge en estos momentos es el reciclaje termoquímico, dentro de este se encuentra la denominada pirólisis el cual consiste en realizar la degradación térmica en ausencia de oxígeno, durante este proceso los materiales poliméricos se calientan a altas temperaturas, lo cual nos ayuda a la recuperación de energía obteniendo una amplia gama de hidrocarburos líquidos, sólidos y gaseosos. En este trabajo se muestra el proceso de recuperación de energía, en forma de hidrocarburos sólidos, líquidos y gaseosos a partir de mezclas arbitrarias (mezcla de polímeros de la cual no se conoce su composición), esta mezcla arbitraria se compone de lo ultimo de todos los polímeros que ya no se pueden reciclar.



METODOLOGÍA

Para la obtención de los hidrocarburos a partir de la mezcla arbitraria, se utilizo un reactor tipo batch por lotes cada carga introducida al reactor fue de un kilogramo, una vez que se introducía la materia al reactor se cerraba perfectamente y se procedía a instalar la campana de condensación la cual se llenaba de agua hasta el ras del tubo de salida del combustible, se colocan los sellos y se asegura el tubo que transporta el gas del reactor hacia la campana de condensación. Adicionalmente, los gases no condensables pasaban por un filtro de carbono. Es importante indicar que dependiendo de la temperatura a la que encuentre degradándose la mezcla de polímeros, se obtienen productos líquidos (aceite de pirólisis) o productos cerosos. Al encender el reactor, se fijó una temperatura de 100 °C durante 15 min esto con la finalidad de que sea expulsado el oxigeno que existiera en el interior del tanque, una vez transcurrido este tiempo se fijan las temperaturas a las que trabajara el reactor, teniendo en cuenta que siempre habrá una diferencia de 40°C entre ellas para esto se utilizo una rampa de calentamiento, la cual iba aumentando de 10 en 10 grados empezando en 370 hasta 420 °C y a partir de ahí de 20 en 20 hasta 480 °C, la temperatura se cambiaba cuando no salía producto de la campana de condensación. Para esta prueba y su respectiva replica el tiempo de residencia fue de 337 minutos. Los productos líquidos iniciaron a salir a partir de los 420°C hasta los 440 °C, por encima de esta temperatura se obtenían productos cerosos. 


CONCLUSIONES

Los resultados obtenidos, mostraron que por el proceso de pirolisis de logra la recuperación del 74.1% en aceite de pirolisis un 13.6% en ceras y 1.7% de residuo carbonoso teniendo una recuperación total del 89.4% y el resto corresponde a gases no condensables. A los productos líquidos se le hicieron análisis fisicoquímicos de densidad relativa y viscosidad cinemática. Para el líquido pirolítico obtenidos a las temperaturas de (420 y 440 °C) de 0.773,0.784 y 2.3984 cSt, 2.9025cSt respectivamente, los datos de la densidad son consistentes con las de la densidad de la gasolina y el querosén mientras que la viscosidad es consistente con la del Diesel. Se realizaron dos pruebas mas con la mezcla arbitraria con la única deferencia que fue a temperatura constante una a 440 y la otra a 460 °C, en la prueba a 440 se obtuvo 60.9% de liquido y 20.7% de residuo, y para la prueba a 460 °C se obtuvo 82.5% de ceras y 2.4% de residuo; de igual manera la densidad y viscosidad corresponden a valores cercanos a los reportados de la gasolina, el querosén y el diesel.
Sandoval Sandoval José Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca

ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO


ARQUITECTURA EN EL ENFOQUE TéCNICO CONSTRUCTIVO

Dimas Pomposo Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Castro José Antonio, Tecnológico de Estudios Superiores de San Felipe del Progreso. Sandoval Sandoval José Roberto, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Maria Gonzalez Juarez, Universidad de Ixtlahuaca



PLANTEAMIENTO DEL PROBLEMA

Teniendo presente la gran contaminación que existe por nuestro estilo de vida y que esta a su vez va creciendo, englobando varios ámbitos  y uno de ellos es el ruido. Gran parte de esta contaminación es producida por los insumos plásticos y sus derivados, debido a sus tiempos de degradación por lo que se convierte en un inconveniente, de entre estos plásticos podríamos definir el PET, HDPE y UNICEL. Estos resultan en ser un inconveniente pues en México así como en gran parte del mundo no se tiene una cultura respecto al manejo que deben recibir estos materiales después de utilizarlos, pues tan solo en México se recolectan diariamente 86 mil 343 toneladas de residuos de los cuales aproximadamente un 30% son los plásticos antes mencionados y que en total solo el 11% recibe algún tipo de tratamiento. Al respecto con lo anterior podemos asimilar otros problemas principalmente en México, respecto a la calidad de vida de las personas pues muchas de ellas no cuentan con los recursos suficientes para poder adquirir o construir un lugar donde vivir. Según la Secretaria de Hacienda y Crédito Publico en México 36 millones de personas no cuentan con una vivienda digna, cifra que va en aumento con forme pasan los años.



METODOLOGÍA

Se requirió hacer una investigación exhaustiva de los temas relacionados respecto a al uso, propiedades, normatividad, etc. De los elementos constructivos como son el sillar, el block, el ladrillo, etc. Con el fin de tener conocimientos previos para la ejecución del proyecto, es decir se realizó un protocolo de investigación para poder llevar a cabo el proyecto de investigación. Los aspectos que conforman el protocolo fue un estado del arte, planteamiento del problema, justificación, objetivos específicos y generales, hipótesis, marco teórico, marco normativo, marco conceptual, marco propiedades a evaluar y ensayes a los materiales. En estos se detalló la línea de investigación que se pretende seguir pues se pretende crear un elemento constructivo con dimensiones iguales a un sillar pero elaborado con un procedimiento similar a un block de tepojal y cemento. Puesto que ya se tenía un avance en el protocolo en donde ya se habían desarrollado diversos temas y aspectos se analizó el trabajo preliminar con el objetivo de observar detalles que se omitieron pero que resultan en ser importantes por el conocimiento que permitirían obtener y el curso en el desarrollo de la investigación. A continuación se detalla de forma general algunos de los conceptos que se abordaron: Marco conceptual; en este se desarrollaron los conceptos de manera más profunda pues se debía de tener un concepto que fuera eficiente para poder comprender de manera exacta lo que abarca cada producto relacionado al producto que se pretende conseguir. Marco Normativo; En este se hizo una investigación exhaustiva normativa nacional donde abarcamos las normas ONNCCE donde se buscaba todo respecto a la industria de la construcción en forma específica en mamposterías y muros tanto de hormigón como de materiales pétreos, pues aunque el producto no es igual a ninguno de estos, es la guía para poder crear un elemento constructivo que brinde seguridad para su uso, Propiedades a evaluar en el producto; Conociendo lo anterior y sabiendo los requerimientos que piden las normas oficiales mexicanas se investigaron los factores que se deben analizar para poder cumplir con las normas como por ejemplo una de las más importantes la resistencia a la compresión, así como una de las más obvias como la de prueba de fuego. Ensayes a los materiales; La aplicación de los conocimientos llevan a las pruebas, sin embargo es necesario saber qué tipo de pruebas es necesario realizar y también como realizarlas, con qué propósito, y que maquinaria  se utilizará, de ahí la importancia del desarrollo de este apartado, con el cual se pretende llevar a cabo en la creación de un prototipo.


CONCLUSIONES

En el transcurso de la estancia se pudieron reforzar conocimientos, respecto a los criterios que se deben alcanzar en una investigación respecto a la construcción, donde las normas y las pruebas, aspectos que resultaron relevantes que se deben de considerar de manera especial en la ejecución y creación del elemento que se está proyectando, por su puesto el llevarlo a la práctica resultara en que surjan más dudas, sin embargo lo expuesto en el protocolo de investigación resultara una base sólida para poder dar una buena ejecución.
Santaclara Ambrocio Francisco Jesús, Instituto Tecnológico Superior Purépecha
Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

ANALIZAR TAREAS Y LUGARES DE TRABAJO EN TORRETAS (ERGONOMIA, REDISEñO)


ANALIZAR TAREAS Y LUGARES DE TRABAJO EN TORRETAS (ERGONOMIA, REDISEñO)

Santaclara Ambrocio Francisco Jesús, Instituto Tecnológico Superior Purépecha. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La Ergonomía juega un papel importante para mantener el bienestar y una buena relación con el trabajo, preservando la salud y el rendimiento del operador, como es analizar y eliminar los factores de riesgo que causan desgaste físico en el operador como trastornos músculo-esqueléticos por cargas superiores a 25kg que revasa lo que dice la norma NOM-036-1-STPS-2018, la cual verifica que para levantar y/o bajar cargas no rebasen las masas que señala.  En este caso en específico realizando mi estancia en la Planta Maquiladora VERTIV, que se dedica a la manipulacion del metal mecanico. El problema es a consecuencia de un operario reporto al area medica dolor lumbar por la fuerza que desarrolla para transladar esas piesas mayores a 25 kg permisibles por la ley. Objetivo: Implementar un sistema para minimizar o eliminar los factores de riesgo que afectan al operador. Alto rendimineto del operador.



METODOLOGÍA

Para evaluar la traea que se realiza es necesario hacer un análisis visual (fotografias, videos, entrevista), lista de comprobacion de ergonomica, al igual que evaluar los factores de riesgo presentados por la norma NOM-036-1-STPS-2018 que establece un estandar de colores y rangos que permiten determinar los movimientos obteniendo asi la eficiencia ergonomica y para reforzar estos resultados se evalua de igual manera con un software llamado QEC y comparar si son correctos los resultados  ergonomicos. Implementando todos estos metodos que nos arrojan datos alarmantes. Las propuestas que presemtamos para eliminar este y mas factores que arrojaron los estudios, no son del todo suficientes para eliminar o minimizar los factores, llevando esto más al analisis, se concluye con la idea de construir un dispositivo llamado mesa transportadora que resulta eficinte para la labor eliminando factores y algunos minimizandolos Para que este dispositivo sea manipulable para cada una de las Torretas las medidas son las siguientes: 39' de alto, 32' de ancho y largo. Características de la mesa transportadora: Superficie con rodamientos para el transporte de las piezas. Estructura de acero. Dos llantas de desplazamiento: heavy duty rubber caster wheel with  swivel. Dos llantas de desplazamiento: heavy duty rubber caster wheel with rigid non-swivel. Para eso tambien se tuvo que identificar de 3309 piesas que se procesan las mayores a 25kg que son los que exige la ley, canalisando cada una de ellas con leyendas que identifiquen el uso del dispositivo. Con las pruebas correspondientes  y comparando el antes y despues, entrevistando nuevamente a los operadores los ressultados son los esperados. Ahora ya con el dispositivo implementado se lograron resultados positivos para el operador que favorecen la relación con el trabajo a realizar.


CONCLUSIONES

Mediante los estudios y la implementacion de este dispositivo logramos adquirir datos positivos para el desarrollo del operario cumpliendo los objetivos. Los resultados que obtuvimos con todo lo que se implemento fueron los siguientes: Al realizar la tarea la eficiencia ergonomica sin el dispositivo: 65% Al realizar la tarea la eficiencia ergonomica con el dispositivio: 88.3% Esto nos dice que se logro aumentar la eficiencia ergonomica un 23.3% dejando con un minimo de factores de 11.7% cumpliendo los factores. Como pueden ser las condiciones de trabajo que favorecen o ponen en contra el desarrollo del trabajo, los factores de riesgo que representan cada acción y/o movimiento que se haga y sea una cuestión todas las modificaciones que se hicieron para que se lograra eliminar y en algunos casos minimizar factores de riesgo, hacen del operario un mejor trabajo llevando su área de laborar con una mejor relación cumpliendo con los objetivos.
Santana Ruiz Carlos Ignacio, Universidad de Guadalajara
Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo

SíNTESIS DE NANOPARTìCULAS Y NANOTUBOS DE TITANIA


SíNTESIS DE NANOPARTìCULAS Y NANOTUBOS DE TITANIA

Santana Ruiz Carlos Ignacio, Universidad de Guadalajara. Asesor: Dr. Salomón Eduardo Borjas García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas y los nanotubos de titania cuentan variados usos en la vida cotidiana, tales como: sistemas de descontaminación solar de agua, en la industria cosmética, tal como los bloqueadores y diversas cremas y maquillajes, en alimentos, en sistemas de limpieza del medio ambiente, con capacidad para eliminar agentes contaminantes presentes en el medio ambiente, en sistema de la salud y diversos dispositivos electrónicos, entre otros. En la actualidad, los métodos para la síntesis de nanopartículas y nanotubos de titania con fines comerciales son altamente costosos debido a la gran cantidad de químicos que se tienen que emplear para su obtención por lo que son poco rentables. Además de que se busca que sea menormente contaminante para el medio ambiente usando menor cantidad de químicos.   En esta estancia trabajamos para desarrollar métodos más sencillos, reproducibles y disponiendo de una menor cantidad de químicos para una mejor sinterización de nanopartículas y nanotubos de titanio.



METODOLOGÍA

Síntesis de nanopartículas de titanio Relación molar:                           Isopropóxido de titanio      Ácido acético          Agua                                   Ti(PrO)4                              CH3COOH               H2O Moles usados              0.2n                                 0.394n                   20.62n Relación molar              1n                                    20n                       1000n   Se preparo solución 1 Se peso el ácido acético Se peso el agua se disolvió el ácido acético en agua y se agito vigorosamente (500 rpm aprox.) hasta conseguir una mezcla homogénea se pesó el isopropóxido de titanio en cámara de vacío a 3% de humedad se añadió el isopropóxido de titanio a solución 1 gota a gota con intervalos de 10 segundos (se disminuyeron las rpm a 227 aprox.) Se evaporo la solución a 80ºc por aproximadamente 24h hasta alcanzar 80ml de solución los granos resultantes se molieron en mortero y el polvo obtenido se colocó en un frasco para su análisis se calcino parte de la muestra a 560ºc por una hora con una rampa de aumento de temperatura de 5ºc por minuto   Síntesis de nanotubos Se preparo solución 1 Se peso el hidróxido de sodio Se peso el agua Se le agrego el hidróxido de sodio al agua y se agito a temperatura ambiente y 400 rpm aprox. hasta conseguir una mezcla homogénea Se preparo solución 2 Se pesaron las nanopartículas obtenidas anteriormente Se vertió la solución 1 en las nanopartículas   Se deja agitando durante 2 horas a temperatura ambiente y 400 rpm aprox. Se coloco en autoclave y se metió a horno por 72 horas a 110ºc El pH inicial de la muestra fue de 15.58. se lavó en dos ocasiones para eliminar el hidróxido de sodio con lo que se obtuvo un pH de 13.16   Se preparo solución 3 (pH 0.45) Se peso el ácido clorhídrico Se peso el agua Se le agrego el ácido clorhídrico al agua y se agita hasta obtener una mezcla homogénea Se preparo solución 4 Se vertió la solución 2 en la solución 3 (pH 0.11) Se dejo agitando vigorosamente (400 rpm aprox.) durante 3 horas Se lavo centrifugo con agua destilada 6 veces por un periodo de 10 minuto hasta que se alcanzó un pH de 6.73


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de la síntesis y caracterización de las nanopartículas y nanotubos de titania y ponerlos en práctica con la técnica de síntesis por sol-gel, sin embargo, debido a la alta demanda de los equipos para su caracterización, no ah sido posible obtener resultados reales de las diferentes síntesis realizadas. Se espera que con los métodos utilizados se logren partículas con un tamaño de alrededor de 20nm
Santiago Cruz Luis Enrique, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. David Morales Morales, Universidad Nacional Autónoma de México

CARBENOS N-HETEROCíCLICOS DE RUTENIO(II) DERIVADOS DE IMIDAZO[1,5-A]PIRIDINA.


CARBENOS N-HETEROCíCLICOS DE RUTENIO(II) DERIVADOS DE IMIDAZO[1,5-A]PIRIDINA.

Santiago Cruz Luis Enrique, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. David Morales Morales, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Los carbenos N-Heterocíclicos (NHCs) son una clase muy importante de ligantes para metales de transición complejos así como organocatalizadores. Se sabe que los NHC ejercen efectos estabilizadores a través de la fuerte donación de electrones de dos átomos de nitrógeno a un vacío p‐orbital del carbono de carbeno como efecto de resonancia, y extracción de electrones debido a la diferencia entre las electronegatividades de los átomos de nitrógeno y carbono como efecto inductivo. Este efecto inductivo debería ser mucho más débil que el efecto de resonancia debido a las diferencias en sus electronegatividades. Por lo tanto, dichos ligantes se han considerado donantes puros de σ, y en la mayoría de los casos su carácter de aceptación de π se considera débil y despreciable.



METODOLOGÍA

Para sintetizar el compuesto de Ru: Se utilizaron los compuestos de Oxido de plata (0.0745876g), [RuCl2(P-cim)]2 (0.2g) y la sal de imidazo[1,5-a]piridinio  (0.14849g) y como disolvente 15ml de 1,2-dicloroetano Para sintetizar el compuesto de Se: Se utilizaron los compuestos de NaH (0.0264g), Selenio (0.1579g), sal de imidazo[1,5-a]piridinio (0.2307g) y como disolvente 20ml de THF Para sintetizar los compuestos se realizaba en un matraz Schlenk el cual se purga previamente para eliminar la humedad que el matraz pueda contener, se mantiene en una atmosfera de nitrógeno y agitación, se agregan los compuestos determinados y por último el disolvente seleccionado, se deja en agitación por 24h. Pasadas las 24h se realiza una columna con silica y celita y se realiza la separación del compuesto sintetizado, se rotovapora el compuesto para eliminar el disolvente, se agrega hexano y se vuelve a rotovapora para precipitar el compuesto, posteriormente se lleva a filtración para obtener el compuesto. Posteriormente se realizaron pruebes de RMN Para la prueba de catálisis se tomó el compuesto de Ru sintetizado: Utilizando Alcohol Bencílico (103.5µL) , Cs2CO3 (0.1629g), Catalizador Ru (0.00463g), y como disolvente Tolueno (2mL) En un matraz bola se agregan los compuestos y se mantiene en agitación a una temperatura de 110°C con reflujo por 24h, pasado este tiempo, en una pipeta Pasteur con celita se filtra el compuesto, se toman 0.5mL del compuesto y se agrega a un vial y se agrega 1mL de 1,2-dicloroetano para ser llevado a cromatografía.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos tanto prácticos como teóricos de sintetización de compuestos organometálicos por medio del ligante Imidazo[1,5-a]piridinio, y poner en práctica el análisis de espectros de RMN como cromatografía. El compuesto de mayor interés (Ru), obtuvimos por medio de la síntesis 0.1231g los cuales fueron utilizados para la catálisis por la cual pudimos obtener el compuesto esperado, sin embargo al ser tan extenso no se logró realizar pruebas biológicas al compuesto.
Santiago Fuentes Eliezer, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora

CARACTERIZACIóN IV(CORRIENTE - VOLTAJE) Y CV (CAPACITANCIA- VOLTAJE) EN SEMICONDUCTORES


CARACTERIZACIóN IV(CORRIENTE - VOLTAJE) Y CV (CAPACITANCIA- VOLTAJE) EN SEMICONDUCTORES

Santiago Fuentes Eliezer, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Armando G Rojas Hernandez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La caracterización de dispositivos semiconductores es una de las actividades que requiere de la integración de instrumentos con la finalidad de proporcionarnos información oculta a través de la interpretación física (bajo ciertas condiciones) de curvas I-V. C-V, C-T e I-T, es por esa razón que planteamos la automatización de instrumentos con capacidades GPIB para obtener curvas semiconductoras de corriente, voltaje, capacitancia- voltaje y el procesamiento de estas, para encontrar parámetros característicos.



METODOLOGÍA

1.Busqueda bibliográfica de caracterización de semiconductores mediante curvas I-V y C-V. 2.Diagrama flujo de la parte controladora y los instrumentos. 3. Programación según e/s y desplegado de panel frontal. 4. Prueba de los programas en los instrumentos. 5. Optimización. 6. Entrega de un pequeño manual de funcionamiento y propuestas de ajustes de futuro.


CONCLUSIONES

Se optimizaron los instrumentos fuente y medidor 2400 de Keithey y el medidor de capacitancia e4981a de ágilent, para realizar la caracterización I-V, C-V para que a traves del procesamiento, poder determinar parámetros de un diodo semiconductor comercial, el IN4001,obteniendo valores de corriente de saturación Io y factor de idealidad, así como una idea de la concentración de portadores en la región de carga espacial.
Santiago Hernández Jorge, Universidad Veracruzana
Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)

DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.


DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.

López González Karenina, Universidad de La Salle Bajío. Martínez González Diana Carolina, Universidad de La Salle Bajío. Santiago Hernández Jorge, Universidad Veracruzana. Vazquez Gonzalez Yaznay, Universidad Veracruzana. Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La carne de cerdo es la tercera más consumida en Colombia, por eso en los últimos años el sector porcicultor ha presentado un desarrollo relativo que le ha permitido crecer de forma constante, fortalecerse en su gestión gremial y consolidar su estructura empresarial. El sector porcicultor en Colombia está evolucionando gracias a la demanda del porcino, queriendo ésta lograr tener sus mayores productores. Sin embargo, el productor porcicultor colombiano se encuentra con diversas problemáticas debido a las deficiencias en la cadena de suministros porcícola colombiana (CSPC), como, por ejemplo, empresas que aún utilizan métodos no tecnificados para la gestión de sus granjas, haciendo que estas prácticas propicien una afectación en la productividad de los procesos dentro la porcicultura ya que impactan en los estándares del producto final. Dada las dificultades presentadas, el objetivo de esta investigación es describir y analizar los indicadores de la CSPC, que influyen en el desarrollo óptimo del proceso de cría, con el propósito de obtener las mejores prácticas en las fases productivas para presentar al sector porcino un sistema de apoyo que facilite y favorezca la inspección y el manejo de los cerdos desde la gestación hasta la ceba.



METODOLOGÍA

La investigación se desarrolló por medio del análisis de observación, bajo la metodología de tipo cualitativa, iniciando con una revisión de literatura en bases de datos científicas, libros, revistas indexadas, reglamentaciones nacionales y tesis, entre otras. Las etapas fueron caracterizadas por medio de diagramas de flujo, con sus entradas y salidas e identificando los correspondientes indicadores de gestión.


CONCLUSIONES

En los resultados se logró identificar algunos indicadores de gestión para cada fase. Adicionalmente, se pudo establecer la necesidad que tiene el gremio de contar con herramientas técnicas y tecnológicas para toma de decisiones efectivas y oportunas, que les permita mayores índices de productividad y desarrollo en el transcurrir del ciclo de vida útil de la cadena. En conclusión, se pudo establecer que el factor más importante del proceso se evidencia en la fase de ceba, ya que aquí se obtiene el mayor consumo de alimento, porque el porcino necesita alcanzar 110 kg de peso vivo, para enviarlo al frigorífico. Se recomienda, continuar con la investigación, para detallar y articular las demás fases del ciclo de vida de la cadena de suministro porcícola colombiana, como son, comercio de cerdos en pie por parte de los acopiadores, sacrificio o plantas de sacrificio porcino formal e informal, desposte (mayoristas y minoristas), plantas de procesamiento de embutidos, comercio al por mayor y comercio al por menor abarcando desde canales hasta restaurantes, proveyendo a la industria porcícola colombiana con una herramienta de gestión que le permita fortalecer sus procesos de toma de decisión, los cuales mejorarán la productividad y niveles de competitividad en los entornos nacionales e internacionales.
Santiago Zavala María Celeste, Universidad de Guanajuato
Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato

CONVECCIóN MIXTA DE UN CILINDRO CIRCULAR ROTANDO


CONVECCIóN MIXTA DE UN CILINDRO CIRCULAR ROTANDO

Santiago Zavala María Celeste, Universidad de Guanajuato. Asesor: Dr. Abel Hernandez Guerrero, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El análisis de convección mixta en cilindros arreglados de manera horizontal es estudiado ampliamente debido a las configuraciones de flujo que proporciona, así como, debido a las diversas aplicaciones de ingeniería que tiene tales como intercambiadores de calor, enfriamiento de componentes electrónicos, torres de enfriamiento, tuberías de gas y aceite. Para este tipo de análisis se obtiene información importante a cerca de los patrones de flujo y la transferencia de calor, así como, la importancia de los aspectos geométricos que intervienen en la configuración de este tipo de estudio. De esta forma, se pueden obtener los resultados más convenientes para la transferencia de calor según sea el caso de aplicación. En este trabajo se propone un canal rectangular, el cual en su interior tiene un cilindro y un cilindro en forma de elipse, se encuentran en un arreglo horizontal con el objetivo de analizar la transferencia de calor en una configuración de este tipo. El canal tiene una entrada de flujo a una velocidad que se varió dependiendo del número de Reynolds y una temperatura de entrada, las paredes superior  e inferior del canal son adiabáticas, la temperatura en las paredes de los cilindros se varió según el número de Richardson siendo la temperatura de las paredes siempre mayor a la temperatura de entrada del flujo al canal, el cilindro estuvo rotando dependiendo del número de Reynolds.



METODOLOGÍA

En una primera instancia se realizó una investigación en el estado del arte. De dicha revisión se seleccionó un caso, del cual se realizó la validación. De esta forma se establecen las propiedades del fluido, dimensiones de la geometría y las condiciones de frontera para el modelo de estudio. De la literatura se sabe que una buena aproximación para el análisis de este caso es un modelo 2D, por lo que para el trabajo presente se utilizó dicha aproximación. En una segunda etapa se realizó la geometría propuesta la cual consistió en una canal rectangular el cual en su interior contiene un cilindro y un cilindro en forma de elipse. Posteriormente se realizó el mallado de la geometría. Finamente se simularon los casos de convección mixta en un software especializado. Se analizaron treinta casos, en los cuales se varió, el número de Reynolds: Re=5, Re=10, Re=20, Re=30 y Re=40, el número de Richardson: Ri=2 y Ri=4, y el tamaño de la elipse teniendo tres diferentes tamaños de elipse diferentes variando sus dimensiones eje menor b y eje mayor a, para la configuración de elipse de tamaño chico: a=  y b=  , para la elipse de tamaño mediano: a=  y b=  , finalmente para la elipse de tamaño grande: a=d y b= . Con la variación de estos parámetros se logró observar los diferentes comportamientos de temperatura al interior del canal y la transferencia de calor.


CONCLUSIONES

El número de Nusselt aumenta conforme aumenta el número de Reynolds, así como también aumenta al aumentar el número de Richardson. Existió  una mayor transferencia de calor en las diferentes elipses para un Ri=2 y sin rotación del primer cilindro, sin embargo mientras mayor es la elipse existe una mejor transferencia de calor. Cuando se rota el primer cilindro disminuye la transferencia de calor de este primer cilindro en comparación a los datos ya reportados en el estado del arte mientras que la transferencia de las elipses continuó superior a los datos de la literatura. Para una configuración con  Ri=4 sin rotación en el primer cilindro, aumentó la transferencia de calor en las elipses en comparación con un Ri=2. Cuando se rotó el primer cilindro aumentó la transferencia de calor en este primer cilindro sin embargo la transferencia de calor en las elipses de tamaño chico y mediano permaneció por debajo de los datos publicados, mientras tanto la elipse de tamaño grande mantiene una transferencia de calor mayor en comparación a los resultados del estado del arte. Para un análisis como el que se presentó fueron muy importantes los aspectos geométricos ya que en algunos casos existió mayor relevancia en la configuración geométrica que en la rotación del cilindro. Cabe resaltar que la configuración de un cilindro y una elipse grande fue la mejor configuración ya que aun cuando las elipses de tamaño chico y mediano quedaron por debajo de los datos ya reportados en algunas configuraciones, esta superficie obtuvo una mejor transferencia de calor.
Santos Alcántara Karen, Tecnológico de Estudios Superiores de Jocotitlán
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES


SISTEMA DE CONTROL DEL CONTEO DE CUBETAS EN PRODUCCIÓN DE HORTALIZAS E IDENTIFICACIÓN DE LOS EMPLEADOS MEDIANTE UN LECTOR DE VENAS DACTILARES

Corrales José Alberto, Universidad Politécnica del Mar y la Sierra. Milan Soto Elizeth, Universidad Politécnica del Mar y la Sierra. Santos Alcántara Karen, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

En los cultivos agrícolas existe en gran variedad en cuanto a la producción de hortalizas en sus diferentes variedades, por lo que el requerimiento de empleados es mayor, dentro de la producción es requerido registrar la cantidad de cubetas que se cortan por empleado, en base a esto se puede registrar una cantidad mayor a la que se produce por día, ya que los registros realizados se hacen de manera manual lo que implica también que la seguridad sea vulnerable además de esto se desea implementar un lector de venas dactilares aumentando así la seguridad de los datos, se implementó este tipo de lector, ya que usar un lector de huella digital puede resultar un tanto complicado puesto que en los trabajadores del campo la huella puede estar dañada por el trabajo que se realiza, con el paso del tiempo las huellas se  van deteriorando y esto resulta ineficiente al registrar a los empleados cuando estos tengan que ser asignados a una cuadrilla de trabajo.



METODOLOGÍA

En el conteo de la producción de la empresa Sol y Arenas y Anthony se utilizó un sistema diseñado en el lenguaje de programación Java con el fin de realizar este proceso de conteo de una manera más gráfica que permita a el encargado manejar la formación de cuadrillas de trabajo dentro del cultivo, así mismo el sistema estará enlazado a una base de datos en MySQL en donde toda la información de los trabajadores estará almacenada dentro de ella para que de esta manera se pueda manejar de forma más rápida y eficiente evitando inconsistencias con la información. Todo este sistema estará apoyado por un lector de venas dactilares en donde los trabajadores deberán de registrar su asistencia al instante de formar las cuadrillas para que posteriormente se realice el conteo de producción que se haya recolectado durante un día, ya que esta información será requerida por el departamento de nóminas y que este pueda otorgar los salarios correspondientes a lo trabajado. Para la elaboración del sistema se requirió realizar una metodología exploratoria como descriptiva, se realiza de tipo exploratoria debido a que no existe un antecedente a el proyecto en cuestión, sino que se realizan las pertinentes investigaciones de campo con las personas que se encuentran a cargo con esto se pretende observar los fenómenos en cuanto a la formación de las cuadrillas para obtener resultado de acuerdo con lo que se haya observado y en base a esto se desarrolle el sistema con la información que será requerida. Además la metodología se realizó en base a prototipos basada en un diseño experimental del sistema que servirá para que los usuarios finales lo evalúen, el cliente podrá interactuar con el prototipo del sistema así puede darse una idea de los requerimientos que necesita. Mientras que la descriptiva se pretende formular una descripción de los factores a utilizar de acuerdo en la manera que se estén trabajando actualmente, la finalidad es buscar como especificar las propiedades que son relevantes para medir y evaluar los aspectos que conforman el proyecto, teniendo en cuenta la información que se obtuvo. El sistema pretende determinar el control de asistencia de los trabajadores en los días laborales para la formación de las cuadrillas para que la información generada pueda ser obtenida por el departamento de nóminas y que estos puedan determinar la producción que haya sido recolectada por cada trabajador. Además, con este sistema también se quiere aumentar la seguridad de la información manejada dentro de los cultivos y que solo el personal que esté a cargo de la empresa pueda hacer el uso de la información sin que terceros tengan el acceso a esta. Este sistema estará siendo desarrollado por la Universidad Politécnica Del Mar y La Sierra   la cual se implementara en los cultivos con los que cuenta la empresa Sol y Arenas y Anthony en los kilómetros 85 y 101 dentro del Estado de Sinaloa en el municipio de Elota, en ambos cultivos el sistema que está siendo diseñado tendrá la misma función, el sistema realizara el conteo de cubetas que ha sido recolectado por trabajador y por cuadrillas. El lector de venas dactilares a utilizar será de la marca Hitachi modelo H-1 contando con las siguientes características: Imposible falsificación: la lectura del patrón interno de las venas del dedo hace que sea prácticamente imposible de falsificar Precisión: lectura rápida y precisa. Rapidez: tiempo total de verificación 2 segundos Tamaño: reducido tamaño 59 x 82 x 74 mm. Diseño moderno: ideal para sobremesa Por estas características se eligió esta nueva tecnología para la seguridad de la información, ya que es imposible que alguien pueda duplicar el patrón de venas dactilares.


CONCLUSIONES

Durante la estancia de verano en la Universidad Politécnica del Mar y la Sierra se investigó lo referente al proyecto que se está desarrollando adquiriendo los conocimientos teóricos sobre el conteo de la producción en grandes cultivos utilizando nuevas tecnologías para posteriormente implementarlo dentro de los campos, debido a que el proyecto requiere de más elementos este aún se encuentra en un 80% de avance en cuanto a la programación siguiendo con la etapa de desarrollo, se han cumplido las primeras etapas del ciclo de vida las cuales son la planificación y análisis, faltando la etapas de implementación y pruebas, por ello no se pueden mostrar resultados exactos de lo que se pretende obtener.
Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango

SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)


SOFTWARE INTERACTIVO DE FíSICA GENERAL (FISITEC)

Hernández Cabrera David Yael, Instituto Tecnológico Superior de Huauchinango. Hernández Lara Raúl, Instituto Tecnológico Superior de Huauchinango. Méndez González Aldo Sebastián, Instituto Tecnológico de Chilpancingo. Santos Castelán Brayan Magdiel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Hoy en día la tecnología ha avanzado a pasos agigantados, sin embargo, en las aulas de clases a nivel superior apenas se hace uso de ella, no más allá de emplearse en forma de una plataforma facilitadora para la comunicación y una herramienta de proyección de archivos de texto y audiovisuales. Siendo escasas o nulas las opciones de software enfocadas en un diseño o programa educativo especifico, en pos de mejorar la retención y reafirmación del conocimiento que adquiere el alumno. Se han realizado diversas investigaciones para la construcción de software educativo, especialmente para el área científica, siendo creados diferentes modelos de evaluación que permiten tener una guía para el desarrollo de este tipo de software. A pesar de ello, en el mercado existen muy pocas opciones donde el docente pueda discernir entre las aplicaciones que se adapten a sus necesidades y la de sus alumnos en el aula. Es por ello necesario el desarrollo de un software que funcione como una herramienta complementaria adaptada a los menesteres del aula, creando una relación tripartita entre el docente, el alumno y el equipo de desarrollo y diseño del software, implementando lo más reciente en la tecnología que el equipo pueda utilizar, para asegurar una experiencia de usuario y funcionalidad exitosa.



METODOLOGÍA

Para el diseño de las propuestas de las interfaces de usuario se utilizó la herramienta Balsamiq Mockup y el drag and drop de NetBeans, Al mismo tiempo que se hacia la selección de colores según las emociones, sensaciones y virtudes que cada uno de estos transmite, según lo que la autora Eva Heller describe en su libro Psicología del color. Después de haber seleccionado el diseño de interfaces y la paleta de colores para el programa, se siguio con la investigación en distintas fuentes para el contenido de las primeras cuatro unidades, con base a el temario del Tecnológico Nacional de México. También se creo ilustraciones propias para hacer más amena la lectura del alumno. Para la sección de evaluación del programa, se acudio a la escuela normal Profesor Fidel Meza y Sánchez, ubicada en la ciudad de Huauchinango, Puebla, donde maestros y estudiantes de la institución dieron su asesoria, dando sus opiniones acerca de nuestro proyecto. Aclarándonos que la mejor forma de evaluación que se podía utilizar era la evaluación formativa. Un asesor externo, docente del Instituto Tecnológico Superior de Huauchinango, nos guio para incluir la herramienta de evaluación con preguntas de opción múltiple y ejercicios teóricos acerca de cada unidad. Se continu con el desarrollo de applets para la parte interactiva del programa, inspirados por los temas que trata la materia, como: la resultante de fuerzas coplanares, la segunda ley de Newton, la óptica, la termodinámica, entre otros. Haciendo uso de las tecnologías disponibles para la graficación en 2D y 3D para el lenguaje de programación Java. Después se siguio con la migración del código, que ya se había avanzado anteriormente, al Modelo Vista Controlador, para lograr que el programa fuera escalable, modular y robusto. Para la creación de las vistas y para que estas se adaptasen a cualquier resolución de pantalla, se utilizó la librería MigLayout, siguiendo el prototipado del diseño elegido. Para cuando todo el código estaba unido, se comenzaron con las pruebas en busca de errores para luego corregirlos. Posteriormente se diseñó e implemento la página web oficial del proyecto, donde se describe de qué trata, sus objetivos y como funciona, además de mostrar una vista previa del programa. Se trabajó con el framework Laravel, para después montarlo en el hosting de Heruko en su versión gratuita. Para el diseño de la página, se optó por uno de tipo scrolling y responsivo utilizando el framefork Bootstrap.


CONCLUSIONES

Durante la estancia se logró adquirir conocimientos teóricos de las formas de diseño y desarrollo para un software interactivo con un enfoque educativo y ponerlos en práctica con las técnicas de la ingeniería de software, mas al ser un proyecto extenso, aún se encuentra en desarrollo y solo se ha acabado una versión alpha del mismo, lo que quiere decir que ya se puede probar el software, pero no contiene toda la funcionalidad que tiene contemplado el producto final.
Sauceda Jacobo Alejandra Mireya, Instituto Tecnológico de Culiacán
Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato

ESTIMACIóN DE CAPACIDAD DE GENERACIóN DE ENERGíA ELéCTRICA POR MEDIOS FOTOVOLTAICOS


ESTIMACIóN DE CAPACIDAD DE GENERACIóN DE ENERGíA ELéCTRICA POR MEDIOS FOTOVOLTAICOS

Sauceda Jacobo Alejandra Mireya, Instituto Tecnológico de Culiacán. Asesor: Dr. Miguel Angel Gómez Martinez, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

El uso de la energía fotovoltaica ayuda a mitigar el cambio climático al reducir la dependencia de combustibles fósiles como el carbón y el petróleo, además es útil para generar electricidad a gran escala e inyectarla en red, en especial en zonas geográficas cuya meteorología proporcione abundantes horas de sol al año. Sinaloa cuenta con un promedio de radiación solar diaria de 5,6 KWh/m², colocándolo como uno de los lugares con mayor captación solar en el país. La irradiación solar no es exactamente constante y con el propósito de conocer su comportamiento a futuro se utilizan modelos matemáticos. Se utilizan las series de Fourier para la estimación de la irradiación solar, que permitirá identificar la capacidad de generación de energía eléctrica, durante los próximos 5 años de una instalación de 2.01 KW en la ciudad de Topolobampo que se ubica en el municipio de Ahome.



METODOLOGÍA

Los datos obtenidos de NASA POWER (Prediction Of Worldwide Energy Resources) indican la cantidad promedio diaria de la irradiación solar total que incide sobre una superficie horizontal en 5 ciudades con mayor radiación solar. En Topolobampo hay mayor insolación en una superficie horizontal y es de principal interés que incida la mayor cantidad ya que la generación es directamente proporcional a las horas pico solar. Se recolectaron los datos correspondientes a las fechas de 5 años atrás desde 2014 a 2018 con las coordenadas 25,60431°, -109,05099°, y se discretizaron los datos por cada mes con el propósito de hacer los datos adecuados para la evaluación numérica y la implementación en los modelos matemáticos.  Los datos obtenidos son de la cantidad promedio diaria de la irradiación solar total que incide sobre una superficie horizontal. Se realizó el calculo de la irradiación en una superficie inclinada utilizando los datos de angulo óptimo y el índice de claridad de insolación KT. Los datos fueron introducidos en el programa MATLAB; y con la herramienta cftool los datos fueron graficados según diferentes ecuaciones predeterminadas del programa. Para seleccionar el modelo matemático que describiera mejor el comportamiento de los datos de irradiación, se consultaron las estadísticas de bondad de ajuste. La ecuación de Fourier de la caja de herramientas de MATLAB de 8 términos tuvo mejores valores de bondad de ajuste. La propuesta del proyecto de sistema fotovoltaico en Topolobampo consiste en generar un porcentaje de energía para evitar los costos excesivos de electricidad debido a el acondicionamiento del ambiente en verano. El sistema fotovoltaico para una casa en Sinaloa necesita 1,9772 KW.  Para el presente proyecto se instalarán 2,01 KW en cada casa de interés social de Infonavit. Para el proyecto de 2,01 KW se solicitará el Incentivo del Programa de Mejoramiento Integral Sustentable por parte de Fideicomiso para el Ahorro de Energía Eléctrica (FIDE). Consiste en recibir el financiamiento de $ 57488.54 con crédito de 18% anual más IVA sobre saldos insolutos. Y recibir un incentivo económico equivalente al 10% del costo de la tecnología por parte de SENER y el 30%  por el CONAVI.  


CONCLUSIONES

El sistema de 2,01 KW es un modelo de consumo en una casa promedio de Sinaloa, aunque existen diferentes consumos de electricidad es importante señalar que el recurso solar en Sinaloa  representa una opción viable para prescindir de la energía con altos costos de la Comisión Federal de Electricidad. Los años de retorno de inversión son 4 años 2 meses. Lo que indica que el sistema de 2,01 KW es rentable. Después de este lapso de tiempo, son ganancias de $ 252000 hasta que agote su vida útil de 25 años. 
Saucedo Sanchez Jesus Brayan, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato

CONTROL DE SISTEMAS DE REDES ELéCTRICAS INTELIGENTES.


CONTROL DE SISTEMAS DE REDES ELéCTRICAS INTELIGENTES.

Saucedo Sanchez Jesus Brayan, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Héctor Javier Estrada García, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Tradicionalmente, la electricidad que consumimos tan frecuente en casa es producida en grandes centrales hidroeléctricas o termoeléctricas. Lamentablemente las energías que más se están utilizando son las no renovables, cuando es generada, se transmite por grandes distancias y se adecua para ser distribuida a las comunidades. Ese sistema se ha estado usando hasta la fecha, pero esto ha generado grandes pérdidas de electricidad, a veces por cuestiones técnicas algunas otras por diferentes razones como el robo de luz, por lo cual existe un alto gasto de energías no renovables y que además esto contribuye a la generación de gases invernadero. Pero por suerte en la actualidad a aparecido un nuevo concepto de Redes Eléctricas Inteligentes o Smart Grids las cuales son una combinación entre las redes eléctricas y las informáticas, ya que estas aprovechan de la información digital y de las tecnologías inteligentes para la medición y la comunicación, esto ha generado un incremento en la confiabilidad, estabilidad, seguridad y eficiencia de los sistemas eléctricos. Se han reconocido a estas como una de las principales tecnologías para la reducción las emisiones de Dióxido de Carbono.



METODOLOGÍA

Utilizamos una herramienta CAT la cual se llama Solid Board, para hacer el diseño en 3D de las piezas faltantes para completar todos los componentes de la maqueta, en las cuales podemos destacar un aerogenerador a escala para poder simular lo mayor posible a uno real. También diseñamos la placa donde conectaremos todos nuestros componentes necesarios, para ello utilizamos una herramienta llamada Proteus. Analizamos con detalle cada uno de los componentes que vamos a utilizar en la maqueta en la cual utilizando nuestros conocimientos de electrónica podremos conectar de una forma adecuada todos los componentes, y así tener una correcta simulación de una Red Eléctrica Inteligente o Smart Gird por su nombre en inglés. Los mas importantes son un motor del aerogenerador, paneles solares, una batería y componentes luminiscentes (Simulando postes de luz) Dicha maqueta pretende simular como es que una Smart Gird puede alimentar de luz eléctrica a un parque ocupando el mínimo uso de energía y utilizando energías renovables, en otras palabras, que sea sustentable o casi autosustentable. En primera estancia y como prioridad se utilizara la energía obtenida por los rayos del sol mediante los panees solares, si se da el caso que la energía solar ya no es suficiente o bien ya no se recibe energía solar, pasara a obtener energía de la fuente eólica, mientras esta no sea utilizada pero este en movimiento será almacenada la energía, si la energía eólica tampoco es suficiente pasara a alimentar completamente pasara a el Banco de Energías donde se ha almacenado toda la energía que no ha sido ocupada tanto por los paneles solares y la energía eólica, y así satisfacer la energía de todo el parque, si es que la energía almacena es baja pasara a utilizar energía de la red eléctrica, en casos extremos que llegue a la red eléctrica y esta falle o tenga cortocircuito utilizara la poca energía almacenada pero en este caso en específico empezara a pagar componentes que ocupen mayor consumo de energía y no sean tan necesarios, si continua reduciendo apagara luces de forma estratégica para no dejar lugares totalmente obscuros. Así en ese orden, y si algún componente anterior se estabiliza, comenzara nuevamente el ciclo dependiendo de que componente fue. Para realizar lo anteriormente mencionado utilizaremos una tarjeta de Arduino donde haremos toda la programación para hacer posible el correcto funcionamiento.


CONCLUSIONES

Con este proyecto se a logrado llevar a cabo el control de un sistema eléctrico inteligente, este aunque fue echo en una simulación en maqueta nos damos cuenta de la magnitud del proyecto ya que podemos aplicarlo  a un parque real, o inclusive a una ciudad, donde podemos hacer que el consumo de energía eléctrica obtenida por energías no renovables disminuya cambiándola por energía sustentable, además de la importancia de tener mas de una opción de energía esto para lugares como hospitales que es fundamental tener luz eléctrica.
Saurith Urrariyu Adonis de Jesus, Universidad de la Guajira (Colombia)
Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla

METODOLOGíA PARA DETERMINAR LAS ENTALPíAS DE CAMBIO DE FASE Y DE FORMACIóN.


METODOLOGíA PARA DETERMINAR LAS ENTALPíAS DE CAMBIO DE FASE Y DE FORMACIóN.

Rojas Hernandez Jose Raul, Instituto Politécnico Nacional. Saurith Urrariyu Adonis de Jesus, Universidad de la Guajira (Colombia). Asesor: Dr. Miguel Angel García Castro, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los avances económicos y tecnológicos incomparables del mundo civilizado, están directamente relacionados con el aumento de la cantidad de energía disponible para llevar a cabo diversas tareas que anteriormente eran realizadas mediante el esfuerzo muscular del hombre. La disponibilidad de bienes y servicios y la producción industrial en general tienen que ver con el consumo de energía per cápita. La termoquímica se puede definir como la rama de la termodinámica que se encarga del estudio de los intercambios de energía en forma de calor que acompañan a las reacciones químicas y los estudios de cambio de fase. Las propiedades termoquímicas son la base del diseño y de las condiciones de operación de diferentes tipos de procesos, algunas de éstas podrían ser la capacidad calorífica, la entalpía estándar de formación y las entalpias de cambio de fase. En la Benemérita Universidad Autónoma de Puebla, se estudia la termoquímica de compuestos orgánicos en la Facultad de Ingeniería Química y en la Facultad de Ciencias Químicas. Se emplea una metodología preestablecida para realizar un buen análisis termoquímico, el objetivo de la estancia corta de un mes y medio implica el entender cómo se determina la pureza, capacidad calorífica, entalpias de formación molares estándar y entalpias de cambios de fase. Así como el uso de algunos equipos que nos proporcionan dichas propiedades (Calorímetro de Combustión, Calorímetro Diferencial de Barrido (DSC) y Termogravimetría (TG)).



METODOLOGÍA

Se utiliza un calorímetro diferencial de barrido, un equipo de termogravimetría y un calorímetro adiabático de bomba estática para realizar el análisis termoquímico de cualquier compuesto orgánico. Primero se debe verificar su pureza. Si no es mayor al 99%, se debe llevar a cabo una recristalización con el fin de aumentarla por arriba de 99%. Una vez recristalizado, se realiza el análisis para pureza en un Calorímetro Diferencial de Barrido (DCS), en el cual, se dispone de la muestra en un crisol que debe de estar sellado. Después se coloca dicho crisol dentro del equipo, uno será de referencia y el otro el que contiene la muestra. Se programa la velocidad de calentamiento a razón de 1 °C por minuto, en un intervalo de temperatura a una atmósfera inerte. Posteriormente al término del experimento, se obtendrá un termograma con el cual se podrá obtener la pureza, la capacidad calorífica y la temperatura de fusión del compuesto. Asimismo, si la línea base se conserva antes y después del cambio de fase (fusión), podremos calcular el área bajo la curva, con lo cual determinaríamos la entalpia de fusión. Luego, el compuesto se analiza en un TG el cuál mide las variaciones de pérdida de masa frente al tiempo a una temperatura determinada, esta pérdida de masa se utiliza para hallar las entalpías de vaporización y/o sublimación del compuesto mediante el uso de un método indirecto. Se utilizan las ecuaciones de Langmuir y de Clausuis Clapeyron para determinar dichas entalpías, a partir de un ajuste de regresión lineal. Finalmente, se realizan pruebas en el calorímetro de combustión adiabático de bomba estática. El cual consiste en el análisis de un proceso de combustión, donde el compuesto puro dentro de una bomba calorimétrica se quema. A partir de dicho resultado, se determina la entalpia estándar de combustión y la entalpia estándar de formación a condiciones isotérmicas y estándares. Una vez obtenidas las entalpias de cambio de fase y de formación en fase cristalina o liquida, a 298.15 K, por medio de algunos cálculos sencillos, se puede determinar la entalpia de formación en fase gaseosa del compuesto en cuestión. Primero, se trazan rutas teóricas a partir de los resultados obtenidos. Donde el punto de partida, son las condiciones experimentales y el punto al cual se desea llegar son las condiciones estándar y a 298.15 K. Una vez que todas las propiedades están a dichas condiciones. Se realizan rutas para poder determinar la entalpia de formación en fase gaseosa.


CONCLUSIONES

En el XXIV Verano de la Investigación Científica y Tecnológica del Pacífico 2019 - MÉXICO, estancia en la Benemérita Universidad Autónoma de Puebla se concluye que se pudieron adquirir las bases teóricas y las técnicas experimentales para la determinación de algunas propiedades termoquímicas de compuestos orgánicos. No obstante, no se pudo estudiar un compuesto en específico, debido al corto tiempo. Las recomendaciones son seguir utilizando metodologías sustanciosas para obtener el conocimiento adecuado de la temática Termoquímica de Compuestos Orgánicos que utiliza el investigador Dr. Miguel Ángel García castro de la Benemérita Universidad Autónoma de Puebla. Los conocimientos adquiridos a pesar del tiempo fueron los esperados, por ende sugerimos que otros investigadores de diferentes universidades propongan metodologías correctas como nuestro investigador. Finalmente, se conoce la importancia de estudios termoquímicos para diferentes compuestos en diferentes ámbitos tales como el industrial, ya que con los conocimientos aprendidos podemos refutar ideas en nuestro semillero de investigación. Además, se comprenden las funciones, los procesos y los principios de los equipos empleados en termoquímica, por lo que nos da la facultad de ampliar el conocimiento para el diseño de algunos equipos y de crear nuevas condiciones experimentales de trabajo.
Sedano Cabanillas Angel Ivan, Universidad de Sonora
Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)

CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)


CONCRETO SOSTENIBLE CON LA INCORPORACIÓN DE RESIDUOS DE CONSTRUCCIÓN Y DEMOLICIÓN (RCD) Y ESCORIA DE HORNO DE ARCO ELÉCTRICO (EHAE)

Ambriz Fregoso Carlos Alfredo, Instituto Tecnológico de Tepic. Martinez Ulloa Ana Patricia, Instituto Tecnológico de Tepic. Sánchez Tovar Ricardo, Instituto Tecnológico de Tepic. Sedano Cabanillas Angel Ivan, Universidad de Sonora. Asesor: Dr. Manuel Alejandro Rojas Manzano, Pontificia Universidad Javeriana (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Uno de los mayores problemas que enfrenta en la actualidad la industria de la construcción es el impacto ambiental provocado por el crecimiento poblacional y demanda de mayores espacios de vivienda e infraestructura en general. Dentro de los impactos se destacan: la disminución de los recursos naturales, la generación de residuos y la contaminación en general. Lo anterior, origina grandes desafíos para la industria desde ámbitos como la sostenibilidad y una economía circular de los materiales y residuos.



METODOLOGÍA

Para alcanzar el objetivo propuesto se plantea el siguiente proceso metodológico experimental: 1. Revisión de estudios a nivel mundial sobre el uso del RCD y la EHAE en la construcción. Se hará una búsqueda en las principales revistas científicas indexadas sobre la utilización de estos residuos en materiales a base de cemento. 2. Caracterización de los materiales para la fabricación de concreto. 3. Con los materiales estudiados, que deben cumplir con la norma indicada para la producción de concretos y morteros, se realizará el diseño de mezcla de concreto de resistencia normal según el método del ACI 211.1. 4. Fabricación de concretos con remplazos parciales (20% y 50%) de agregado grueso por RCD y EHAE, para así establecer sus propiedades en estado fresco. 5. Determinación de las propiedades en estado endurecido (resistencia a compresión, resistencia a tracción y absorción), a los 7 y 28 días, de los concretos fabricados.


CONCLUSIONES

Los residuos afectan la trabajabilidad del concreto, pues a medida que se incrementa el % de reemplazo, disminuyó el asentamiento. El reemplazo de agregado grueso por RCD en 20% produjo a los 7 días un incremento de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 20% tuvo un efecto positivo pues aumentó, tanto la resistencia a la compresión a los 7 días, como la resistencia a la tracción. El reemplazo de agregado grueso por RCD en 50% produjo a los 7 días una disminución de la resistencia compresión y una disminución de la resistencia a la tracción. La incorporación de la EHAE en 50% aumentó la resistencia a la compresión a los 7 días, y disminuyó la resistencia a la tracción. Finalmente, se concluye que los residuos han demostrado ser una alternativa técnica viable para la fabricación de concretos sostenibles.
Segura Olivares Keyla Esther, Universidad de La Salle Bajío
Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío

EFECTO MOIRé EN PROYECCIóN DE FRANJAS


EFECTO MOIRé EN PROYECCIóN DE FRANJAS

Segura Olivares Keyla Esther, Universidad de La Salle Bajío. Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

El efecto Moiré o muaré como también se le conoce es un efecto visual dado, por la sobre posición de dos patrones regulares de rejillas de líneas, ya sean rectas o curvas, con un cierto ángulo o cuando tales rejillas tienen tamaños ligeramente diferentes los cuales interactúan creando una distorsión visual y generan un nuevo patrón.



METODOLOGÍA

Para crear este efecto , se necesita trasponer dos patrones de franjas del mismo calibre y trasponerlas en una superficie llamadamarco de refrencia en donde se veran las distorciones visuales efecto de los patrones, a esto se le llama sistema de estereovisión. Este sistema se creo proyectando dos patrones de franjas regulares en dos proyectores a la misma distancia y calibrado al mismo ángulo de inclinación , estas franjas se proyectoronn sobre una superficie blanca con relieve . Al moverse los relieves que se crearon o hacer presión sobre esta ,se observa  como el patrón de ondas cambia. Esta superficie cambiante sirve para determinar el área de la superficie  creada.


CONCLUSIONES

Con esta serie  de proyecciones se tiene muchas aplicaciones para diferetes campos.  Esta simulación de deformaciones mediante ondas permite  observar el movimiento que genera sobre la proyección de  los patrones de franjas transpuestos, y estas ondas que se crean permiten recosntruir el relieve irregular que se tiene y con el conocer su área real.
Sequeda Martínez María Isabel, Corporación Universitaria del Caribe (Colombia)
Asesor: Dr. Omar Ismael López Suárez, Universidad Politécnica del Valle de México

ANÁLISIS NUMÉRICO DE UN SOCKET ERGONÓMICO CUADRILATERAL PARA UN PACIENTE CON AMPUTACIÓN TRANSFEMORAL


ANÁLISIS NUMÉRICO DE UN SOCKET ERGONÓMICO CUADRILATERAL PARA UN PACIENTE CON AMPUTACIÓN TRANSFEMORAL

Sequeda Martínez María Isabel, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Omar Ismael López Suárez, Universidad Politécnica del Valle de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad en México es complicado adquirir una prótesis de alta calidad, ya que, los costos son elevados puesto que la mayoría de los pacientes carecen del uso de elementos protésicos y en muchos casos utilizan componentes más baratos e ineficientes. Por lo que en esta investigación se fabricó un socket ovo-transversal que debe de cumplir con los requisitos de movilidad y características antropométricas propias del paciente. Por tal motivo, se tuvo la firma de un consentimiento informado del paciente, dentro de las instalaciones de la Universidad politécnica del Valle de México, con el cuerpo académico de Biomecánica. Para el caso de estudio, se requirió un paciente masculino de 23 años, amputación miembro pélvico izquierdo a nivel tercio proximal, ocasionado por trauma. Con un peso 65 kg y una estatura de 1.70 metros. Por lo tanto, se le realizaron las evaluaciones clínicas por parte de una prescripción médica, donde se le tomó el molde y fábrico el socket de acuerdo a sus necesidades, donde posteriormente este socket manufacturado en fibra de Carbono fue ingresado a un tomógrafo para su reconstrucción digital y realizar la evaluación numérica por medio del Método del elemento Finito, ya que se consideró que es el método adecuado cuando se trata un problema de estimación de valores, con la cual se implementa la prótesis de acuerdo a las necesidades clínicas y antropométricas del paciente.



METODOLOGÍA

Reconstrucción del socket transfemoral mediante Tomografía Axial computarizada (TAC) El procedimiento para la reconstrucción del socket, se produce realizando cortes axiales, con espesor determinado y área axial del cual es obtenida una imagen digital. Con el propósito de conseguir un modelo aceptable del encaje se siguen los siguientes pasos: 1- Obtención de imágenes digitales mediante tomografía La reconstrucción del encaje fue realizada mediante el uso de un tomógrafo SIEMENS en las instalaciones del UMAE (Unidad Médica de Alta Especialidad) Magdalena de las Salinas, Perteneciente al IMSS, dentro del cual fue colocado en el tomógrafo. 2- Procesamiento de tomografía digital Con el programa abierto se importan las imágenes DICOM para proceder a la reconstrucción. Donde el primer paso es crear una máscara que servirá para seleccionar dentro del espacio de la tomografía el área de interés. Ya que se cuenta con todas las áreas y contornos generados, es posible crear el modelo tridimensional mediante un algoritmo del mismo Scan IP®, así obteniendo una imagen digital 3D en formato STL que servirá para la generación de un modelo sólido. 3- Procesamiento de Fichero STL para obtención del sólido Se apoya mediante un programa de diseño Solid Works ®, para suavizar apariencia de la superficie del modelo. Posteriormente, es necesario realizar algunas tareas dentro del programa para la generación del sólido que permitirá la exportación de este a cualquier programa de elementos finitos para realizar el análisis de esfuerzos. Propiedades mecánicas del encaje protésico La selección apropiada de los materiales con los cuales se fabrica la prótesis, deben garantizar que el producto sea seguro y con la calidad apropiada para los usuarios de estas. En este caso fue de fibra de Carbono, la selección de este material fue realizado por el protesista quien como especialista manufacturó el socket, este material posee características apropiadas la fabricación de dispositivos protésicos. Discretización del medio continúo Se debe hacer mención que el análisis del socket contemplará la fuerza que se ejerce en el fémur y el tejido muscular del miembro residual, por lo que únicamente se necesita conocer el comportamiento del socket, se tomarán las propiedades mecánicas del hueso como general sin tomar en cuenta las propiedades del hueso trabecular y cortical, solo se generalizará. Además de esto también se divulgarán las propiedades mecánicas del tejido, se toma en cuenta que todos los aspectos sobre las propiedades mecánicas son importantes para realizar el estudio, pero por ahora únicamente el análisis se centra en la distribución de esfuerzos del encaje, durante la prueba de marcha.


CONCLUSIONES

Durante la investigación del socket y el análisis de las configuraciones de este para personas con amputación transfemoral se puede concluir que para la fabricación y recubrimiento de estos existen gran variedad de materiales con amplias prestaciones, pero requiere de varias consideraciones como la geometría, la cual proporciona soporte y superficie para la transferencia de peso; la adaptación, la cual permite la carga y la descarga, el ajuste al isquion y la liberación del tendón abductor. El encaje debe ser periódicamente modificado debido a las variaciones del volumen del muñón, el cual se reduce notablemente en los primeros años posteriores a la amputación, durante este tiempo el usuario puede requerir un cambio de encaje. Además, la variación del volumen diaria debe considerarse en el diseño del encaje para asegurar estabilidad y confort. Teniendo en cuenta la comparación de las cuencas transfemorales, la calidad de la prótesis y el cambio en el estilo de vida del paciente debe ser un aspecto a analizar para que permita llevar un control de la efectividad de la prótesis. Así mismo, dentro de las necesidades para llevar a cabo la fabricación de un encaje, se proponen criterios de número de consideraciones ergonómicas, características del usuario para la aplicación del protocolo, materiales y procesos de manufactura. Obteniendo el paciente consigo grandes beneficios tales como la capacidad de guardar los datos y la forma del muñón de cada paciente, trazar proyecciones en el cambio del volumen del muñón y evolución con el uso de la prótesis, fácil transferencia y almacenamiento de datos del muñón y logrando así, mejorar su estilo de vida.  
Serafin García Cesar Alejandro, Instituto Tecnológico de Tepic
Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo

EVALUACIóN DE LA INFRAESTRUCTURA HIDRáULICA DEL SISTEMA DE AGUA POTABLE EN EL MUNICIPIO DE CHARO.


EVALUACIóN DE LA INFRAESTRUCTURA HIDRáULICA DEL SISTEMA DE AGUA POTABLE EN EL MUNICIPIO DE CHARO.

Serafin García Cesar Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Constantino Dominguez Sanchez, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La localidad de Charo, Michoacán de Ocampo, México; es la cabecera municipal, está localizada a 15 Kms. de la capital del Estado por la carretera Morelia-Charo-Maravatío. Su principal actividad económica es la agricultura y el comercio. Cuenta con 5037 habitantes (aproximadamente) y se encuentra ubicada en las coordenadas -101.044722° en Longitud y 19.746111° en Latitud a una altura media de 1920 metros sobre el nivel del mar. Debido al paso del tiempo y a una mala organización con el sistema de abastecimiento de agua potable, la localidad presenta grandes fallas en el acueducto, provocando el mal abastecimiento del líquido a sus habitantes, con un rezago del acueducto 35 años. Las principales problemáticas presentadas en el sistema de abastecimiento de agua potable de la localidad de Charo son el crecimiento desordenado del acueducto, Tuberías de conducción expuestas en algunos tramos de la red y pérdidas de energía en el sistema. Lo que se busca principalmente con este proyecto es "resolver la problemática de abastecimiento de agua potable en la localidad mediante simulación del estado actual de la red y brindar propuestas técnicas para la mejora de la red de distribución de agua potable".



METODOLOGÍA

Población  Utilizando el "Método de mínimos cuadrados" se realizaron los cálculos de población necesarios para el año actual y para un horizonte de proyecto de 20 años. Gasto y Dotación de Agua Potable Tomando como guía el libro 4 Datos básicos MAPAS CONAGUA, obtuvimos la dotación, que es el agua que se le asigna a cada habitante, para su consumo, pero además se le agregan las perdidas físicas del sistema; sus unidades están dadas en l/hab al día. Utilizando la tabla 2.2 del libro; Tomaremos en cuenta que en los antecedentes se menciona que el clima de la localidad en cuestión es Templado o Frío. Además de los gastos de consumo siendo: Gasto Medio Diario Habitacional              Qmed=(PxD)/86400 Donde: Qmed= Gasto medio diario en lts./seg P=Número de habitantes D=Dotacion en lts/hab/día 86400= Segundo que hay en un dia Calculo del Gasto Máximo Diario             Qmd=CVd x Qmed Donde: Qmd= Gasto máximo diario en lts/seg CVd= Coefiiente de variacion diaria (de la tabla 2.5 del libro datos básicos pag. 18) Qmed=Gasto medio diario en lts/seg Calculo del Gasto Máximo Horario            Qmh=CVh x Qmd Donde: Qmh= Gasto máximo horario en lts/seg CVh= Coeficiente de variacion horaria (de la tabla 2.5 del libro datos basicos pag. 18) Qmd= Gasto máximo diario en lts/seg Después de haber obtenido todos los datos necesarios del cálculo y haber recolectado la información de campo en la localidad (planos, redes existentes, topografía, diámetros de tubería en la red, tomas domiciliarias, datos de tanques de almacenamiento, datos de pozos y bombas, así como del tipo de materiales usados en el acueducto; se procede con el modelado y la realización de propuestas; para lo cual, se utilizaron los programas EPANET, AutoCAD, Excel y Arcgis.


CONCLUSIONES

Gasto y Dotación de Agua Potable Dotación: 142 l/hab/día Gasto Medio Diario Habitacional: Qmed=8.28lt/seg0.00828m3/seg Calculo del Gasto Máximo Diario: Qmd=11.59l.p.s.=0.01159m3/seg Calculo del Gasto Máximo Horario: Qmh=17.961l.p.s.=0.01796m3/seg Dado por las deficiencias presentes en el acueducto de la localidad, la modelación del estado actual sugiere problemas puntualmente localizados en las perdidas de energía, los materiales y los diámetros del sistema; se muestran presiones negativas en los nodos y velocidades muy bajas, para lo cual se sugieren las siguientes medidas de solución: Primera propuesta: Cambio de tubería en la red por mejores materiales, seccionamiento del sistema por medio de válvulas, eliminación de abastecimiento por bombeo directo, reubicación de tubería expuesta. Segunda propuesta: Construcción de tanque elevado en el centro de la ciudad, cambio de tubería en la red por mejores materiales, seccionamiento del sistema por medio de válvulas, eliminación de abastecimiento por bombeo directo, reubicación de tubería expuesta, habilitado de pozo sin utilizar y conexión de los pozos con los tanques más cercanos. Tercera propuesta: Habilitado de pozo sin utilizar, mantenimiento y rehabilitación de tanque de almacenamiento principal de la localidad, cambio de tubería en la red por mejores materiales, seccionamiento del sistema por medio de válvulas, eliminación de abastecimiento por bombeo directo y reubicación de tubería expuesta
Sierra Alvarado Maria Fernanda, Universidad Estatal de Sonora
Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)

TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE


TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE

Montis Mackenson, Instituto Tecnológico de Zitácuaro. Sierra Alvarado Maria Fernanda, Universidad Estatal de Sonora. Valladares Romero Hugo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El crecimiento exponencial de la población y el aumento de la pobreza en diferentes ciudades del mundo, ha provocado un impacto considerable en el sector construcción. En América Latina y el Caribe, los gobiernos han incorporado en sus planes de desarrollo, varios programas de construcción de viviendas sociales para satisfacer la demanda de alojamiento. Sin embargo, estos programas generalmente no toman en cuenta la implementación de las tecnologías limpias en el proceso de diseño de las mismas. Además, no se presenta una sólida difusión de esas tecnologías y de los beneficios humanos, ambientales y económicos que conllevan. Debido al lento proceso de adopción de las tecnologías limpias y a las limitadas especificaciones de las políticas ambientales para su correcta aplicación, no se destina una financiación suficiente para la implementación de esas tecnologías en las viviendas sociales.



METODOLOGÍA

El proceso de realización de este trabajo se orientó en cuatro puntos: delimitación del área de estudio, búsqueda de información, revisión bibliográfica y análisis de la información obtenida. El trabajo se enfocó específicamente en América Latina y el Caribe, tomando como referencia países como México, Colombia y Haití. La búsqueda de información se realizó exclusivamente en la plataforma SCOPUS, que es una de las bases de datos científicas más importantes de citas y resúmenes de literatura arbitrada a nivel mundial. Para el análisis de información, se usó la herramienta VOSviewer para obtener la relación entre los autores, temas, países y año de publicación de los diferentes artículos obtenidos en cada búsqueda. Se complementó el ejercicio con Zotero que permitió obtener la línea de tiempo de los artículos seleccionados para delimitarlos, considerando los más recientes. Después de obtener los artículos necesarios para el trabajo, se realizó un análisis profundo de los mismos. A través de este análisis se compararon las ideas generales y así confrontarlas para sacar las conclusiones apropiadas y presentar algunas propuestas.


CONCLUSIONES

La obligación de los gobiernos es destinar suficientes recursos públicos o privados para implementar las tecnologías limpias en la vivienda social. También, los programas existentes para la producción de viviendas sociales en América Latina y el Caribe requieren de capacitación dirigida tanto al usuario como al constructor. Además, se debe tomar en cuenta estrategias de diseño pasivo y urbanismo sostenible en el diseño de las mimas, de esta manera se logrará un mercado de amplia difusión y una cultura de adopción en los procesos constructivos desde la perspectiva privada, pública o mixta.
Sierra Mendoza Ipalnemoani Emanuel, Instituto Tecnológico Superior Purépecha
Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León

PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACION, TRATAMIENTOS POST-DEPOSITO Y CARACTERIZACIóN)


PELíCULAS DELGADAS SEMICONDUCTORAS (PREPARACION, TRATAMIENTOS POST-DEPOSITO Y CARACTERIZACIóN)

Martinez Trejo Eduardo Alejandro, Instituto Tecnológico Superior Purépecha. Sierra Mendoza Ipalnemoani Emanuel, Instituto Tecnológico Superior Purépecha. Asesor: Dr. David Avellaneda Avellaneda, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En el desarrollo de este proyecto se utilizará la técnica de depósito por medio de baño químico para preparar películas delgadas de sulfuro de estaño (SnS), y sobre estas películas se evaporaran capas de cobre mediante evaporación térmica. Posteriormente se van a dar tratamientos térmicos a diferentes temperaturas y se caracterizaran las muestras. Por la parte de caracterizaciones eléctricas se realizara 2 muestras las cuales seran Curvas IV y Foto-respuesta. Y en las propiedades opticas seran  Transmitancia y Reflectancia. También con la ayuda de un microscopio electrónico de barrido (SEM), nos ayudará a ver la morfología de las muestras y así determinar la calidad de las películas obtenidas durante este proyecto.  



METODOLOGÍA

Para comenzar el deposito por baño quimico, los sustratos deben de estar completamente limpios ya que esto ayuda a que la pelicula tenga una mejor adherencia. Para preparar la solución para el baño químico son necesarios los siguientes reactivos: 1 gr. de Disolver en 5 ml. de Acetona DISOLVER TOTALMENTE ANTES DE AÑADIR EL RESTO DE LOS REACTIVOS 12 ml. de (TEA) al 50% 65 ml. de  destilado 8 ml. de (TA) 1 mol 10 ml. de Hidróxido de amonio (acuoso) 4 mol Los reactivos deben ser agregados uno a uno y en el orden en el que están descritos. Una vez que la solucion esta lista, los sustratos ya limpios se acomodaran en un vaso de precipitado, se acomodaran 6 sustratos por cada vaso. Los vasos seran acomodados dentro de una maquina para baños de recirculación la cual se programara a una temperatura de 40º C. El tiempo de espera sera de 8 hrs y de 17 hrs. Cuando los baños de recirculacion esten terminados, se procedera a evaporarlas con capas de cobre de diferentes espesores, estos espesores iran variando desde peliculas con 5nm hasta peliculas de 80nm. Una vez realizado el dopaje de cobre las muestras se hornearan en un horno de vacío. El horno de vacío que se implementó para este proceso fue un TM Vacuum products V/IG-803-14, este horno es capaz de hornear a una temperatura de hasta 400° c. Los hornos de vacío mantienen una temperatura de procesamiento estable en el interior de la cámara en todo momento. Al tener las películas ya colocadas se registrará su ubicación dentro del horno para así evitar confusiones debido a las altas temperaturas que se manejaran y esto hará que, si la película fue marcada con algún plumón de aceite, automáticamente la marca se evaporizará. CARACTERIZACIÓN PROPIEDADES ÓPTICAS La transmitancia es la relación entre la cantidad de luz transmitida que llega al detector del espectofotómetro una vez que ha atravesado la muestra, en este caso, al sustrato con SnS, y la cantidad de luz que incide sobre este, normalmente este valor se representa en tanto por ciento %T. La reflectancia es la fracción de radiación incidente reflejada por una superficie. En general debe tratársela como una propiedad direccional, en función de la dirección reflejada, de la dirección incidente, y de la longitud de onda incidente. PROPIEDADES ELÉCTRICAS La conductividad eléctrica es la medida de la capacidad de un material para dejar pasar la corriente a través de él. Esta depende de la estructura atómica y molecular del material. Para empezar la medición primero se debió haber tomado las propiedades ópticas, esto debido a que se deben agregar un par de electrodos de pintura de carbón. Posteriormente se tomaran los datos de foto-respuesta de la película. Para esto se coloca la muestra de igual manera solamente que esta vez se colocara la lámpara en el orificio de la tapa superior. MORFOLOGÍA Para el análisis de la morfología de las muestras, estas serán observadas por medio del microscopio electrónico de barrido (SEM). Este instrumento permite la observación y caracterización superficial de las muestras, entregando información morfológica del material analizados. ESTRUCTURA La espectrometría Raman es una técnica espectroscópica utilizada en física de la materia condensada y también en química para el estudio de los modos vibracionales, rotacionales y otros de baja frecuencia en un sistema. El efecto Raman se produce cuando la luz incide sobre una molécula e interactúa con la nube de electrones de los átomos de esa molécula.   COMPOSICIÓN Para analizar la composición de las muestras se utilizará la espectrometría de fotoelectrones inducidos por rayos X. Este método implica la medición de los espectros de los fotoelectrones inducidos por fotones de rayos X.


CONCLUSIONES

En el desarrollo de este proyecto, aprendimos sobre tecnicas de deposito y caracterizacion de peliculas delgadas. Con respecto al proyecto, se concluye que el espesor de la capa de Cu evaporada ocasiona un cambio significativo en la conductividad electrica de las muestras, ya que aumenta considerablemente. La morfología y propiedades ópticas no tienen un cambio significativo.  
Sifuentes Montoya Lizbeth Guadalupe, Universidad Autónoma de Occidente
Asesor: Dr. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua

EVALUACIÓN DE LOS PROCESOS DE ELECTROCOAGULACIÓN Y ELECTROFLOTACIÓN PARA REMOCIÓN DE MICROALGAS EN AGUA PARA USO Y CONSUMO HUMANO


EVALUACIÓN DE LOS PROCESOS DE ELECTROCOAGULACIÓN Y ELECTROFLOTACIÓN PARA REMOCIÓN DE MICROALGAS EN AGUA PARA USO Y CONSUMO HUMANO

Sifuentes Montoya Lizbeth Guadalupe, Universidad Autónoma de Occidente. Asesor: Dr. Alejandra Martín Domínguez, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

La eutrofización por microalgas de cuerpos de agua dulce provocado por la abundancia de nutrientes en el cual da paso a un  crecimiento excesivo de algas que al morir se depositan al fondo de embalses, lagos etc, generan residuos orgánicos que al descomponerse consumen el oxígeno disuelto y de esta manera pueden causar un grave problema medioambiental afectando la biodiversidad que se desarrolla ahí y de igual manera un problema socioeconómicos en zonas donde se encuentran estos lagos ya que modifican el color del agua,  disminuye su valor estético, recreativo y de su entorno.



METODOLOGÍA

El proyecto de investigación se basa en la reducción o eliminación de color y turbidez causado por la eutrofización de microalgas en aguas dulces en espacios urbanos por medio de la electrocoagulación cuya área de estudio es parque Alameda de la Solidaridad localizado en el municipio de Cuernavaca, en el estado de Morelos, México. Los análisis físico-quimicos y pruebas del método de electrocoagulación fueron realizadas en el laboratorio de calidad del agua en las instalaciones de la unidad receptora, el Instituto Mexicano de Tecnología del Agua. Plan de trabajo: Revisión de conceptos y bibliografía relacionadas al tema de investigación. Capacitación par calibración y uso del potenciómetro para la medición de conductividad eléctrica y pH Realización de pruebas preliminares de laboratorio: medición de caudal para el reactor, análisis de aluminio en agua y la determinación de pH y conductividad eléctrica Capacitación para elaborar análisis de aluminio en agua: adiestramiento en el uso del espectrómetro. Análisis de aluminio en muestras de agua de distinta procedencia. Análisis de Conductividad eléctrica y pH. Elaboración de pruebas estadísticas en Excel. Explicación de funcionamiento del reactor de electrocoagulación. Capacitación, uso y manejo del reactor de electrocoagulación. Uso y manejo de fuente de poder (Corriente directa). Capacitación y uso de colorímetro para determinación de color en agua. Realización de la prueba de jarras. Interpretación de resultados. Capacitación para el uso del microscopio. Consulta bibliográfica sobre el tema de microalgas. Procedimiento: Antes de poder hacer actividades en el laboratorio se cumplió con una capacitación para conocer la organización del lugar, las reglas a seguir y el buen uso de los materiales y equipo. Para la elaboración de este proyecto se llevaron a cabo ciertas actividades como lo son una serie de pruebas preliminares con distintos tipos de agua, como lo fueron el agua muestreada del Parque la Alameda de Solidaridad y de una laguna de sedimentación del IMTA, así como el agua de pozo extraída del grifo del laboratorio, en el caso de las muestras de la Laguna de oxidación y el parque Alameda de la Solidaridad se analizaron parámetros de la calidad del agua; fosforo, sulfatos, nitrógeno amoniacal, dureza del calcio, alcalinidad, nitritos, sólidos disueltos totales, pH, conductividad eléctrica, color y turbidez. Así mismo se calibraron los aparatos utilizados, el potenciómetro y colorímetro. Con estas muestras de varios litros de agua se probó el reactor donde se me enseñó cómo es su funcionamiento y cómo se maneja. También se hicieron varios análisis de aluminio del agua proveniente del reactor. Por último, de acuerdo al diseño de experimentos del proyecto se hizo una prueba más formal de este como lo fue una prueba de jarras con experimentos con distintas características para determinar concentraciones óptimas de floculante en el agua para la creación de flocs. Así mismo en la materia de microbiología se analizaron las muestras bajo el microscopio donde se me enseñó a usarlo y a identificar ciertas algas con ayuda de mucha bibliografía del relacionada al tema.


CONCLUSIONES

El método de electrocoagulación para el tratamiento de agua es un método relativamente nuevo y moderno, que al ser bien llevado a cabo se pueden obtener muchos beneficios, tanto económicos como ambientales. La investigación de este proyecto además de su objetivo general pretende generar información para proyectos futuros y ampliar el conocimiento que ya se tiene sobre el tema. Y para mí amplia mis horizontes dentro de lo que es la ingeniería y tecnología para mejorar la calidad de vida de las personas, mejoramiento de la industria encaminada a la sustentabilidad y por su puesto su impacto ambiental. Durante lo que lleva la estancia se aprendió sobre aspectos de mi formación profesional que no se aprenden en la universidad tanto como aspectos académicos sobre tratamiento de agua, microbiología, química, uso de equipo y material, de igual manera se desarrolló la habilidad de trabajo en equipo y fortaleció el valor de la responsabilidad. Al final de esta experiencia se espera fortalecer y reafirmar conocimientos obtenidos y obtener nuevas habilidades que sean útiles en un futuro ya sea en mi vida como estudiante de licenciatura, en el campo laboral o algún posgrado.
Silva Estrada Perseo, Universidad Autónoma de Tamaulipas
Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas

ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.


ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.

Lopez Hernandez Jose Luis, Universidad Autónoma de Tamaulipas. Silva Estrada Perseo, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el número de usuarios con acceso a internet y dispositivos móviles tales como teléfonos inteligentes y tabletas electrónicas va en aumento por lo que la brecha digital entre las áreas urbanas y rurales se reduce. Estos dispositivos se presentan como una herramienta idea para la consulta de información casi de forma instantánea y de un fácil acceso. Según datos del INEGI en 2017 el 63.9 por ciento de la población de seis años o más en México usuaria internet y el 17.4 millones de hogares (50.9 por ciento del total nacional) disponen de conexión a internet. Por tanto la forma en que las personas se conectan entre si, acceden a la información y se comparte, brinda unas herramientas tecnológicas de gran potencial para solucionar problemas que requieren un alto poder computacional. Ante lo anterior, nos preguntamos ¿estas tecnologías pueden ayudarnos a solucionar problemas de la vida cotidiana? Por ejemplo recordar el nombre de un objeto; y si es que queremos indagar más sobre este pero al desconocer su nombre o solo con el hecho de no recordarlo se nos hace imposible identificarlo. Debido a esto buscamos desarrollar una aplicación móvil, la cual a través de imágenes captadas por el dispositivo detecte y enfoque al objeto para posteriormente obtener información de este. Un algoritmo de aprendizaje profundo ayudará servidores remotos se encargará de los procesos de nuestro teléfono inteligente; por tanto, el aprovechamiento del Hosting como medio de almacenamiento y comunicación entre el teléfono con el servidor optimizará el trabajo en el servidor y el ahorro del consumo de datos en el dispositivo móvil. .



METODOLOGÍA

La metodología empleada se enfoca en el desarrollo de una aplicación móvil, con la herramienta de Android Studio. · Inicialmente se procedió a la recolección de materia bibliográfico. · Estudio de la sintaxis del lenguaje Java · Instalación de Android Studio · Conceptos y términos de programación móvil y servicios web Posterior a la recopilación de información se realiza en estudio y análisis de la Cámara para la programación móvil, más detalladamente: · Estudio y análisis de la configuración de la cámara · Estudio y establecimiento de librerías para aplicaciones móviles Una vez teniendo las fuentes y estudio del funcionamiento del Hardware, así como del lenguaje, se realizó un análisis y revisión de la herramienta Android Studio realizando lo siguiente: · Instalación · Su funcionamiento · Interacción con el usuario · Estudio del lenguaje Java · Compilación · Generación de APK´s Esto último con la finalidad de la aplicación móvil para posteriormente hacer el análisis y revisión del almacenamiento con la herramienta MySQL en donde se revisa: · Instalación · Su funcionamiento · Interacción con el usuario · Estudio del lenguaje TRANSACT · Gestión de base de datos Conociendo las herramientas a utilizar se procede al inicio del desarrollo de la aplicación en donde se hacen llamadas al Hardware de la cámara para la captura de la imagen y se implementa lo siguiente: · Estudio de los componentes de Android Studio · Implementación de la base de datos en la aplicación móvil · Captura de la imagen y almacenamiento en el dispositivo móvil · Manipulación de la imagen (Dimensión, y densidad de pixeles). Para el funcionamiento adecuado de la aplicación móvil orientada al Hosting se requirieron de las siguientes herramientas · Creación de un Hosting el cual sea capaz de alojar una base de datos, con el fin de almacenar las imágenes recibidas por el usuario. · Se utilizó el lenguaje de MySql y PHP así como también todo el estudio de los protocolos de red TCP/UDP, esto nos facilitó el entendimiento de la Arquitectura Cliente/Servidor. En el lado del Servidor se implementó la herramienta por defecto del Sistema Operativo de Windows para agregar unidades de red usando el protocolo de transferencia FTP. · Con la siguiente herramienta se establece la conexión al Hosting, de esta forma se puede acceder a los recursos almacenados. · Una vez realizada la unidad de red esta permite copiar y reemplazar archivos en tiempo real agilizando la subida de imágenes por parte del servidor.


CONCLUSIONES

Se concluye que la manipulación del Hardware y no de las aplicaciones ya establecidas en el teléfono nos permite tener mayor libertad de establecer que es lo que queremos hacer, como en este caso al principio se utilizó una llamada a la aplicación de la cámara que está en el teléfono, pero nos limitaba a no poder manipular los componentes que requeríamos, simplemente se podría modificar pocos parámetros, en cambio al utilizar la interacción con el Hardware directamente nos permitió poder establecer parámetros específicos y concretos que requeríamos con la finalidad de una optimización y libertad en el uso de los componentes, claro está, estos se limitaban a cada dispositivo y los recursos que tuviese. Durante la instancia de verano se cumplió satisfactoriamente con la investigación, por lo cual expreso mi mayor gratitud al DR. Hugo Eduardo Camacho Cruz destacando su disponibilidad y generosidad para compartir su experiencia la cual fue de gran ayuda durante este periodo de investigación. El uso de un Hosting agiliza él envió y almacenamiento de las imágenes captadas por la aplicación móvil, gracias a esto nos permitió optimizar y ahorrar recursos de nuestros dispositivos, para después ser procesadas en servidores de alto rendimiento.
Silva Peña Álvaro Vicente, Universidad de La Salle Bajío
Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío

IDENTIDAD DIGITAL


IDENTIDAD DIGITAL

Muñoz González Eduardo David, Instituto Politécnico Nacional. Silva Peña Álvaro Vicente, Universidad de La Salle Bajío. Asesor: Dr. Rafael Martínez Peláez, Universidad de La Salle Bajío



PLANTEAMIENTO DEL PROBLEMA

Día a día, miles de Internautas crean cuentas de usuario en sitios de redes sociales o servicios electrónicos con la intención de disfrutar una buena experiencia. El proceso de creación de cuenta de usuario requiere del llenado de un formulario web que no ha tenido actualización desde sus inicios; es decir, se continua completando los campos con la información solicitada, tal como el nombre, fecha de nacimiento, entre otra información. Con ese procedimiento, los usuarios mal intencionados pueden aprovechar la falta de un mecanismo de validación de identidad para crear cuentas falsas o utilizar información robada, afectando la identidad de una persona y perjudicando el bueno uso de la Internet.



METODOLOGÍA

Se partió con el desarrollo del sistema emisor Web de la identidad digital en formato JSON para lo cual se configuró un servicio web y se utilizó en lenguaje de programación JAVA. Con la generación del JSON, se procedió a configurar un sitio web donde se pueda dar de alta una cuenta de usuario solicitando la identidad digital en formato JSON, reemplanzando el registro por formulario de registro Web. La información personal contenida en el archivo JSON se carga en la base de datos, evitando que el usuario deba teclearla. En este punto, se procedió a incorporar una función hash para proveer de integridad a los datos almacenados en el JSON, modificando tanto el proceso de generación como el proceso de carga de datos a la base de datos. Ademas se proporcina seguridad al usuario al implementar un cifrado DES al archivo JSON mediante un NIP.


CONCLUSIONES

Se cuenta con el prototipo funcional del primer mecanismo para crear cuentas de usuario sin utilizar el formulario de registro Web. Se requiere más trabajo para incrementar la seguridad y hace falta el desarrollo de dos protocolos de seguridad que serán implementados en los siguientes meses.
Silva Serrano Daniel Fernando, Instituto Tecnológico de Toluca
Asesor: Dr. Susana Serrano Gazteluurutia, Universidad del País Vasco (España)

ECONOMIA SOCIAL COMO MODELO DE ADMINISTRACION EMPRESARIAL


ECONOMIA SOCIAL COMO MODELO DE ADMINISTRACION EMPRESARIAL

Silva Serrano Daniel Fernando, Instituto Tecnológico de Toluca. Asesor: Dr. Susana Serrano Gazteluurutia, Universidad del País Vasco (España)



PLANTEAMIENTO DEL PROBLEMA

La presente investigación determinara la importancia de los conocimientos prácticos y teóricos, sobre  sistemas administrativos de la economía Social  para  la  solución  de  problemas financieros en la organización empresarial. Conocer las metodologías que ha implementado el País Vasco respecto a la administración de las empresas y su relación con economías, producción y aceleramiento de esta misma, con el objetivo del ganar-ganar de los entes públicos, sociales y privados. La investigación abarca a las empresas privadas de los diversos territorios como México y España en los sectores industria, comercio, servicio público para la mediana y gran empresa. Enfatizar y establecer metodologías globales y estandarizadas aplicables  a  cualquier empresa dependiendo de su localización y su jurisdicción sobre la administración tributaria, fiscal y políticas macroeconómicas y microeconómicas. Desarrollo de modelo de implementación para el tratamiento de sistemas económicos-administrativos y finanzas de  empresas  públicas  y  privadas  con  el  fin  de  la financiación de los entes de acuerdo con su territorio. El incorrecto diagnóstico y manejo de la cultura empresarial  de una sociedad es una de las grandes limitantes de las organizaciones por parte de los empleados y de sus actores en  especial  para  poder  aplicar a una cultura en donde no existan problemas al crear una cultura de mejora continua pues cada actividad con genere ganancias debe pasar por el proceso antes mencionado El  sostenimiento  de  la  economía  social  y  su  diferencia  con  otros  modelos    hacen  necesario  la implementación  de  un  constante  análisis  económico-financiero  de  la  empresa,  siendo  un  pilar fundamental  en  el  momento  de la toma de  decisiones,  en  especial  para  las  Pymes  ya que por  lo general no se tienen conocimientos multidisciplinarios para formar esta misma, por lo que se hace indispensable la necesidad de buscar información sobre las formas necesarias para llevar o realizar un correcto análisis financiero, se ha encontrado de acuerdo a estudios del INEGI, que las PYMES inyectan a la economía nacional cerca del 60% del PIB. Pero también arrojan estos estudios que las PYMES  no  logran  sobrevivir  después  de  los  5  años  de  su  fundación,  debido  a  una  incorrecta administración de sus recursos económicos, más en específico  el  de sus finanzas, sin limitar  que cualquier  empresa  con  mala  administración  o  falta  de  conocimientos  de  finanzas, tiende  a  la quiebra. La  presente  investigación  se  enfocará  en  estudiar  la  metodología, así  como  la  aplicación  de  esta misma con el fin de la financiación de proyectos privados y públicos.



METODOLOGÍA

La metodologia de la cual se hace uso es una invetigacion docuemental basada en empirismo pues se trsts de visualizar el comportamiento de las empresas y analizar sus resultados,  La economía social es la parte de la economía integrada por empresas privadas que participan en el mercado, pero cuya distribución del beneficio y toma de decisiones no están directamente ligadas con  el  capital  aportado  por  los  miembros  o  socios.  En  los  agentes  pertenecientes  a  la  economía social se sustituye el interés particular por el general, y aparecen otras finalidades distintas de las puramente económicas. (Tercer Sector. Federico Guzmán) Las empresas privadas que participan en el mercado tienen el fin de lucrar con sus servicios o manufacturas que las hacen acreedoras a deducciones y tributos que al final el saldo neto es una ganancia monetaria. En el enfoque de la economía social como modelo empresarial marcada por la Ley 5/2011 fue un precedente que se retomo y se limo en cuanto a perfectibilidad en la Ley 31/2015 en la cual el emprendimiento, autoempleo y una visión diferente a la rudimentaria, hacen énfasis. Todo esto es llevado a cabo por España y son pioneros en esta visión empresarial, principalmente por sus comunidades autónomas como lo es Cataluña y nuestro principal sujeto de investigación el cual es la comunidad autónoma del País Vasco. La toma de decisiones en los agentes pertenecientes a la economía social (cooperativas, mutuales, asociaciones) es mediante un proceso democrático y de autogestión, diferente al principio mercantil de representación societaria. Norma de Información Financiera B140 Este modelo de economía y funcionamiento empresarial se basa en como esta conformadas las sociedades empresariales, enfocando el término Social a tipos de sociedades empresariales que, de acuerdo a los intereses, capital de proveniencia, así como situaciones internas y externas de los sujetos participantes se conformaran y de aquí uno de los sujetos externos imperativos que se define como sujeto activo en la fiscalidad de la Economía. La forma en la que se conforma la sociedad es por eso por lo que se acuña el termino sociedad.


CONCLUSIONES

La presente investigación pretende continuar sus alcances y poder llegar a un conocimiento más profundo de lo que se necesita para instaurarla como modelo y como apoyo para la toma de decisiones en los agentes pertenecientes a la economía social (cooperativas, mutuales, asociaciones) en la cual no permite ver que es mediante un proceso democrático y de autogestión, diferente al principio mercantil de representación societaria. En general, las empresas pertenecientes a la economía social tienen la finalidad de solucionar cuestiones sociales que ni las empresas públicas ni las privadas resolvieron satisfactoriamente. La economía social genera valor agregado y puestos de trabajo, pero funciona de un modo distinto al sector público y al capitalista.
Silverio Silverio Yazmin, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas

PROPUESTA DEL PROCESO DE PRODUCCIóN EN SERIE PARA TERMO LOSA


PROPUESTA DEL PROCESO DE PRODUCCIóN EN SERIE PARA TERMO LOSA

Silverio Silverio Yazmin, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gabriel Castañeda Nolasco, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

Hoy en día cada adelanto tecnológico puede leerse en primera instancia como un progreso social,  sin embargo hay sectores sociales a los cuales esos adelantos no benefician, y la diferencia entre los que sí están integrados a esa nueva tecnología y los que no, marca desniveles en el acceso, uso y beneficios de esas nuevas tecnologías (Leal, 2007-2008). Esto es debido a que algunas veces la producción de estas tecnologías no cuenta con un proceso de producción bien establecido para poder hacer de este un proceso más ágil haciendo de esta manera que no toda la población tenga el acceso a dichas tecnologías. Esto es en el caso de la termo losa se presenta la dificultad de producir en serie este producto debido a que no se ha establecido un proceso de producción, lo cual hace que el producto no se elabore en cantidades grandes para poder distribuirse a diferentes lugares. Es por ello que se hará una propuesta del proceso de producción en serie para hacer de este un proceso industrializado.



METODOLOGÍA

La metodologia que se utiliza es propia del investigador utiliza en las investigaciones: generar una idea principal posteriormente se hace una investigacion sobre ella generando de esta manera la teoria, para generar un diagnostico a partir de ello. despues con ello se hace la identificacion de la problematica,oportunidad de negocio o necesidad insatisfecha de esta manera se generara un pronostico de la circinstancias que pasarian si no se toma en consideracion de esta manera se construye el estado del arte de la investigacion  donde despues se genera la hipotesis de investigacion para hacer la propuesta o alternativas de solucion


CONCLUSIONES

Con la propuesta del proceso de produccion en serie se esperan tener una produccion mas rapida y eficiente de la termo losa donde los procesos se agilicen haciendon una mayor cantidad de piezas diarias a comparacion de las que se producen actualmente, pero debido al tiempo que duro la estadia, aun esta por comprobarse si es viable o no esta propuesta.
Sol Gomez Judith Guadalupe, Instituto Tecnológico de Tapachula
Asesor: Dr. Carlos Toledo Toledo, Universidad Autónoma del Estado de México

MANUAL DE OPERACIONES DE CONTROLADORES LóGICOS PROGRAMABLES PARA APLICACIONES DE AUTOMATIZACIóN EN MóDULOS DIDáCTICOS.


MANUAL DE OPERACIONES DE CONTROLADORES LóGICOS PROGRAMABLES PARA APLICACIONES DE AUTOMATIZACIóN EN MóDULOS DIDáCTICOS.

Cruz Garcia Jose Guillermo, Instituto Politécnico Nacional. Sol Gomez Judith Guadalupe, Instituto Tecnológico de Tapachula. Asesor: Dr. Carlos Toledo Toledo, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Cómo facilitar el aprendizaje significativo a estudiantes de la Universidad Autónoma del Estado de México para que sean capaces de manipular un PLC y poder resolver problemas de la vida real, permitiéndoles aplicar sus competencias desarrolladas.



METODOLOGÍA

Observacion y cuestionamiento para identificar la problematica Análisis para seleccionar la accion que solventará el problema Organizacion de las distintas partes del equipo para la realizacion de la solución. Conjuncion de conociminetos técnicos y pedagógicos para mejoras del trabajo Afinacion de Manuales con pruebas de calidad Presentacion del trabajo final   


CONCLUSIONES

Los manuales se probaron en varias fases con diferentes alumnos que se ofrecieron con el objetivo de perfeccionarlos, corrigiendo detalles y agreganto informacion. Con las mejoras aplicadas a los manual se pudo concluir exitosamente el trabajo, finalizando con dos manuales de operaciones a disposicion de los Doctores para copmlementar sus objetivos pedagógicos. Anadiendo a los resultados finales, a lo largo de la estancia de investigacion se logró adquirir muchos conocimientos, desde programacion en codigo G, uso de maquinaria para metales, manejo de impresoras en 3D y CNC, así como el uso de diferentes softwares para aplicaciones de modelos físicos del área de la electrica.
Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro

FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN


FABRICACIóN DE TOBERA DE EXPANSIóN EN MATERIAL COMPUESTO CARBóN-CARBóN

Contreras Torres Kevin Alexis, Universidad de Sonora. Galván Chávez Daniela, Instituto Tecnológico Superior de Uruapan. González Arzola Juan Pablo, Instituto Tecnológico de Reynosa. Gonzalez Hurtado Salvador, Instituto Tecnológico Superior de Uruapan. Murillo López Jesús Iván, Instituto Tecnológico de Culiacán. Ocaranza García Paulina, Universidad del Valle de Atemajac. Ramos Gradilla Priscilla Anahí, Universidad de Sonora. Solano Arvizu Jorge, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Omar Aconeltzin Jimenez Arevalo, Universidad Aeronáutica en Querétaro



PLANTEAMIENTO DEL PROBLEMA

El sector aeroespacial mexicano ha tenido auge en la creación y manufactura de nanosatélites, sin embargo, ha traído consigo una gran demanda para el lanzamiento de estos, la cual no es posible cubrir actualmente. El problema principal es que generalmente, estos nanosatélites deben esperar la disponibilidad de ser abordados en misiones más grandes que los lleven hasta su destino, y el costo de esto usualmente queda fuera del presupuesto de estos proyectos. Por ello se proyectó la manufactura de un cohete, cuyo objetivo principal es lograr la elevación de una carga útil de 10 Kg a 110 Km de altura, y en un futuro, conseguir que el dispositivo lleve nanosatélites a la órbita baja terrestre. Por tanto, el presente reporte, documenta los proceso efectuados para la manufactura de la tobera supersónica de dicho cohete, fabricada en material compuesto carbón-carbón.



METODOLOGÍA

Con base en la tesis realizada por el Mtro. Adolfo Esquivel García, de la Universidad Nacional Aeronáutica en Querétaro, en la cual se establece la metodología de diseño de una tobera convergente-divergente, el francés Emeric Van Hollebeke, quién realizaba sus prácticas en la UNAQ, diseñó un modelo digital 3D de la tobera prototipo, el cual está conformado por piezas que se ensamblan para formar un molde negativo. El diseño está constituido por 6 niveles y un total de 22 piezas. Las dimensiones estimadas del modelo son una altura de 827 mm y un diámetro máximo en la sección divergente de 544.83 mm. Utilizando el programa Catia V6 diseñó los primeros dos niveles (sección convergente y garganta) y en SolidWorks los restantes 4 niveles (sección divergente). Se inició con la impresión de las piezas en impresoras 3D utilizando ácido poliláctico (PLA), para posteriormente ensamblarlas y preparar la superficie del molde negativo de la tobera. Sin embargo, éstas al ser impresas de manera lineal formando paredes verticales, formaron espacios entre algunas líneas de la estructura, lo que representa un problema en los procesos posteriores. Para corregir estos espacios en la impresión y obtener la mejor calidad en el molde, se sellaron por la superficie interior de la campana, utilizando tiras de fibra de vidrio para crear una capa protectora. Una vez sellado cada espacio, se ensamblaron las piezas uniendolas con una mezcla de Kola Loka con bicarbonato de sodio que ayuda a secar y endurecer la unión más rápido. Esta mezcla Kola Loka-bicarbonato de sodio, se utilizó también para el sellado de algunos espacios entre cada nivel. Un obstáculo que se tuvo al momento de ensamblar las piezas, fue ajustar los diámetros superiores e inferiores de cada nivel, pues se tuvo un margen de error de aproximadamente 0.1-0.2 mm en las dimensiones de las piezas, y aunque este margen parece pequeño, representó un reto hacer que coincidieran.    Teniendo ensambladas las piezas, se requería reforzar la estructura para realizar el proceso siguiente, para conseguir esto, se aplicó una capa de espuma de poliuretano con un espesor mínimo de 2 cm por toda la superficie interna, esta capa permitió manipular la estructura libremente y prevenir posibles fracturas. Una vez reforzada la estructura, en el proceso siguiente se aplicó en la superficie externa una capa de plasterfiller, se dejó secar aproximadamente 4 días para eliminar completamente la humedad del material, después se pulió utilizando lijas de carburo de silicio de grano 240 y 400 para dar un mejor acabado a la superficie. Sobre esta capa se aplicó cera-crema con silicón, de manera uniforme para mejorar la impermeabilidad de la superficie y después aplicar acetato de polivinilo (PVA) como material desmoldante. Habiendo preparado el molde negativo, el siguiente proceso  fue el desarrollo y construcción de un molde positivo para formado de corazones de yeso, hecho con un laminado de fibra de vidrio. La fibra de vidrio fue colocada en capas, en este caso, se utilizaron tres capas de MAT y una de Petatillo, respetando la siguiente configuración: dos capas de MAT - una capa de Petatillo - una capa de MAT. Entre cada capa se aplicó resina poliéster, respetando un tiempo de curado de 15 - 20 minutos de la resina. A causa de las diferentes secciones, geometría y tamaño de la tobera, se tuvo que dividir el laminado en tres partes al aplicarlo, para facilitar al momento de desmoldarlo y evitar fracturas. Es importante mencionar, que antes de realizar estas actividades, durante la primera semana de estancia se estudiaron todos los conceptos relacionados al tema de investigación y durante la segunda semana se practicaron las técnicas necesarias para obtener y perfeccionar las habilidades requeridas para efectuar cada uno de los procesos involucrados. Además del estricto uso de equipo de protección personal al manejar estos materiales y químicos nocivos para la salud.


CONCLUSIONES

Hasta el momento, se logró llegar a la etapa de obtención del molde negativo de fibra de vidrio, el cual se utilizará para obtener dos moldes positivos o corazones de yeso, con estos se esperan producir dos toberas, una de ellas de fibra de vidrio-epoxy, y otra tobera de fibra de carbono-resina, en esta última se probará el material compuesto carbón-carbón y se realizarán pruebas de ensayo de materiales para analizar su comportamiento. Todas la experiencias, conocimientos teóricos sobre materiales y materiales compuestos, así también las habilidades y técnicas de manufactura y desarrollo de prototipos de investigación que se obtuvieron durante la estancia, se pusieron en práctica durante el avance del proyecto, sin embargo, al ser muy extenso, está aún en fase experimental, se requiere el trabajo conjunto de muchas personas y equipos de desarrollo, pues como ya se mencionó, la tobera es parte del proyecto principal del cohete, y éste se planea concluir en un lapso aproximado 8 años.
Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla

SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES


SÍNTESIS DE TIO2 DOPADO CON NANOPARTICULAS DE AU Y AG POR EL MÉTODO DE COMBUSTIÓN MODIFICADO Y SU APLICACIÓN EN LA DEGRADACIÓN DE COLORANTES

Macuixtle Malpica Jesús Concepción, Benemérita Universidad Autónoma de Puebla. Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla. Rojas Baez Rosario Jessica, Instituto Tecnológico de Toluca. Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En México, el sector textil ocupa el séptimo lugar entre las industrias que originan mayores volúmenes de aguas residuales, los efluentes líquidos de la industria textil se caracterizan por una mezcla compleja de contaminantes químicos, compuestos principalmente por colorantes, sólidos suspendidos y sales disueltas, debido a que los colorantes presentan una compleja estructura química los métodos actuales empleados para el tratamiento de efluentes textiles resultan poco eficientes para su degradación.  El dióxido de titanio (TiO2) es un semiconductor que ha cobrado interés en su aplicación como fotocatalizador en la degradación de colorantes gracias a su foto-estabilidad y bajo costo, este tipo de tecnología se basa en la absorción directa o indirecta de energía radiante (visible o UV) por el semiconductor. El TiO2 absorbe solo radiación UV de λ ≤387 nm, una fracción por debajo de la radiación solar. Una forma de extender su rango de foto-absorción es su dopaje con metales nobles.



METODOLOGÍA

  a. Síntesis del fotocatalizador TiO2-Au por el método de combustión. Para sintetizar el fotocatalizador se utilizó TiO2 grado analítico y TiO2 Degussa P25. El procedimiento seguido es el mismo para ambos reactivos. Utilizando una balanza analítica se pesa 0.4427 g de TiO2, 0.0070 g de Trihidróxido de Oro [Au(OH)3] y 0.9999 g de Urea (CH4N2O). Los reactivos fueron mezclados en un vaso de precipitados de 50 mL agregando 5 mL de agua tridestilada para homogeneizar la mezcla, la solución se calentó en una parrilla eléctrica a una temperatura de 60°C con el objetivo de evaporar la mayor cantidad de agua. El producto resultante se deposita en un crisol y se somete a una temperatura de 800°C durante 5 minutos dentro de una mufla. El procedimiento se repitió hasta obtener 4 g de cada fotocatalizador.  b. Degradación por fotocatálisis de colorantes. Se prepararon soluciones de los colorantes rojo de metilo (RM), azul de metileno (AM) y naranja de metilo (NM) bajo las concentraciones de 10, 20 y 30 ppm y pH de 3, 7 y 11 cada una de ellas. Para realizar el ajuste de pH se utilizó ácido clorhídrico (HCl), en el caso de pH 3, e hidróxido de potasio (KOH) para el pH 11. Cada solución tuvo un volumen de 100 mL. A una muestra de 20 mL de cada solución se le adiciona 0.1000 g de fotocatalizador TiO2-Au (sintetizado con TiO2 grado analítico), posteriormente se colocaron las muestras en un fotorreactor, el cual consistía en la irradiación de luz UV-Vis. Cada muestra se mantuvo en irradiación durante un tiempo de cuatro horas, tomando cuatro alícuotas con intervalos de una hora. El anterior procedimiento se repitió para el fotocatalizador de TiO2-Au (sintetizado con TiO2 Degussa P25).


CONCLUSIONES

a. Degradación de RM utilizando TiO2-Au sintetizado con TiO2 Degussa P25 Para una solución de RM de 10 ppm con pH 3 se registró una concentración de 8.38 ppm transcurrida la primera hora de reacción, en la segunda hora se obtiene una concentración de 6.82 ppm mientras que en la tercera hora se logró reducir a 6.29 ppm. Para la solución de RM de 20 ppm con pH 3 se registró una concentración de 9.76 ppm transcurrida la primera hora de reacción, mientras que para la segunda y tercer hora se obtiene una concentración de 7.68 y 5.71 ppm respectivamente. En la solución de RM de 30 ppm con pH 3 se obtuvo una concentración de 16.81 ppm pasada la primera hora, en tanto que en la segunda y tercer hora de reacción se registró una concentración de 12.32 y 10.24 ppm respectivamente. La máxima absorción de RM en soluciones ácidas se obtiene hasta la tercera hora de reacción. b. Degradación de AM utilizando TiO2-Au sintetizado con TiO2 grado analítico Se concluyó que a 10 ppm se presentó un mejor resultado en los porcentajes de degradación, debido a que el agua se encuentra menos coloreada lo que facilita el paso de luz a través de la solución activando el fotocatalizador de manera más efectiva en tan solo una hora. Las degradaciones observadas fueron de 35.5%, 39.8% y 38.81% a los pH de 3, 7 y 11, respectivamente. En soluciones a 20 ppm y 30 ppm a pH 3 el rendimiento en la degradación fue bajo debido a que el mayor porcentaje alcanzado de degradación fue de 9.53%. En caso contrario, a 20 ppm para el pH de 7 y 11 la degradación continuó hasta 36.5% y 56.5% de degradación. En soluciones a concentración de 30 ppm los mejores resultados fueron a pH 7 y 11 durante la segunda hora de reacción, llegando un máximo de degradación de 31.43% y 30.25% respectivamente.  c. Degradación de NM utilizando TiO2 -Au sintetizado con TiO2 Degussa P25 Se obtuvo que para el pH 3 durante la primera hora a 10 ppm disminuyó un 20 %, un 20.9 % y 21.81 % para la segunda y tercera hora, respectivamente; en la cuarta hora la absorción disminuye a un 18.18 %, esto debido a la liberación del colorante absorbido por el fotocatalizador. En el caso de la solución a 30 ppm del NM a pH 3 se registraron los siguientes resultados; en la primera hora dentro del sistema disminuyó un 12.28 %, mientras que en la segunda hora disminuyó un alto 36.84 % siendo éste de los valores más elevados, en la tercera y cuarta hora disminuyó un 8.77 % y 5.26 %, respectivamente, lo que nos indica el mismo fenómeno de la concentración anterior. d. Degradación de NM utilizando TiO2-Au sintetizando TiO2 grado analítico La degradación de la soluciones de NM con las diferentes concentraciones y pH utilizando TiO2-Au sintetizado con TiO2 grado analítico ha dado resultado favorables para soluciones ácidas. En la solución de 10 ppm con pH 3 se obtiene una concentración de 8.27 ppm en la primera hora de degradación, una 8.47 ppm para la segunda hora, 8.64 ppm en la tercera hora y 7.88 ppm en la última hora. En el caso de la solución a 30 ppm con pH 3 se registró que, en la primera hora se tiene la concentración de 29.34 ppm, en la segunda hora 28.51 ppm, en la tercera hora 29.02 ppm y en la última hora se obtiene 29.67 ppm.
Solís Alvarado Francisco Javier, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo

REVENIMIENTO DEL CONCRETO FRESCO


REVENIMIENTO DEL CONCRETO FRESCO

Solís Alvarado Francisco Javier, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Dar a conocer lo que significa revenimiento, para qué nos sirve, el procedimiento de la prueba, los instrumentos requeridos, las problemáticas que surgen al no realizar correctamente la prueba y saber si nuestra mezcla cumple o no respecto a la norma NMX-C-156-ONNCCE-2010.



METODOLOGÍA

Establecer un revenimiento según el elemento estructural a construir; en este caso se eligió un revenimiento de 10 cm. Diseñar la mezcla con el método ACI: cantidades de agua, cemento, agregado grueso (grava) y agregado fino (arena) para 1 m3 de concreto. Elaborar la mezcla con todos los elementos requeridos procurando que esté lo más homogénea posible. Realizar la prueba de revenimiento según indica la norma, para tomar una lectura lo más precisa posible. Comparar los resultados con la norma correspondiente para determinar si la mezcla cumple o no con los criterios.


CONCLUSIONES

Al final, todas las mezclas elaboradas a las cuales les realicé la prueba de revenimiento o trabajabilidad cumplieron con la norma, debido a que todas están dentro de los parámetros del revenimiento para el cual se diseñaron (100 mm).
Solis Carrillo Jesús Andrés, Universidad Politécnica de Sinaloa
Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa

VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.


VEHíCULO AéREO NO TRIPULADO TIPO CUADRICóPTERO PARA EL MONITOREO DE VARIABLES EN INVERNADERO DE TOMATE.

Davila Arias Exel, Instituto Politécnico Nacional. Sánchez Juárez Diego Ariel, Instituto Politécnico Nacional. Solis Carrillo Jesús Andrés, Universidad Politécnica de Sinaloa. Asesor: Dr. Piero Espino Roman, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las plagas de los cultivos son una de las principales causas de pérdidas de cosechas y por ende pérdidas económicas en la agricultura mundial. En México, 78.2% reporta pérdidas debidas a causas climáticas, plagas y enfermedades [1]. Entre los problemas principales de la producción del tomate las principales plagas y enfermedades se destacan araña roja, minador, mosca blanca, polilla del tomate y trips [4]. Existen invernaderos que cuentan con la ayuda de sensores de humedad, presión y temperatura para monitorear las plantaciones, sin embargo, no siempre se pueden realizar las instalaciones necesarias para colocar adecuadamente todos estos dispositivos, y darle el cuidado necesario al invernadero. Con el avance de los drones en la actualidad este proyecto surge para poder realizar un cuidado adecuado en las plantas con un solo dispositivo. Por lo que se propone el diseño de un vehículo aéreo no tripulado de tipo cuadricóptero con movimiento autónomo mediante el trazado de trayectoria en el área de interés, equipado con una cámara infrarroja y sensores para la detección y ubicación de plagas en los cultivos de tomate.     



METODOLOGÍA

Un drone o vehículo aéreo no tripulado, esencialmente es un robot volador que puede ser controlado remotamente o puede volar autónomamente a través de planos de vuelo controlados por software en sus sistemas embebidos trabajando en conjunto con sensores a bordo y GPS. En el presente proyecto se implementó el drone móvil o rotacional con una configuración llamada Cuadricoptero, sus características son las siguientes: Los motores en este tipo de multirrotor se encuentran separados 45° en dirección a uno de los brazos y orientados en la dirección de vuelo, es necesario que los cuatro motores sean dirigidos al mismo tiempo. Apropiada para el soporte de cámaras, ofrece un campo de visión mayor al no existir motores que interfieran en la visión. Facilita el equilibrio del dispositivo. Con base en lo analizado durante el verano delfín, se optó por añadirle los siguientes componentes al drone para su respectivo diseño: Para el control de vuelo se utilizó el controlador Airbot OMNIBUS F4 PRO con el firmware INAV, ya que cuenta con un procesador F4, lo que significa que trabaja a una frecuencia de 168MHz y cuenta de 3-5 UART’S, además de que el firmware permite vuelo autónomo.  Se sabe que la corriente pico que puede alcanzar es hasta de 18 A, por lo que se decidió emplear el ESC de 30 A, de esta manera se asegura que soportaran la demanda de corriente exigida por cada uno de los motores. Se eligió la batería de 3300 mAh, la cual ofrece mayor capacidad, al tener un menor rating tiene un menor precio, sin embargo, cumple con la demanda de corriente, además cumple con las dimensiones del chasis a diseñar.  Se eligió el PDB que permitiera la conexión de la batería LiPo y de al menos cuatro motores sin escobillas. Se verificó que esta soportara la tensión de la batería LiPo a emplear, en este caso del tipo 4S. Se decidió emplear el URUAV UR6 como Buzzer ya que contiene una batería interna permitiéndole que en cualquier extravió pueda generar sin ninguna dificultad su función. Se, seleccionaron los motores sin escobillas 2212 con las hélices 1047 que ofrecen un empuje de 885 g, los cuatro pares de motor hélice ofrecen un empuje de 3540 g, esto nos permite un radio de 3.52. Se pretende utilizar una cámara infrarroja FLIR C2 (ya que es un componente otorgado por el investigador) es una cámara térmica de bolsillo que cuenta con un campo de cisión de 45°, además de un detector de alta sensibilidad que captura las diferencias sutiles de temperatura y patrones térmicos. Permite almacenar hasta 4800 mediciones térmicas individuales que pueden analizarse y editar utilizando el software FLIR Tools. Se propone utilizar un sensor MEMs capaz de medir la presión barométrica, de modo que este sensor nos permita obtener la altura a la que el dron se encuentra volando. Se piensa implementar el GPS NEO 6M (nos permitirá conocer la altitud, latitud, así como la velocidad del drone).  También se utilizará el sensor SIM800l GSM/GPRS, sensor DHT11.    


CONCLUSIONES

Durante el verano Delfín, se pudo ampliar el conocimiento previo sobre el cuidado de la siembra, el manejo en base al control y diseño de un vehículo autónomo no tripulado.  El proyecto quedó en el diseño estructural del drone, con sus respectivos circuitos eléctrico y de control desarrollado. Se prevé que el siguiente equipo sucesor lleve este diseño a su creación y prueba para determinar si es un factor factible para la siembra del producto y del área determinada.    
Solis Garcia Ana Cristina, Instituto Tecnológico de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

RELACIóN DE ENERGíA DE ENTRADA Y ENERGíA HISTERETICA PARA SISTEMAS ESTRUCTURALES DE UN GRADO DE LIBERTAD SOMETIDOS A REPLICAS


RELACIóN DE ENERGíA DE ENTRADA Y ENERGíA HISTERETICA PARA SISTEMAS ESTRUCTURALES DE UN GRADO DE LIBERTAD SOMETIDOS A REPLICAS

Solis Garcia Ana Cristina, Instituto Tecnológico de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Los sismos son fenómenos naturales que vienen en grupo; el sismo de mayor magnitud se denomina evento principal; cualquier sismo antes que este se llama sismo premonitor y a los que se presentan después del evento principal se les nombra réplicas. Las réplicas pueden continuar por más de semanas, meses o incluso años. Por lo general, mientras más grande es el evento principal, más grandes serán las réplicas, más numerosas y continúan por más tiempo. Su tamaño, duración y frecuencia regularmente van decayendo con el tiempo.   Un sismo lo suficientemente fuerte para causar un gran daño probablemente producirá un gran número de réplicas en la hora siguiente. La velocidad de las réplicas se reduce rápidamente. Para poder llamarse réplicas la velocidad de los sismos tiene que ser mayor que antes de que ocurriera el evento principal. Para grandes sismos estas podrían continuar por décadas.   Las estructuras desplantadas en suelo de alta sismicidad están sujetas frecuentemente a secuencias sísmicas evento principal-réplica durante toda su vida. Fuertes réplicas han sido capaces de causar gran daño estructural y graves pérdidas humanas, todo esto sumado al daño ocasionado por el evento principal. Las réplicas también pueden incrementar de manera importante las demandas de desplazamiento máximo y residual impuestas por el evento principal al modelo estructural. Por lo cual es evidente que las réplicas son muy importantes para la seguridad estructural durante los eventos sísmicos.   Las secuencias sísmicas (evento principal más réplicas) pueden considerarse como un registro sísmico de muy larga duración. Por tal motivo, las estructuras sometidas a secuencias sísmicas  presentan daño acumulado considerable. El daño acumulado puede tomarse en cuenta mediante conceptos de energía. Por ejemplo, con la energía sísmica de entrada y la energía histerética disipada. Por ello, es deseable conocer las demandas de energía en estructuras sometida a secuencias sísmicas, siendo ese el objetivo del presente trabajo.



METODOLOGÍA

Para lograr lo anterior, se evaluará la energía de entrada (EI) y energía histerética (EH) en sistemas de un grado de libertad con comportamiento inelástico. Nótese que las energías están relacionadas con el daño acumulado de la estructura como se mencionó, que su a vez están tienen relación directa con la magnitud y duración de un evento sísmico. Otros medidas de evaluación normalmente no relacionan el tiempo del registro sísmico, si no su ordena principal o mayor.   Para medir dichas energías en los sistemas inelásticos, se usarán 8 registros sísmicos: de los cuales 4 de ellos cuentan con periodos muy similares al del evento principal de la secuencia real, estos fueron empleados como eventos principales de las secuencias; los 4 restantes cuentan con periodos muy similares al de la réplica de la secuencia real. Los 8 registros fueron usados como réplicas.   La relación de velocidades máximas del suelo del evento principal-réplica en la secuencia real es de 0.35. Con el propósito de evaluar la influencia de los criterios de escalado en la respuesta de los edificios, en este estudio se utilizaron tres grupos de secuencias sísmicas, cada grupo consta de 28 secuencias: las secuencias del primer grupo (A), se han formado con eventos principales y réplicas escaladas al 100% de la velocidad máxima del registro real; las secuencias del segundo grupo (B), se han formado con eventos principales escalados al 100% y réplicas escaladas al 70% de la velocidad máxima del registro real; y por último, las secuencias del tercer grupo (C), se han formado con eventos principales escalados al 100% y réplicas escaladas al 30% de la velocidad máxima del registro real.   Las combinaciones de los registros para crear las secuencias sísmicas se realizaron considerando como evento principal a los 4 registros con periodos similares al periodo del evento principal de la secuencia real, y como réplicas el total de los 8 registros; descartando las combinaciones en las que el evento principal coincide con la réplica -como lo considera el método repetido para la generación de secuencias artificiales-.


CONCLUSIONES

Se muestran los resultados de las relaciones EI/EH de los análisis sísmicos de osciladores de un grado de libertad con comportamiento histerético: elastoplástico y Takeda modificado. Se observa de manera general, qué para todos los casos, la relación EI/EH es bastante uniforme, lo que permitirá proponer expresiones simplificadas para su cálculo, y bastará con un espectro de diseño de energía de entrada elástico para estimar las demandas plásticas o de energía histerética disipada.
Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara

OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES


OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES

Hernández Ramírez María Goretti, Universidad de Guadalajara. Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan. Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan. Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango. Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las micro, pequeñas y medianas empresas en México se enfrentan a un proceso de cambio a la cuarta revolución industrial tecnológica, también conocida como Industria 4.0, considerándose un gran reto debido a la falta de conocimiento, aplicación y difusión del tema. En consecuencia, las empresas deben adoptar nuevos conceptos que engloban una gran variedad de tecnologías que digitalicen los procesos. La digitalización ocurre cada vez más rápido, por lo tanto las empresas cambian la forma de hacer negocios y modifican procesos, aquel que no reinventa o innova, es dejado atrás por los competidores y el mercado, considerándose éste el problema. Es por la rápida digitalización que la resolución a nuestra problemática se enfoca en elaborar un instrumento para estimar el grado de madurez tecnológica que tiene una empresa y así saber cuáles son las áreas de oportunidad en las que se pueden implementar nuevas técnicas que aumenten la eficiencia, mejoren la calidad e impulsen la innovación hacia la industria 4.0, además de usar diferentes herramientas correspondientes al Estudio de Métodos con el fin de conocer los procesos para establecer formas de hacerlo mejor.



METODOLOGÍA

La investigación fue la parte fundamental para llevar a cabo este proyecto, realizada en las primeras semanas del programa con el propósito de obtener fundamentos sobre diferentes teorías que serían aplicadas más adelante. A fin de comenzar con el tema de la investigación, se incursionó sobre las revoluciones industriales que anteceden a la cuarta, comprendiendo gracias a las causas de cada revolución que para poder avanzar hacia i4.0, las empresas deben contar con procesos eficientes en su producción, de manera que estos lleguen a producir más con menos. Para lograr lo anterior, utilizamos como apoyo diferentes herramientas de gestión comenzando por el análisis de planta a través de la construcción de un layout, diagramas de proceso, de flujo, de recorrido, de hilo, de relación de actividades y la aplicación de 5’s; además de investigar sobre distintos conceptos como función de la producción, la teoría de las restricciones, teoría de los recursos y las capacidades, la frontera de posibilidades de producción, gestión del conocimiento, entre otros más, con el fin de saber cómo sería la empresa modelo. Teniendo el conocimiento de las distintas teorías mencionadas, comenzamos a elaborar el diagnóstico, como se requería saber el nivel de digitalización y sus áreas de oportunidad, analizamos todos los aspectos posibles en los que se podía preguntar para que los resultados a los reactivos nos arrojaran información precisa y concreta donde existían posibilidades de mejora. Las dimensiones seleccionadas para la herramienta diagnóstico son: administrativo, capital humano, operativo, de control, estrategia y de tecnología y digitalización. El diagnóstico y las diversas metodologías utilizadas fueron las herramientas de trabajo ideales para la investigación con el objetivo de visualizar la trayectoria a seguir por cada empresa en la fusión de la tecnología física con el mundo digital, hablando a futuro, debido a que como primer paso se considera la mejora en la distribución de planta y en sus procesos con el propósito de elevar la productividad, conseguir una mayor producción y al mismo tiempo nos reflejó el estado actual de la empresa y sus áreas de oportunidad.  La digitalización es un gran paso para las empresas y con ayuda de este diagnóstico se espera que se obtengan los resultados que nos indiquen cuales son las carencias de la empresa, para que se pueda actuar y resolverlas, con el objetivo de se tenga una trayectoria a seguir hacia la digitalización, para ofrecer producto de mayor calidad, tener clientes satisfechos y que se siga innovando para estar al día con las tecnologías o necesidades de los clientes.


CONCLUSIONES

Durante la estancia de investigación logramos adquirir nuevos conocimientos respecto a Industria 4.0 y todo lo que conlleva cumplir con los estándares necesarios que ésta requiere para poder alcanzar la digitalización en MiPyMes. Dentro del proyecto se consiguió visitar una pequeña empresa local en la ciudad de Guadalajara, Jalisco, con el fin de analizar y poder aplicar los conocimientos que se obtuvieron en la metodología, aunque al momento sólo se pudieron aplicar las herramientas de Estudio de Métodos, se espera también aplicar el cuestionario. Con ayuda de las herramientas de Estudio de Métodos se analizó el proceso de una empresa dedicada a la producción de válvulas para inyectores diesel; dentro del proceso intervienen distintas máquinas para obtener el producto final; el layout nos brindó información sobre si la distribución de la planta es adecuada; los diagramas se hicieron con el objetivo de mostrarnos si el recorrido del producto desde la llegada al sistema como materia prima hasta la salida en producto terminado es el óptimo, en cuanto a distancias recorridas; se aplicaron 5’s de acuerdo a las condiciones en las que se encontraba la empresa y de acuerdo a lo que nos arrojó el estudio de sus procesos, se considera que no se tiene una buena organización y limpieza del área de trabajo. Obteniendo resultados del análisis previo, se utilizará el cuestionario para lograr analizar las oportunidades, debilidades, fortalezas y amenazas a las que están susceptibles la empresa y se espera generar un nuevo modelo industrial en el que la innovación sea colaborativa, los medios productivos estén conectados y sean completamente flexibles así como que las cadenas de suministro estén integradas. Una vez adquiriendo los resultados de las dimensiones y siendo éstas calificadas conforme a la escala Likert, se vaciaron las respuestas en un formato de Excel hecho sólo con el fin de evaluar cada dimensión y arrojando el nivel o porcentaje de avance que se tiene en la empresa respecto a esa área, para finalmente analizar o determinar cuál es la dimensión en la que más existe un área de oportunidad y avance, pero sobre todo enfocado hacia la i4.0.
Solís Salazar Abril Abigail, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Juan Carlos García Castrejón, Universidad Autónoma del Estado de Morelos

ANÁLISIS TERMODINÁMICO DE UN CICLO RANKINE ORGÁNICO (ORC) DE 25 KW ACOPLADO A UNA FUENTE FOTOTÉRMICA.


ANÁLISIS TERMODINÁMICO DE UN CICLO RANKINE ORGÁNICO (ORC) DE 25 KW ACOPLADO A UNA FUENTE FOTOTÉRMICA.

Solís Salazar Abril Abigail, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Carlos García Castrejón, Universidad Autónoma del Estado de Morelos



PLANTEAMIENTO DEL PROBLEMA

Los efectos ambientales producidos por el consumo energético y el incremento de los costos en los combustibles fósiles han orillado al sector público y privado a implementar nuevas tecnologías que permitan generar energía renovable. Actualmente, parte de la energía eléctrica utilizada alrededor del mundo es obtenida mediante turbinas que trabajan con un ciclo Rankine, el cual utiliza agua como fluido de trabajo. En este tipo de ciclo termodinámico, el agua se calienta hasta llegar a su cambio de fase de vapor a alta presión y temperatura, después se expande en una turbina de vapor para ceder su energía y transformarla en energía mecánica para mover un generador que entrega energía eléctrica. Un problema de ello es que se requieren con altos contenidos energéticos para poder realizar el ciclo. No obstante, una opción viable para la obtención de energía mecánica a partir de fuentes de baja entalpía (de bajo contenido energético) es el ciclo Rankine orgánico (ORC). Una ventaja que el ORC tiene sobre el ciclo Rankine es que aprovecha la energía de baja entalpía usando fluidos orgánicos en lugar de agua en el ciclo, ya que los fluidos orgánicos cuentan con puntos de ebullición más bajos que el agua. Por ende, en esta investigación se propone realizar un análisis termodinámico en una turbina con sistema ORC para su implementación, haciendo uso de las fuentes energéticas como es la radiación solar.



METODOLOGÍA

A lo largo de la investigación, se recolectó información sobre otras turbinas que operaban con el ciclo ORC orgánico para conocer su funcionamiento. Se inició por definir las condiciones de operación para el ciclo termodinámico, tomando en consideración la radiación solar disponible en Ciudad Juárez. Por medio del uso de programa numérico de Python y de la base de datos termodinámicos de Coolprop se obtuvieron las características termodinámicas del fluido R245fa a lo largo de ciclo. Mediante los datos obtenidos por la programación se pudo determinar la potencia mecánica y la eficiencia del ciclo. Por otro lado, se calculó el número de colectores necesarios para calentar el fluido y poder generar energía eléctrica. Se calculó la potencia y eficiencia en tres diferentes variaciones del ORC propuesto: 1) Sin regenerador, 2) Con regenerador y 3) Con regenerador y con termotanque. Para este último caso además se calculó el volumen del termotanque y el número de colectores solares.


CONCLUSIONES

Mediante la programación realizada en Python y con la base de datos de Coolprop, se pudieron evaluar las propiedades termodinámicas del fluido a lo largo del ORC orgánico. En este trabajo se propone un ORC orgánico que genere 25 kW de potencia mecánica con el uso de colectores solares SK-6. Se observó que el ciclo con regenerador integrado cuenta con mayor eficiencia al aprovechar el calor residual a la salida de la turbina, en comparación con ORC orgánico sin regenerador. Otra ventaja que se obtuvo en el ORC orgánico con regenerador fue que se disminuyó el número de colectores y, por ende, el área de transferencia de calor hacia el fluido y los costos de inversión inicial.
Solís Salazar Luis Diego, Universidad de Colima
Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)

FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL


FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL

García Delgado Evelyn, Universidad de Colima. Solís Salazar Luis Diego, Universidad de Colima. Vázquez Polanco Mario Alejandro, Universidad de Colima. Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las espumas metálicas es un tema de creciente importancia, no sólo por las ventajas que presentan estos materiales para una amplia gama de aplicaciones en diseño ingenieril, sino además por la variabilidad que suelen exhibir sus propiedades mecánicas y por lo compleja e imprecisa que puede llegar a ser su caracterización, por lo que se buscan nuevos métodos de obtención para mejorar su calidad y reproducibilidad.



METODOLOGÍA

El presente estudio muestra la elaboración y caracterización de las propiedades mecánicas de las espumas base 90% Zinc -  10% Aluminio de celda cerrada a 0.5 mm/min como velocidad de deformación. Como parte del análisis, se han realizado ensayos cuasiestáticos de compresión en la prensa de carga Master Loader 5030 en el laboratorio de materiales de la Universidad Nacional de Colombia (UN) sede Manizales, siguiendo la norma ASTM E9-89a mediante probetas de diámetros medios de 45 mm y alturas del 80% del diámetro, como se establece en la norma mencionada. Se ha realizado la elaboración de moldes con concreto refractario, así como la preparación de la aleación Zn-Al10% mediante los cálculos previos para el pesado del material. Se fabricaron metales porosos por infiltración de rellenos removibles, siendo un método nuevo empleado por los investigadores de la UN. Las pruebas de compresión se realizaron a tres espumas metálicas con diferente tamaño de grano de NaCl (2.4 a 3.4 mm, 3.4 a 4.4 mm y 4.0 a 4.8 mm). El tratamiento de datos se llevó a cabo en Excel y Origin 8.5.1 para el cálculo de las propiedades mecánicas (módulo de elasticidad, esfuerzo de fluencia, esfuerzo de meseta, deformación de densificación y absorción de energía).


CONCLUSIONES

Se han trazado las curvas esfuerzo-deformación unitaria (σ-ε) de la espuma metálica para la velocidad de deformación utilizada, con una carga de 50 KN en un tiempo medio de 45 minutos. Se evaluó su capacidad de absorción de energía por deformación, siendo la espuma III (tamaño de poro de 4.0 a 4.8 mm) la que mostró mejores resultados en las pruebas de compresión, con propiedades prometedoras para su uso en absorción de energía de impacto en automóviles, con lo que se comprueba la importancia del tamaño de poro y la densidad como principales factores en la capacidad plástica de los metales celulares obtenidos.  
Sollano Valdes Alicia, Universidad Autónoma de Guerrero
Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara

MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS


MODELO DE ADMINISTRACIóN ESTRATéGICA, COMO FACTOR DE COMPETITIVIDAD PARA RESTAURANTES TíPICOS

Aguirre Guerrero Marisol, Universidad Autónoma de Guerrero. Ruiz Rodríguez Yadir Alejandro, Instituto Tecnológico Superior de Ciudad Acuña. Sollano Valdes Alicia, Universidad Autónoma de Guerrero. Asesor: Dr. Luz Amparo Delgado Diaz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Actualmente, en México ocho de cada 10 negocios quiebran antes de cumplir dos años, sin embargo, bajo el modelo de franquicia, hasta el 85% de quienes participan sobrevive más de cinco años, incluso cabe señalar, que hace 29 años, cerca del 90% de las franquicias establecidas en México eran extranjeras; hoy en día, el 85% son nacionales y el 15% de otros países. El modelo de franquicias ha sido apoyado por la Feria Internacional de Franquicias, donde invitan a los emprendedores a formar parte de las grandes cadenas restauranteras, el problema en esto es que los restaurantes típicos están siendo rezagados, debido a que éstos no cuentan con una estructura administrativa definida, un modelo que les permita ser competitivos, productivos y puedan posicionarse en el mercado frente a esos grandes competidores. El crecimiento de las Franquicias y grandes cadenas restauranteras ha producido que los restaurantes desestructurados denominados típicos se encuentren cerca de su desaparición definitiva, por lo cual ésta investigación ayuda a conocer las deficiencia adminisitrativa y poder así crear un modelo administrativo estratégico que permita fortalecer éste ámbito y hacer de éstos más competitivos.



METODOLOGÍA

Primero que todo, se llevó a cabo una actualización de datos estadísticos y conceptos generales, los cuales sirvieron como sustento de la investigación, tomando en cuenta fuentes confiables como páginas oficiales, revistas y libros, buscando datos recientes sobre las Franquicias en México y también sobre restaurantes típicos de Jalisco y Puerto Vallarta. Para llevar a cabo la investigación de mercado, se tomó como muestra a 2 restaurantes típicos de Puerto Vallarta, los cuales tienen por nombre River Café y El Andariego, con quienes se trabajó a lo largo de la estancia. Se aplicaron 50 encuestas en cada uno de los restaurantes dirigidas a los comensales y 3 encuestas para los directivos, con la finalidad de conocer tanto el punto de vista de los clientes como las habilidades administrativas con las que cuentan los gerentes.   Después de recaudar la información, se almacenó en una base de datos utilizando el programa estadístico IBM SPSS, el cual facilitó la agrupación de datos por categorías por medio de tablas y presentación a través de gráficas, posteriormente, se elaboró la interpretación de éstos y descripción de resultados obtenidos.


CONCLUSIONES

Gracias al buen trabajo en equipo, este análisis permitió conocer la calidad del servicio y de los productos que ofrece el restaurante, la higiene y además del posicionamiento del mismo en el mercado, además, se lograron obtener resultados claros acerca de la necesidad que tienen los restaurantes típicos de trabajar bajo un Modelo de Administración Estratégica adecuado para lograr hacer frente a las grandes cadenas de restaurantes que están teniendo una gran presencia en México.  Se encontró que los restaurantes típicos deben trabajar más en la divulgación en medios publicitarios digitales, debido que en la actualidad es muy útil el hacerse presente en redes sociales y páginas web para poder incrementar su número de clientes frecuentes y lograr una mayor satisfacción ofreciendo promociones atractivas para ellos. Por otro lado, se pudo conocer que los directivos se están ocupando en adquirir conocimientos básicos necesarios sobre administración, liderazgo, competitividad, satisfacción al cliente, lo cual es muy bueno, pero no solo deben ser adquiridos, sino que también deben ser aplicados para la obtención de una mejor posición en el mercado.  
Solorio Ayala David Rafael, Instituto Tecnológico de La Piedad
Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima

ANÁLISIS Y PROCESAMIENTO DE SEÑALES ECG CONTAMINADAS CON VENENO DE HELODERMA HORRIDUM HORRIDUM PARA LA DETECCIÓN DE PATOLOGÍAS CARDÍACAS


ANÁLISIS Y PROCESAMIENTO DE SEÑALES ECG CONTAMINADAS CON VENENO DE HELODERMA HORRIDUM HORRIDUM PARA LA DETECCIÓN DE PATOLOGÍAS CARDÍACAS

Solorio Ayala David Rafael, Instituto Tecnológico de La Piedad. Solorio Márquez Libia Jazmín, Instituto Tecnológico de La Piedad. Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En el planeta existen diversos animales que poseen veneno en su cuerpo, algunos son conocidos y otros no tanto, tal es el caso del Lagarto Moteado Mexicano (Heloderma horridum horridum) que hasta hace poco se descubrió la presencia de veneno en unas glándulas que se encuentran en su boca, con algunos estudios previos se ha descubierto que el veneno contiene diferentes toxinas, las cuales son muy útiles para tratar diversas enfermedades, la diabetes es  una de ellas, es por ello que se considera importante apoyarnos de las señales eléctricas que proporciona el corazón para analizar de qué manera modifican la señal cardíaca en comparación con una señal que se considera normal sin efecto y bajo efecto de la toxina a ratas de laboratorio, así de esta manera comparar señales y observar que tipo de patologías genera el ser expuesto a estas toxinas, a que cantidad de exposición se ve un cambio, porqué y cómo utilizarlo para un bien mayor.  



METODOLOGÍA

La adquisición y digitalización de las señales ECG fue mediante un electrocardiógrafo de 6 canales marca Sonolife (frecuencia de muestreo 1000Hz, Conversión A-D de 12 bits). Dichas señales provienen de un conjunto de ratas tipo winstar a las cuales se les inyecto veneno de lagarto (Heloderma). La prueba en donde se contamino a las ratas con veneno se aplicó de la siguiente manera: 12 ratas fueron utilizadas para obtención de las señales de control o referencia y posteriormente se contaminaron con 2/3 de la Dosis Letal Media (DLM) y en el siguiente paso con 3/3 de la DLM. Después de capturar el ECG, esta se digitalizo para procesarla en Matlab, en donde se analizaron todas las señales, primero de manera visual para identificar los puntos fiduciales y posteriormente utilizando un algoritmo de segmentación basado en la técnica regresión lineal, con la cual  se obtuvieron datos fundamentales para el análisis y poder llevar a cabo comparaciones y observar los diferentes comportamientos de un estado normal a un estado bajo el efecto del veneno.


CONCLUSIONES

Al  tener las muestras del antes y después de las señales cardiacas de un ratón al aplicarle veneno, se observó que el comportamientos de las ondas fiduciales cambiaron con respecto de los controles. Al aplicar la 2/3 DLM se detectó que la señal ECG presentaba arritmias ya que la distancia entre R-R se aumentó (3.47%). También se notó la presencia de la onda u la cual es muy poco común observar. Al aplicar 3/3 DLM las ondas se hicieron más pequeñas hasta llegar al punto de no ser identificadas, dejando solamente el complejo QRS con una amplitud casi al doble de la señal tomada como normal. Por lo anterior podemos concluir que se generan múltiples patologías bajo el efecto del veneno.
Solorio Márquez Libia Jazmín, Instituto Tecnológico de La Piedad
Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima

ANÁLISIS Y PROCESAMIENTO DE SEÑALES ECG CONTAMINADAS CON VENENO DE HELODERMA HORRIDUM HORRIDUM PARA LA DETECCIÓN DE PATOLOGÍAS CARDÍACAS


ANÁLISIS Y PROCESAMIENTO DE SEÑALES ECG CONTAMINADAS CON VENENO DE HELODERMA HORRIDUM HORRIDUM PARA LA DETECCIÓN DE PATOLOGÍAS CARDÍACAS

Solorio Ayala David Rafael, Instituto Tecnológico de La Piedad. Solorio Márquez Libia Jazmín, Instituto Tecnológico de La Piedad. Asesor: Dr. Alberto Manuel Ochoa Brust, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

En el planeta existen diversos animales que poseen veneno en su cuerpo, algunos son conocidos y otros no tanto, tal es el caso del Lagarto Moteado Mexicano (Heloderma horridum horridum) que hasta hace poco se descubrió la presencia de veneno en unas glándulas que se encuentran en su boca, con algunos estudios previos se ha descubierto que el veneno contiene diferentes toxinas, las cuales son muy útiles para tratar diversas enfermedades, la diabetes es  una de ellas, es por ello que se considera importante apoyarnos de las señales eléctricas que proporciona el corazón para analizar de qué manera modifican la señal cardíaca en comparación con una señal que se considera normal sin efecto y bajo efecto de la toxina a ratas de laboratorio, así de esta manera comparar señales y observar que tipo de patologías genera el ser expuesto a estas toxinas, a que cantidad de exposición se ve un cambio, porqué y cómo utilizarlo para un bien mayor.  



METODOLOGÍA

La adquisición y digitalización de las señales ECG fue mediante un electrocardiógrafo de 6 canales marca Sonolife (frecuencia de muestreo 1000Hz, Conversión A-D de 12 bits). Dichas señales provienen de un conjunto de ratas tipo winstar a las cuales se les inyecto veneno de lagarto (Heloderma). La prueba en donde se contamino a las ratas con veneno se aplicó de la siguiente manera: 12 ratas fueron utilizadas para obtención de las señales de control o referencia y posteriormente se contaminaron con 2/3 de la Dosis Letal Media (DLM) y en el siguiente paso con 3/3 de la DLM. Después de capturar el ECG, esta se digitalizo para procesarla en Matlab, en donde se analizaron todas las señales, primero de manera visual para identificar los puntos fiduciales y posteriormente utilizando un algoritmo de segmentación basado en la técnica regresión lineal, con la cual  se obtuvieron datos fundamentales para el análisis y poder llevar a cabo comparaciones y observar los diferentes comportamientos de un estado normal a un estado bajo el efecto del veneno.


CONCLUSIONES

Al  tener las muestras del antes y después de las señales cardiacas de un ratón al aplicarle veneno, se observó que el comportamientos de las ondas fiduciales cambiaron con respecto de los controles. Al aplicar la 2/3 DLM se detectó que la señal ECG presentaba arritmias ya que la distancia entre R-R se aumentó (3.47%). También se notó la presencia de la onda u la cual es muy poco común observar. Al aplicar 3/3 DLM las ondas se hicieron más pequeñas hasta llegar al punto de no ser identificadas, dejando solamente el complejo QRS con una amplitud casi al doble de la señal tomada como normal. Por lo anterior podemos concluir que se generan múltiples patologías bajo el efecto del veneno.
Solórzano Acevedo Karina, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

EVALUACIóN DE LOS RESULTADOS BRINDADOS POR UNA RED NEURONAL ARTIFICIAL QUE INCORPORA LA COMUNICACIóN NEURONA-ASTROCITO EN CONTRASTE CON UN SISTEMA CONEXIONISTA CONVENCIONAL PARA DETERMINAR, A PARTIR DE LA INFORMACIóN OBTENIDA DE PRUEBAS DE CARáCTER COGNITIVO Y ESTUDIOS DE IMAGEN POR RESONANCIA MAGNéTICA, SI EXISTE DEMENCIA EN EL ADULTO MAYOR.


EVALUACIóN DE LOS RESULTADOS BRINDADOS POR UNA RED NEURONAL ARTIFICIAL QUE INCORPORA LA COMUNICACIóN NEURONA-ASTROCITO EN CONTRASTE CON UN SISTEMA CONEXIONISTA CONVENCIONAL PARA DETERMINAR, A PARTIR DE LA INFORMACIóN OBTENIDA DE PRUEBAS DE CARáCTER COGNITIVO Y ESTUDIOS DE IMAGEN POR RESONANCIA MAGNéTICA, SI EXISTE DEMENCIA EN EL ADULTO MAYOR.

Solórzano Acevedo Karina, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

Se ha abordado un problema de clasificación para su resolución mediante el uso de Redes Neuronales Artificiales (de un perceptrón multicapa específicamente); el fin último es la posterior comparación con los resultados brindados por una red que adapta a su algoritmo el funcionamiento de las células más abundantes de la glía: los astrocitos; y así, observar si existe o no una mejora en los resultados ofrecidos en la clasificación por el nuevo modelo. El conjunto de datos que se ha seleccionado corresponde a diversos estudios de resonancia magnética del cerebro (base de datos bajo el nombre de ‘MRI and Alzheimers. Magnetic Resonance Imaging Comparisons of Demented and Nondemented Adults’ alojada en los repositorios digitales de Kaggle, Google LLC), que permiten verificar si existe demencia (asociada a Alzheimer) o no en el paciente. A partir de información relevante sobre el adulto mayor como su edad, historia clínica en cuestiones de salud mental, resultados provenientes de los estudios de imagen, así como estado socioeconómico y educación; las redes de neuronas artificiales han sido capaces de identificar si existe o no riesgo de Alzheimer; es decir, que han sido capaces de distinguir entre dos clases.



METODOLOGÍA

Previo a la ejecución de la tarea principal: el diseño de la arquitectura de la red y el tratamiento de los datos; se han atendido diversas clases y conferencias que han abordado temas variados en las áreas del aprendizaje automático (machine learning) y la inteligencia artificial, destacando su aplicación en no únicamente la medicina y la farmacéutica, sino también, en campos como la ingeniería civil y la estética computacional; cabe destacar que se hizo énfasis en el ámbito de la biomedicina al tomar parte en sesiones de carácter internacional en dos hospitales de la ciudad, ampliando con ello la visión que se tenía sobre la especial importancia que conlleva la comprensión de cómo opera de forma general para posteriormente poder extrapolarlo a un caso particular, como se ha hecho en este proyecto. En primer lugar, se ha realizado el preprocesamiento de la información: originalmente la base de datos consta de la información correspondiente a un total de 150 pacientes para los cuales fueron realizadas 3 o 4 exploraciones por individuo. De cada uno se recopilan datos personales tales como la edad, el sexo, cuál mano es la dominante, los años de educación, el estado socioeconómico, los resultados que ha obtenido en la prueba cognitiva Mini Mental y su ubicación en la clasificación clínica de la demencia; datos obtenidos del estudio de imagen por resonancia magnética como el estimado del volumen intracraneal total, el valor normalizado del volumen cerebral y el valor del factor de escalamiento que relaciona el tamaño entre la imagen y el atlas; así como datos de seguimiento clínico y técnicos: el tiempo de retraso del medio de contraste en la imagen de resonancia magnética y los identificadores del paciente y orden médica del estudio. Debido a la ausencia de información en algunos de los casos, se han seleccionado únicamente a aquellos pacientes cuya información estuviese completa para que las características determinadas como suficientes permitiesen la distinción por parte de la red en las dos clases deseadas: adulto no demente o demencial.  El total de dichos datos ha sido previamente normalizado, para que adoptasen valores hallados entre 0 y 1, o bien, ser dicotómicos, según lo exigiese la naturaleza de la variable; esto con el fin de asegurar la distribución de los mismos de forma tal que la red no tuviese una tendencia hacia aquellos con valores mayores. Posterior a ello, para asegurar que existe información suficiente sobre los dos casos a identificar, en los tres subconjuntos (entrenamiento, validación y prueba) necesarios para el aprendizaje de la red, se realizó una validación cruzada del tipo k-fold, la cual consiste en la segmentación de los datos para lograr un muestreo que asegure la aleatoriedad y la variedad de datos tras haber sido mezclados y divididos, realizado k veces (en este caso fijado a 10). Como resultado se han obtenido diez muestras de datos que a su vez se hallan dispuestos en los tres grupos mencionados con anterioridad en las proporciones siguientes: el 60% de todos los datos corresponde al conjunto de entrenamiento, el 20% al conjunto de validación y el 20% restante al de prueba o test. Una vez se ha tenido la información preparada, ha sido utilizada para el entrenamiento y prueba de dos redes de neuronas artificiales cuya topología difiere esencialmente en la implementación de unidades que emulan la operación de los astrocitos en la sinapsis; la base es un perceptrón multicapa (MLP, por sus siglas en inglés). Para llevar a cabo el diseño y entrenamiento de la red, se ha utilizado programación basada en Linux, a través de un sistema de autoría correspondiente al grupo RNASA-IMEDIR, dirigido por el doctor Alejandro Pazos Sierra y bajo la tutela e instrucción de la doctora Ana Porto Pazos y su equipo de trabajo.


CONCLUSIONES

Hoy en día, en el ámbito de la inteligencia artificial, los sistemas conexionistas destacan de entre una gran variedad de métodos y técnicas debido a su trascendencia y relevancia en diversas aplicaciones en las que permiten la resolución de una amplia gama de problemas. Son tan importantes y útiles que conforme han pasado los años desde su aparición, los algoritmos se han vuelto cada vez más sofisticados y precisos a la hora de brindar resultados; de ahí que sea crucial el que se busquen mejoras que traigan consigo beneficios no únicamente en el campo del aprendizaje automático (machine learning), sino además en la comprensión del funcionamiento del sistema nervioso, al lograr modelos con una mayor aproximación a la operación real del mismo.
Soria Flores Juan Manuel, Universidad de Guanajuato
Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato

ANáLISIS EXPERIMENTAL DE UNA PEMFC TIPO SERPENTíN


ANáLISIS EXPERIMENTAL DE UNA PEMFC TIPO SERPENTíN

Soria Flores Juan Manuel, Universidad de Guanajuato. Asesor: Dr. José Luis Luviano Ortiz, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Una celda de combustible tipo PEM (por sus siglas en inglés, Proton Exchange Membrane) es un dispositivo que permite obtener energía eléctrica mediante una reacción química entre el hidrógeno y oxígeno. Las celdas de combustible de intercambio protónico están conformadas por tres partes principales: el ánodo que es donde se encuentra la placa bipolar que contiene los canales para el flujo de hidrógeno, el cátodo que es donde se encuentra la placa bipolar que contiene los canales para el flujo del oxígeno y la membrana o MEA es un material que se encuentra entre ambas placas bipolares y su función es permitir únicamente el flujo de iones. El objetivo de este proyecto es identificar los parámetros de operación adecuados para obtener la mayor eficiencia de una celda de combustible tipo PEM.



METODOLOGÍA

Se comenzó por realizar una búsqueda del arte acerca de las celdas de combustible tipo PEM con la finalidad de obtener información sobre las condiciones de operación utilizadas en diferentes experimentos, los materiales, tamaños y geometrías de las placas bipolares. Posteriormente, en base a la información recolectada se propuso utilizar la geometría serpentín. Dicha geometría primero fue diseñada en un software de diseño asistido por computadora (CAD) y se maquinaron dos placas bipolares con la misma geometría, una para el ánodo y otra para el cátodo, en una placa de grafito de alta densidad con ayuda de un software de maquinado asistido por computadora (CAM). Además en las placas bipolares de grafito, las placas de aluminio, dos placas delgadas de plástico que fueron utilizadas como aislantes, dos placas colectoras de cobre utilizadas para conducir la corriente producida por la celda se hicieron barrenos en las esquinas para colocar guías de ayuda para ensamblar la celda de combustible.  El ensamble final de la celda fue realizado en el siguiente orden:  placa base de aluminio, placa delgada de plástico, placa colectora, placa bipolar con geometría serpentín, membrana, placa bipolar con geometría serpentín, placa colectora, placa delgada de plástico, placa base de aluminio. Para garantizar que el ensamble estuviera a la presión adecuada se utilizó un torquímetro al momento de apretar los tornillos. Una vez ensamblada la celda, se realizaron pruebas para comprobar que no existieran fugas de los gases. Después se conectó la celda al humidificador el cual proporcionó el suministro de los gases hidrógeno a una presión de 0.141 psi para el ánodo y oxígeno a una presión de 0.177 psi para el cátodo, ambos gases a una temperatura de 70 °C y humedad del 55 %.


CONCLUSIONES

Los resultados obtenidos al realizar las pruebas experimentales repetidamente bajo las condiciones de operación antes mencionadas fueron: un voltaje mínimo de 0.331 V, un voltaje de circuito abierto de 0.917 V, una densidad de corriente máxima de 1.728 mA/cm2 y una densidad de potencia máxima de 571.968 mW/cm2. De acuerdo con los resultados obtenidos se observó que la eficiencia de la celda de combustible depende en gran medida del estado de la membrana, cabe mencionar que la activación de ésta debe ser un procedimiento realizado estrictamente para evitar contaminarla y de esta manera pueda sacarse el mejor provecho. Otro factor importante es el flujo másico ya que conforme éste aumenta, el funcionamiento de la celda mejora debido a un incremento en el voltaje entregado, sin embargo, cabe mencionar que dicho parámetro debe ser ajustado cuidadosamente, porque si se excede puede ocasionar la rotura de la membrana.
Sosa Rojas Martin Fernando, Instituto Politécnico Nacional
Asesor: Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui

DOSIFICACIÓN DE GASES HIDRÓGENO Y OXÍGENO DE CELDA ELECTROQUÍMICA A MOTOR DE CI


DOSIFICACIÓN DE GASES HIDRÓGENO Y OXÍGENO DE CELDA ELECTROQUÍMICA A MOTOR DE CI

Sosa Rojas Martin Fernando, Instituto Politécnico Nacional. Asesor: Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui



PLANTEAMIENTO DEL PROBLEMA

Actualmente la mayoría de los automóviles funcionan gracias a un motor de combustión interna (CI), que utilizan gasolina o diésel como combustible. Está por demás decir que los gases contaminantes que se generan en el proceso de combustión son de las contribuciones más grandes de CO2 al medio ambiente. A pesar de las medidas que ha tomado el gobierno con programas vehiculares de - no circula- y las nuevas tecnologías en autos, como los vehículos híbridos y vehículos eléctricos, es de gran dificultad acceder a este tipo de tecnologías para la mayoría de la población por lo que la transición de vehículos de CI a vehículos eléctricos no es tan cercana como podría parecer. La utilización de celdas de hidrógeno es una opción ampliamente utilizada debido a que, al quemar hidrógeno, se obtiene únicamente vapor de agua, hidrógeno y oxígeno como resultado de su combustión. El problema principal es la forma en como se obtiene el hidrógeno, grandes cantidades de hidrocarburos se queman para obtenerlo lo que resulta contraproducente, el estudio continúa sobre una forma de obtenerlo de forma más amigable con el ambiente. Otra tecnología con celdas de hidrógeno consiste en un proceso electroquímico que produce energía eléctrica y permite recargar las baterías de un vehículo eléctrico, otra segunda problemática es el riesgo que conlleva tener un tanque de hidrogeno en un vehículo, el hidrogeno es un gas altamente inflamable por lo que la idea de traer una bomba en el maletero no resulta prometedora. Una tercera opción es la implementación de la tecnología HHO, aunque su enfoque resulta diferente a los anteriores, promete mejorar el rendimiento de la gasolina en un vehículo de CI, además de disminuir la salida de CO y HC al medio ambiente y otorga mayor torque al motor, separando el hidrogeno de un electrolito in situ, para evitar el almacenamiento. La ventaja sería que se puede implementar el sistema en un carro de CI y se produce solo el hidrógeno necesario para el proceso sin tener que almacenarlo. La mayor problemática es otorgar una solución a la actual contaminación ambiental por la quema de hidrocarburos en motores de CI por lo que durante el verano de investigación se busca un sistema para implementar la tecnología HHO y dosificar el gas de acuerdo a la mezcla necesaria para un optimo desempeño del motor y el aprovechamiento del gas.



METODOLOGÍA

Se tiene un motor de 305 cc mono cilíndrico y una celda electroquímica con 11 cátodos de acero inoxidable y 11 ánodos de Ti sumergidos en un electrolito con KOH al 5%. Se utilizó un ARDUINO UNO y un sensor de velocidad para medir las RPM del motor y poder controlar el voltaje que le manda la batería a la celda. Una adaptación se le hizo al motor para poder contar las RPM del eje. La programación del ARDUINO UNO consiste en leer las interrupciones por minuto del sensor de velocidad para calcular las RPM y establecer un rango para mantener un voltaje deseado en ese intervalo. Se controlan de 0V a 12V de la batería del automóvil con PWM con la señal que manda el ARDUINO UNO dependiendo del intervalo de RPM que se detecte. Aún no se determina el voltaje requerido por la celda para mantener la mezcla necesaria de HHO, oxígeno y gasolina a mayores revoluciones.


CONCLUSIONES

Durante la estancia se están adquiriendo conocimientos prácticos y teóricos sobre las celdas electroquímicas y la producción de hidrógeno para implementarlo en tecnologías HHO en motores de CI. Se realizó el circuito del sistema de dosificación y falta especificar valores de voltajes a la programación con pruebas que se realizarán en lo que queda de la estancia.
Sosa Uribe Astrid Belén, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora

REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL


REHABILITACION PREVENTIVA EN ADULTOS MAYORES CON PROBLEMAS DE INESTABILIDAD MEDIANTE TECNICAS DE REALIDAD VIRTUAL

García Rodríguez Oliver Fernando, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández García Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. Sosa Uribe Astrid Belén, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora



PLANTEAMIENTO DEL PROBLEMA

El control postural es una habilidad motora compleja derivada de la interacción de varios procesos sensorio-motores (Horak et al, 1997), la inestabilidad por tanto es la reducción de esta habilidad de interacción que afecta el movimiento y la realización de actividades cotidianas, así como la capacidad de independencia de las personas, lo cual genera alteraciones en su ritmo de vida y el de su entorno. Según datos del INEGI del 2010 muestran que tan solo de la población mexicana en ese año, las personas con alguna limitación motora, visual, auditiva, psicosocial o de aprendizaje alcanzaban la cifra de 4,527,784, de esta cifra cerca del 50% sufren de problemas al caminar o moverse, concentrándose principalmente en dos grupos, siendo el primero de 60-84 años en un 40.7% y el segundo de 30-59 años en un 32.8% siendo la principal causa por enfermedad, seguido por la edad avanzada.  



METODOLOGÍA

Se utilizó un protocolo de ejercicios del área de fisioterapia proporcionado por la Universidad de Manizales en Colombia diseñado por Naranjo et al., (2014) del cual se tomaron únicamente las  actividades enfocadas a flexibilizar el sistema nervioso ideando una manera de realizar dichos ejercicios por medio de la implementación de mecánicas propias de los juegos,como un sistema de puntuación donde se suman  puntos si lo hace de manera correcta o se restan puntos si lo hace de manera errónea. Se analizaron los ejercicios del protocolo basándose en la posibilidad de implementación en un ambiente tridimensional de manera que se pudieran aplicar técnicas lúdicas. Una vez seleccionadas las actividades que se pudieran realizar aplicando lo anterior, se inició la fase de diseño y planeación de la escena dentro del motor de videojuegos Unity, utilizando SteamVR, una librería diseñada por Valve la cual nos permite trabajar con el sistema de realidad virtual HTC VIVE. Se diseñó un entorno dentro de Unity el cual consta de una casa amueblada con jardín, dentro de la cual se implementaron las actividades seleccionadas del protocolo, creando en cada escenario un sistema enfocado a controlar el comportamiento de cada elemento necesario para realizar dicha actividad utilizando scripts que son códigos en lenguaje C#. La primer actividad desarrollada fue la Actividad 1 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales superiores de ambos brazos, por lo cual esta actividad dentro del entorno del software se llevó a cabo en el patio de la casa, colocando varios objetos, entre los cuales fueron una mesa con tres tazones y árboles a los lados con frutas colgando de ellos, con el objetivo de que el paciente estuviera sentado y tomara dichas frutas y las colocara dentro de los tazones correspondientes a cada fruta.  El primer script para controlar la actividad es el que corresponde al funcionamiento del árbol, el cual cada vez que el jugador toma una fruta y la coloca en el tazón correcto, el sistema genera otra, ya sea de manera alternada, solo del lado derecho o solo del lado izquierdo según se solicite. El segundo script corresponde al control de las frutas, si la fruta cae en el tazón correcto incrementa un punto, y en caso de caer en el tazón incorrecto o en el suelo, este decrementa. El tercer script se encarga de controlar el límite máximo de flexión de los brazos del paciente, el cual por medio del control, presiona un botón para definirlo en el ambiente virtual, estableciendo la posición adecuada para generar los árboles con las frutas. La segunda actividad desarrollada fue la Actividad 4 de la Fase 1 del Día 2 del protocolo, la cual establece que el paciente de pie debe sostener un bastón tomándolo con ambos brazos subiendo y bajando, esta actividad se implementó en el jardín de la casa, y consiste en controlar un papalote por medio de la altura de un bastón tomándolo con ambos brazos subiendo y bajando, buscando evitar que dicho papalote colisione con aves que se irán generando a los costados del mismo en el cielo, además, cada que el paciente llegue a su altura máxima con el bastón, se incremente un punto en el sistema, y en caso de que el papalote choque con un ave, se decrementa. El primer script de esta actividad corresponde a identificar la altura máxima y mínima que pueda lograr el paciente con ambos brazos. El segundo script controla la altura del papalote según la posición y el movimiento del bastón. El tercer script genera las aves a los costados del papalote cada ‘n’ segundos y una velocidad ‘n’. El cuarto script controla al ave moviendolo hacia el papalote y si choca con el papalote decrementa los puntos del paciente. La tercer actividad desarrollada fue la Actividad 2 de la Fase 1 del Día 4 del protocolo, la cual establece que el paciente sentado debe tomar objetos en sus lados laterales inferiores de ambos brazos, por lo cual esta actividad comparte cierta similitud con la Actividad 1 del mismo día, debido a esto se tomaron los mismos scripts antes mencionados y el mismo entorno y solo se cambiaron las frutas agregando unas nuevas y en lugar de utilizar árboles, se implementaron arbustos los cuales se generan a baja altura.  


CONCLUSIONES

Durante la estancia de verano se lograron adquirir conocimientos teóricos y prácticos acerca del desarrollo de entornos de realidad virtual utilizando el software de Unity con el lenguaje de C#, a través de la generación de entornos para atender el problema de la inestabilidad postural en adultos; sin embargo, considerando la extensión del proyecto, este aún se encuentra en la fase de desarrollo, por lo tanto no se pueden mostrar datos con precisión referentes a los resultados de los pacientes, aún así las escenas trabajadas ya pueden ser probadas y puestas para evaluación.
Sotelo Sotelo Selena, Instituto Tecnológico de Iguala
Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala

ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.


ANÁLISIS DEL COHORTE GENERACIONAL 2018 DE LA CARRERA DE INGENIERÍA EN GESTIÓN EMPRESARIAL PARA EL DISEÑO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.

Manuel Garcia Juan, Instituto Tecnológico de Iguala. Rendón Rabadán Lucero, Instituto Tecnológico de Iguala. Sotelo Sotelo Selena, Instituto Tecnológico de Iguala. Asesor: Lic. María Ruiz Roque, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Debido a la preparación de la información para la acreditación de la carrera de Ingeniería en Gestión Empresarial, surge la necesidad de resolver las condiciones de estancia en la institución a través de la trayectoria educativa de cada estudiante de esta carrera.            Este desconocimiento de información radica en no saber las causas del rezago educativo, deserción, reprobación y obtención de reconocimiento de logros académicos, movilidad estudiantil, estancias en el extranjero, eficiencia terminal y titulación, entre otras.  Derivado de lo anterior se requiere analizar la información requerida de la trayectoria escolar de los estudiantes de Ing. en Gestión Empresarial de cohorte 2018.



METODOLOGÍA

Se tomó como referente a la cohorte 2018 de la carrera de Ing. En Gestión Empresarial del Instituto Tecnológico de Iguala, a partir de la construcción de una muestra, realizando encuestas y estudios de investigación en línea a profundidad, para saber las causas que conllevan a los alumnos a la deserción, graficando los resultados obtenidos para analizar cuál es la causa principal que hace que esta situación se presente en el instituto tecnológico de iguala. Diseño y elaboración de la encuesta. Se formularon las preguntas para la encuesta, luego se elaboró el diseño de la misma en google. Aplicación de la encuesta: Estudiantes de la carrera de Ingeniería en Gestión Empresarial de 2° a 8° semestre dieron respuesta a la encuesta que se les aplicó en el Laboratorio de Programación, acompañados de un investigador docente y un estudiante asesorado. Actualización de datos estadísticos por cohorte generacional. Se nos otorgó  un usuario y contraseña por las autoridades correspondientes del Instituto para poder ingresar al portal del SII y obtener datos específicos de cada estudiante del cohorte generacional 2015. Una vez accesado se revisó la situación académica de los estudiantes por medio de su retícula y kardex. Se actualizó la información  de la base de datos en una matriz concentradora. Análisis e interpretación de la información obtenida. Con la información recabada de las encuestas se graficó cada una de las preguntas para analizar a detalle los problemas a los que se enfrentan los estudiantes. Análisis comparativo de las estrategias implementadas por la institución. En equipo se hizo la comparación de las estrategias que ya aplica el Instituto y que no han funcionado en su totalidad. Análisis FODA. Se realizó en equipo un análisis FODA de las fortalezas que tiene el Instituto, las debilidades que se tienen, las oportunidades que se presentan y las amenazas que atentan a los estudiantes. Formulación de estrategias a implementarse. En equipo se aportaron diferentes puntos de vista, para la formulación de las estrategias basándonos en el análisis FODA. Plan estratégico propuesto. Se elaboró en equipo las partes que conforman el plan estratégico, como son la introducción, misión, visión, diagnóstico de la situación actual y un plan de acción que incluye las líneas de acción que se realizarán.


CONCLUSIONES

De acuerdo con la investigación que se realizó en el Instituto Tecnológico de Iguala a la carrera de Ingeniería de Gestión Empresarial, se observaron los parámetros que conllevan al rezago educativo, deserción y reprobación de los estudiantes. El estudio de esta investigación se llevó a cabo realizando diferentes actividades como son, aplicación de encuestas a los alumnos de dicha carrera abarcando las generaciones del 2014 al 2018, análisis de las respuestas graficando resultados para llegar a un resultado más eficaz, entre otras. Dichas actividades permitieron identificar las causas que generan, que los estudiantes tengan algún problema en el trayecto de su carrera. Para definir de manera más precisa  las causas se analizaron aspectos importantes como: aspectos institucionales, económicos, académicos y afectivos. Con los resultados que arroja esta investigación, se obtuvo información  necesaria y confiable, que sirvió como base para proponer estrategias que sean pertinentes y aplicables al contexto del Instituto Tecnológico de Iguala. Al proponer estas estrategias se espera que el Instituto las lleve a cabo logrando así, que todo estudiante que elija esta carrera pueda culminar con ella en el momento y tiempo oportuno.
Sotelo Velázquez José Jaime, Instituto Tecnológico de Toluca
Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar

DISEÑO Y DESARROLLO DE UNA INTERFAZ GRÁFICA ORIENTADA AL CONTROL DE UNA CELDA TERMOELÉCTRICA POR INFRARROJO


DISEÑO Y DESARROLLO DE UNA INTERFAZ GRÁFICA ORIENTADA AL CONTROL DE UNA CELDA TERMOELÉCTRICA POR INFRARROJO

Sotelo Velázquez José Jaime, Instituto Tecnológico de Toluca. Asesor: M.C. Francisco Ruiz Ruiz, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Un termociclador es un aparato usado en Biología Molecular que permite realizar los ciclos de temperaturas necesarios para la amplificación de diversas cadenas de ADN en la técnica de la PCR (Reacción en cadena de la polimerasa) o para reacciones de secuencia con el método de Sanger.  Desde hace algunos años se ha implemetado un nuevo método para cambiar la resistencia de estos termocicladores, utilizando para ello la tecnología o efecto Peltier (Descubierto en 1834) aprovechando las propiedades de los semiconductores.  La PCR se utiliza en muchos laboratorios de investigación, y también tiene aplicaciones prácticas en medicina forense, pruebas genéticas y diagnósticas. Por ejemplo, la PCR se utiliza para amplificar genes asociados con trastornos genéticos a partir del ADN de los pacientes (o de ADN fetal, en el caso de pruebas prenatales). La PCR también puede utilizarse para detectar el ADN de una bacteria o un virus en el cuerpo de un paciente: si el patógeno está presente, es posible amplificar regiones de su ADN de una muestra de sangre o tejido. Cabe mencionar que un termociclador de marca reconocida ronda desde los 50 mil pesos hasta los 200 mil dependiendo de las caracteristicas que tenga pero como se puede observar son dispositivos que son relativamente caros , más que nada por su capacidad de mantener la temperatura constante y el que se esta diseñando buscara tener unas características muy cercanas a uno del mismo precio desarrollado con un presupuesto menor y con la característica de ser portable, utilizando celdas peltier.   Este dispositivo se diseñó a partir de la idea de hacer un dispositivo portátil en el que se pueden hacer pruebas de campo con una autonomía suficiente para hacer uno o varios ciclos completos de PCR.  



METODOLOGÍA

El software que se utilizó para el desarrollo de la interfaz grafica fue LabVIEW en el que se grafica constantemente la temperatura para poder monitorear los cambios de temperatura constantemente y después estos datos son trasladados a un archivo que se puede abrir en Excel en el que se puede observar la fecha, hora, numero del muestreo y el valor de la temperatura. Las pruebas que se realizaron para el control de la temperatura en la celda Peltier fueron primero un sistema on/off en el que cuando llegaba en el set point se desactivaba pero con el efecto de que la celda peltier seguía aumentando la temperatura entonces se opto por otra solución. Como el sistema iba a estar conectado a una computadora siempre , entonces, lo que se decidio fue desarrollar el PID dentro de la interfaz grafica de LabVIEW para optimizar los recursos y no usar la librería del Arduino a menos que fuera necesario para una futura mejora. Además se agrego un control PID con el que se controla a través de un Arduino y un MOSFET la celda Peltier, el PID trabaja con un PWM que va a mantener el voltaje en alto en más o menos tiempo para poder controlar la temperatura en la que se desea. Durante este proyecto eso era lo primero en lo que se debía centrar mantener una temperatura constante utilizando diferentes sensores para comprobar que todos arrojaran el mismo valor de temperatura. Después el siguiente paso fue el desarrollo del termociclador en si, el cual necesita que después de una etapa de precalentamiento se mantenga cierta temperatura que se leyó esta temperatura es de 94 a 96°C , para que luego se inicie el ciclo el cual comienza con la desnaturalización del DNA, continua con la alineación de los primers los cuales actúan en una temperatura de 50-65°C, la siguiente parte se eleva la temperatura a 72°C en el que trabaja una enzima especial que sintetiza una nueva cadena de DNA y asi termina un ciclo , después se repiten las variaciones de temperatura. Cabe resaltar que un ciclo dura aproximadamente 3 minutos y en cada cambio de temperatura hay una rampa en la que se busca que sea lo más rápido posible para que el tiempo en cada ciclo se realice en menos tiempo, porque durante esas rampas no se cuenta el tiempo hasta que llega a la temperatura deseada. La forma en la que se alimenta este sistema es a través de 2 formas la primera que es con la que se termino el proyecto es mediante el uso de un transformador y una fuente desarrollada por el presente y el Ing. Raúl Paz la cual se implemento por primera vez en 2018 y se han hecho ajustes para los requerimientos del sistema actual. La otra forma de alimentar el sistema es mediante el uso de baterias de Ion de Lithio que se venden por internet de una capacidad de 3000mAh , los cuales no son suficientes para darle la autonomía al termociclador para una muestra, se deben hacer paquetes de 4 baterias para obtener un voltaje de 16.8 v a plena carga y 14.8 v en carga nominal y se requiere de un mínimo de 4 horas de autonomía con un consumo de 3 ampers aproximadamente, entonces para que se obtenga el tiempo necesario para un proceso completo se necesitan 16 baterías    


CONCLUSIONES

Cuando se empezo a trabajo con la Intel EDISON como si fuera un Arduino dio problemas de compatibilidad con el sensor que en ese momento se queria ocupar. Todo el trabajo se realizo en LabVIEW y arduino ya que por su facilidad de programación se pudo avanzar mucho más rápido en esto que en cambio si se hubiese ocupado un Raspberry pues el mismo no se ha ocupado con anterioridad. El resultado obtenido fue un control de una celda termoelectrica a traves de un PID que se comunica por medio del Arduino y controlado con un transistor y un mosfet para la etapa de potencia, con ello se logro tener una temperatura constante por un tiempo , para despues poder controlar los tiempos en los que permanece en esa temperatura para poder hacer así ser las bases del termociclador que se espera que otro compañero del programa continue su desarrollo. El  reto en este trabajo es trabajar con una interfez en la que se debe utilizar un control PID digital dentro de la computadora para que la misma pueda controlar el sistema para después se pueda realizar el cambio para que todo sea portatil y así los datos capturados por el instrumento, exportados a excel y analizados por un profesional en una prueba de campo y dejar preparado para que algún proximo compañero pueda realizar una comunicación por IoT para la recoleccion de más datos.  
Soto Aguilar Luis Angel, Instituto Tecnológico de Iguala
Asesor: Mtro. Sergio Ricardo Zagal Barrera, Instituto Tecnológico de Iguala

DESARROLLO DEL MóDULO DE CONSULTAS Y GENERACIóN DE DATOS Y GRáFICOS ESTADíSTICOS PARA LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITI.


DESARROLLO DEL MóDULO DE CONSULTAS Y GENERACIóN DE DATOS Y GRáFICOS ESTADíSTICOS PARA LA CARRERA DE INGENIERíA EN SISTEMAS COMPUTACIONALES DEL ITI.

Delgado Fuentes Eduardo, Instituto Tecnológico de Iguala. Soto Aguilar Luis Angel, Instituto Tecnológico de Iguala. Asesor: Mtro. Sergio Ricardo Zagal Barrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

El Instituto Tecnológico de Iguala cuenta con una matrícula aproximada de 1412 estudiantes, y una plantilla de personal de aproximadamente de 108 trabajadores entre docentes, directivos y personal administrativo, siendo que la problemática de acceso a la información y el manejo de las bases de datos del Sistema Integral de Información (SII) se ha complicado derivado de la cantidad de datos que se almacenan en el mismo, por tal motivo en este trabajo se realizara:   Análisis de los datos correspondientes a la carrera de Ingeniería en Sistemas Computacionales.   En referencia a las cohortes generacionales del 2013 al 2018, realizar el análisis por semestre, materia, de los indicadores solicitados por los organismos públicos.   Desarrollo de un módulo que permita validar datos, agruparlos, distribuirlos y evaluar sus desviaciones y variaciones.



METODOLOGÍA

El modelo incremental de gestión de proyectos tiene como objetivo un crecimiento progresivo de la funcionalidad. Es decir, el producto va evolucionando con cada una de las entregas previstas hasta que se amolda a lo requerido por el cliente o destinatario. Este enfoque, que se usó inicialmente para proyectos de software aunque más tarde se aplicó a otros sectores, establece entregas parciales mediante un calendario de plazos. En cada una de ellas, el producto debe mostrar una evolución con respecto a la fecha anterior; nunca puede ser igual. Una de las claves para que esto se haga efectivo es la evaluación de las etapas. Los responsables del proyecto deben analizar si los resultados parciales son los esperados y si, sobre todo, apuntan al objetivo principal. De no ser así, deberán intervenir en él e implementar las soluciones que la situación requiera. El modelo de gestión incremental no es un modelo necesariamente rígido, es decir, que puede adaptarse a las características de cualquier tipo de proyecto, existen al menos 7 fases que debemos tener en cuenta a la hora de implementarlo:     Requerimientos: son los objetivos centrales y específicos que persigue el proyecto.   Definición de las tareas y las iteraciones: teniendo en cuenta lo que se busca, el siguiente paso es hacer una lista de tareas y agruparlas en las iteraciones que tendrá el proyecto. Esta agrupación no puede ser aleatoria. Cada una debe perseguir objetivos específicos que la definan como tal.   Diseño de los incrementos: establecidas las iteraciones, es preciso definir cuál será la evolución del producto en cada una de ellas. Cada iteración debe superar a la que le ha precedido. Esto es lo que se denomina incremento.   Desarrollo del incremento: posteriormente se realizan las tareas previstas y se desarrollan los incrementos establecidos en la etapa anterior.   Validación de incrementos: al término de cada iteración, los responsables de la gestión del proyecto deben dar por buenos los incrementos que cada una de ellas ha arrojado. Si no son los esperados o si ha habido algún retroceso, es necesario volver la vista atrás y buscar las causas de ello.   Integración de incrementos: una vez son validados, los incrementos dan forma a lo que se denomina línea incremental o evolución del proyecto en su conjunto. Cada incremento ha contribuido al resultado final.   Entrega del producto: cuando el producto en su conjunto ha sido validado y se confirma su correspondencia con los objetivos iniciales, se procede a su entrega final.


CONCLUSIONES

La participación dentro del programa del verano científico sirvió de experiencia en la búsqueda de información adecuada para poder llevar a cabo cada uno de los puntos requeridos para el módulo de consultas y así tener más conocimientos acerca de las herramientas utilizadas para realizar dicho proyecto. El módulo de consultas y generación de datos y gráficos estadísticos se llevó de la manera más eficaz, elaborando cada una de las bases de datos para el funcionamiento del sistema, tomando en cuenta cada una de las materias, además de haber cumplido con todos los puntos requeridos que nos permitan la vinculación de los datos para el modelado de la interfaz gráfica de usuario, y poder realizar las acciones que garanticen el funcionamiento del módulo de consultas y también Implementar el modo prueba con la finalidad de detectar posibles fallas o errores para poder atenderlas. Durante el desarrollo del proyecto se pusieron en práctica los conocimientos adquiridos dentro de la carrera como la elaboración de bases de datos, para poder Hacer el módulo y de igual manera hacer consultas dentro de la misma.   Recomendaría que al sistema se le hicieran algunas mejoras en la parte grafica para que se vea más concreto, así también que la base de datos tuviera una opción de archivos históricos para después consultarlos y poder utilizar, Incluir otros indicadores, de igual manera que se amplíen los estadísticos y que se mantenga una conexión directa para hacer envíos a correos electrónicos.   Se reforzaron los conocimientos acerca de los modelos de desarrollo de software además de la implementación de bases de datos, de igual manera el manejo de HTML5.
Soto Flores Oliver Shaddaí, Instituto Tecnológico de Toluca
Asesor: M.C. Laura Martinez Garcia, Fundación Universitaria Tecnológico Comfenalco (Colombia)

DISEÑO EXPERIMENTAL DEL ALGORITMO 10SIGNALS PARA LA VALIDACIÓN DEL MODELO DE RECOMENDACIÓN Y PLANEACIÒN DE RUTAS TURÍSTICAS


DISEÑO EXPERIMENTAL DEL ALGORITMO 10SIGNALS PARA LA VALIDACIÓN DEL MODELO DE RECOMENDACIÓN Y PLANEACIÒN DE RUTAS TURÍSTICAS

Soto Flores Oliver Shaddaí, Instituto Tecnológico de Toluca. Asesor: M.C. Laura Martinez Garcia, Fundación Universitaria Tecnológico Comfenalco (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente, el crecimiento de la tecnología asociada con innovación es un pilar importante en el desarrollo del turismo en cualquier región. Una de las soluciones tecnológicas enfocadas a fortalecer el sector turismo, son los sistemas de recomendación los cuales predicen alternativas más adecuadas para un usuario en un contexto dado. A lo anterior, en el año 2017 se desarrolló una aplicación llamada 10signals, la cual permite al turista al llegar a una ciudad destino, generar de acuerdo a su presupuesto, cantidad de visitantes, días de viaje una ruta personalizada para recorrerla. El algoritmo funciona de manera que envía la información del usuario para clasificarlo de acuerdo a los datos que otros usuarios ingresaron anteriormente, según los usuarios cuya información se parezca lo más posible a la del nuevo entonces el sistema obtiene un subconjunto de usuarios (estereotipo) y determina una ruta de una serie de atracciones turísticas que se visitarán a través de Google Maps, filtrado según las preferencias del usuario. El propósito de esta investigación se centra en la evaluación del algoritmo de clasificación de usuarios basado en estereotipos con fines de generar una recomendación de actividades turísticas, según la aprobación de los usuarios después de realizar pruebas de la aplicación



METODOLOGÍA

1.- Definir un estado del arte de las métricas para evaluación de algoritmos de recomendación: Otras investigaciones relacionadas que soporten la decisión de tomar un conjunto de métricas para la evaluación del algoritmo idóneas de acuerdo al contexto de aplicación.  2.- Definir el conjunto de prueba para realizar el diseño de experimentos: Se selecciona la población de la muestra comprendida en 80 personas de diferentes nacionalidades, edades y géneros.  3.-Seleccionar un escenario de prueba: Se selecciona la ciudad de Cartagena de Indias como escenario para la evaluación de las rutas obtenidas por los usuarios del conjunto de prueba.   4.-Realizar las pruebas del algoritmo de clasificación y recomendación de arranque en frío: Con base a un diseño de experimentos se determina la prueba de hipótesis que defina la validez de la eficiencia de las clasificaciones y recomendaciones ofrecidas a los usuarios del conjunto de prueba.  5.-Validación de las hipótesis: Definir si por cada estereotipo se cumple o no la validez de la hipótesis.  6.-Analizar los resultados con las métricas definidas: El análisis conlleva proponer mejoras al algoritmo que optimice la eficiencia en el sistema.   


CONCLUSIONES

Métricas de evaluación utilizadas: Para este diseño de experimento se utilizó decision support accuracy metrics (Métricas de precisión de soporte de decisión), Precision y Recall. Tamaño de muestra para la evaluación y recolección de los datos Perfil A: 18-25 años - Femenino Perfil B: 18-25 años - Masculino Perfil C: 26-36 años - Femenino Perfil D: 26-36 años - Masculino Perfil E: 37-47 años - Femenino Perfil F: 37-47 años - Masculino Perfil G: 48 o más años - Femenino Perfil H: 48 o más años - Masculino Para realizar la evaluación se conformó un dataset que corresponde al Grupo de prueba, el cual consiste en 80 usuarios que son divididos por edades y género, 50% hombres y 50% mujeres, 25% de 18 a años, 25% de 26 a 36 años, 25% de 37 a 47 años y 25% de 48 años en adelante. Hipótesis: "¿Se podría afirmar que una recomendación acertada para un usuario clasificado en un estereotipo de acuerdo al algoritmo es tener un valor mayor al 51% en el promedio de la precisión y exhaustividad para definir que la ruta obtenida es válida?" Análisis de los resultados: Para cada estereotipo de obtuvo su Recall y Precision en donde en base a los resultados se definió que para todas las clases el modelo no detecta la clase muy bien, pero cuando lo hace es altamente confiable, en todos los casos al menos en este grupo de prueba las recomendaciones de la ruta turística son lo que el turista espera conocer. En base a los resultados se observa que cada clase se encuentra como hipótesis aceptada, en los diferentes estereotipos. En general, se evidencia que el algoritmo recupera puntos de interés por visitar por turistas con un nivel de relevancia promedio. Sin embargo, dentro de todo el subconjunto de puntos de interés, los últimos recuperados no son tan afines a los gustos del turista lo que hace que la precisión disminuye.  A lo anterior, se definen algunos aspectos que incidieron en los resultados.  Si existe una clase minoritaria  provoca un desbalance en los datos para el entrenamiento. Para el grupo de entrenamiento  del algoritmo los estereotipos se encuentran desbalanceados. La Precisión de una clase define cuán confiable es un modelo en responder si un punto pertenece a esa clase, por ende los puntos de interés ofrecidos al turista eran acercados en un buen porcentaje.   El Recall de una clase expresa cuán bien puede el modelo detectarla. Por lo tanto, puede ser que la falla del algoritmo está más en definir si un turista pertenece o no a una clase o estereotipo. Cuando se tiene un dataset con desequilibrio, suele ocurrir que se define un alto valor de precisión en la clase mayoritaria y un bajo recall en la clase minoritaria aspecto que se evidencia en el diseño experimental realizado.  Todo esto señala a que el algoritmo de clasificación requiere mejorar la precisión al momento de realizar las clasificaciones de los usuarios. Se sugiere, más que mejorar su lógica, combinarlo con otros enfoques de clasificación como la técnica de Clustering o similares. Se evaluó el algoritmo por medio de la técnica estadistica Mean Average Precision con el fin de determinar si el orden en que se mostraban los puntos de interes eran acertados y obtuvo una mejor eficiencia en el algoritmo con un promedio de 0.84 donde el valor ideal era de 1.
Soto Zepeda Gloria Elisa, Universidad Autónoma de Sinaloa
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

CARACTERIZACIóN DE LA CáMARA DE PROFUNDIDAD INTEL REALSENSE D435


CARACTERIZACIóN DE LA CáMARA DE PROFUNDIDAD INTEL REALSENSE D435

Rendon Salas Carlos Eduardo, Universidad Autónoma de Sinaloa. Soto Zepeda Gloria Elisa, Universidad Autónoma de Sinaloa. Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La cámara con sensor de profundidad Intel® RealSense™ serie D400 utiliza visión estéreo para calcular la profundidad. Tanto las versiones D415 como D435 funcionan con USB y constan de un par de sensores de profundidad, un sensor de RGB y un proyecto infrarrojo.  Las cámaras de profundidad tienen distintas aplicaciones tales como navegación autónoma de robots, reconocimiento de gestos, reconstrucción 3D, realidad aumentada y medición de objetos. La aplicación para la cual se utilizó en esta ocasión fue para medir la profundidad de la banda de rodamiento, para saber el desgaste de los neumáticos.



METODOLOGÍA

Convencionalmente el desgaste de los neumáticos se mide tomando la profundidad de distintos segmentos del neumático con un instrumento llamado profundímetro, un medidor de la profundidad de la banda de rodamiento, que puede detectar un patrón de desgaste irregular, de una mejor manera que midiendo la profundidad visualmente. Esto permite que la causa sea identificada y corregida antes que el desgaste irregular arruine el neumático. El procedimiento que se lleva a cabo es complejo y requiere de bastante tiempo debido a que se tienen que tomar varias medidas en distintos puntos del neumático, esta herramienta puede tener ciertas variaciones si no se toma la medición de manera correcta, lo que nos llevó a buscar una alternativa para perfeccionar este procedimiento mediante el uso de la cámara de profundidad Intel Realsense D435. Utilizando la cámara y con la ayuda del software Intel Realsense Viewer, ajustando los parámetros de la Resolution, Exposure, Laser power, Disparity Shift, Depth Units pudimos obtener como resultado una imagen clara de distintos neumáticos y con una precisión en el orden de los milímetros. Cambiando la configuración de la visualización de profundidad obtenemos una imagen en escala de grises, siendo la parte mas clara la mas cercana a la cámara y la parte mas oscura la mas lejana a la cámara. Antes de realizar pruebas con los distintos neumáticos fue necesario hacer la calibración de la cámara con ayuda del software Dynamic Calibrator, una vez calibrada la cámara se hicieron pruebas midiendo distintos objetos conocidos para concluir midiendo los neumáticos comprobando así que coincidiera con los resultados obtenidos con el uso del profundímetro.


CONCLUSIONES

Se realizaron mediciones con el profundímetro a 5 neumáticos distintos, mismo que fueron medidos posteriormente con la cámara, los resultados que obtuvimos con la cámara a comparación de los realizados con el profundímetro fueron más precisos y sin variaciones. Con los resultados obtenidos pudimos comprobar que el uso de las tecnologías de las cámaras de profundidad puede llegar en un futuro no muy lejano dejar obsoleto el uso de herramientas en el procedimiento de medir la profundidad de la banda de rodamiento, como lo es profundímetro, debido a que las cámaras nos permiten hacer mediciones a partir de una imagen, sin tantas variaciones, sin esta incertidumbre del error humano, de igual manera de una manera rápida y confiable, donde no es necesario tener conocimientos previos del tema.
Suárez Cisneros José Miguel, Instituto Tecnológico Superior de Guanajuato
Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato

SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA


SISTEMA EXPERTO PARA LA DETERMINACIóN DE VIDA DE ANAQUEL DE CONCENTRADOS DE FRUTA

Lira Torres Erick, Instituto Tecnológico Superior de Guanajuato. Lona Rodríguez Francisco Javier, Instituto Tecnológico Superior de Guanajuato. Suárez Cisneros José Miguel, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La vida de anaquel nos ayuda a saber que tan factible es el tener un producto a la venta, esto se puede determinar con la ayuda de ciertos algoritmos aplicados en la programación para obtener la pigmentación de una muestra de dicho producto y de esta manera determinar su vida de anaquel.



METODOLOGÍA

Con el programa llamado AutoCAD se modelo una cabina fotográfica de acuerdo a los parámetros requeridos por el proyecto, el equipo se encargó de ensamblar la cabina así como los demás elementos necesarios para crear el ambiente óptimo para la captura de las imágenes requeridas de cada producto para obtener un muestreo aceptable y de esta manera poder obtener datos concretos para determinar su vida de anaquel, aunado a esto se realizó un estudio del manejo del lenguaje de programación llamado Python para la correcta ampliación de los algoritmos necesarios para la clasificación de dichos datos obtenidos del muestreo, así como el desarrollo de una parte grafica desarrollada en el programa Visual.net todo esto para mejorar la interacción del usuario con el programa Una vez obtenidos grupos de muestras (por medio de imágenes) pertenecientes a distintos tiempos de vida de anaquel, se procedió a la clasificación por medio de los algoritmos de Machine Learning NaïveBayes y KNN (K-Nearest Neighbours) esto con la finalidad de definir los rangos de vida de los productos, para posteriormente clasificar las nuevas muestras cuya vida de anaquel sea desconocida, y una vez más usando los algoritmos, determinar a qué rango pertenecen las nuevas muestras.


CONCLUSIONES

Esta técnica nos permite una mejor gestión durante el almacenamiento de productos, debido que permite predecir con buen grado de exactitud la vida de anaquel que tiene, en este caso un concentrado de fruta. Cabe mencionar que la técnica de procesamiento de imágenes en conjunto con algoritmos de Machine Learning puede ser aplicada en múltiples áreas de la industria, ya que se pueden establecer parámetros que definan cierta característica en un producto y así poderlos clasificarlos de una manera más eficaz.
Talavera Sevilla Ricardo, Universidad Autónoma de Nayarit
Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional

ALGORITMO DE CLASIFICACIóN OPTIMIZADO EN UN PROCESADOR GRáFICO


ALGORITMO DE CLASIFICACIóN OPTIMIZADO EN UN PROCESADOR GRáFICO

Talavera Sevilla Ricardo, Universidad Autónoma de Nayarit. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

La clasificación de objetos ha adquirido una gran relevancia con la llegada de la industria 4.0, ya que permite automatizar muchos procesos, también la clasificación se puede aplicar para identificar señales de transito en la conducción de vehiculos autónomos. Además, la clasificación se puede aplicar en el reconocimiento de animales, que es el tema de este trabajo. Para realizar las clasificaciones y reconocimientos se aplica el aprendizaje automático (machine learning) y aprendizaje profundo (deep learning) siendo ambas derivaciones de la inteligencia artificial, que con el apoyo del cómputo de alto rendimiento permite resolver problemas que demandan una alta cantidad de recusos de cómputo. La inteligencia artificial surge como una manera de imitar el comportamiento humano a través de las percepciones cognitivas que poseemos, un ejemplo es la visión artificial la cual trata de imitar la visión humana. El reconocimiento y clasificación de objetos se logra a través de algoritmos, que le permiten a una máquina aprender automáticamente y posteriormente ejecutar las tareas previamente mencionadas. Las aplicaciones de aprendizaje automático, tales como reconocimiento del habla o visión artificial requieren de técnicas especializadas que pertenecen al aprendizaje profundo. En este trabajo se plante la solución al problema de clasificaciópn de animales usando aprendizaje profundo en un procesador gráfico. Se aplica cómputo de alto rendimiento para optimizar los recursos y disminuir el tiempo que los algoritmos necesitan para realizar la tarea asignada.



METODOLOGÍA

La inteligencia artificial no solo imita el comportamiento humano, sino también el como está constituído, el aprendizaje profundo imita la estructura del cerebro, las neuronas las conecciones etc. En el cerebro se encuentran neuronas y estas están compuestas por dentritas (entradas), una soma (procesamiento) y axones (salidas). El primer modelo de aprendizaje profundo fue uno llamado perceptrón, siendo una única neurona con entradas, pesos y una funcion de activación. Se realiza un producto punto entre un vector de entrada y un vector de pesos el cual es ajustable, el producto punto nos otorga una cantidad escalar que entra a la función de activación, hay distintos tipos de funciones, existe relu, elu, sigmoide, tanh, softmax, softplus, exponencial. El perceptrón siendo un aprendizaje supervisado, utiliza una función lógica, si la cantidad escalar del producto punto supera un umbral la salida es 1, en caso contrario es 0, se ajustan los valores de pesos y el proceso se repite hasta que la salida coincide con la deseada. El perceptrón se ajusta perfectamente a funciones lineales, pero con funciones no lineales fallan. Asi que la solución es tener varios perceptrones en una red y posteriormente interconectar las redes, este metodo fue llamado Perceptrón Multicapa (MLP), de este concepto surgieron las redes neuronales. Cuando se desea explorar la visión artificial, las redes neuronales convencionales hechas de MLP siguen siendo útiles, pero la cantidad de recursos utilizados por una máquina son demasiado grandes y crecen exponencialmente según la imagen crece. Un ejemplo puede ser una imagen de 80 x 80 tenemos en total 6400 pixeles, eso significa que la primer capa MLP tiene que tener 6400 neuronas. Por lo cual, para el procesamiento de imagenes se necesita utilizar redes neuronales convolucionales (CNN).   Para resolver un problema de clasificacion por vision artificial primeramente tenemos que conseguir imagenes de lo que vayamos a clasificar para a continuación etiquetarlas en el grupo de animal perteneciente, una vez que tengamos todas las necesarias, es importante tener todas ellas de una misma forma para luego ser procesada por la CNN. Cada imagen es vista como una matriz en cual cada celda hay un un rango de valores que determinan el color [0-255] esta matriz es dividida entre el valor máximo 255 para quedar en un rango de [0-1] y posteriormente todas las imagenes serán reescaladas a un tamaño de (80, 80) con esto hemos realizado una normalización para cada una de las imagenes, al añadirse todas ellas a una variable y su etiqueta perteneciente a otra variable (que tipo de animal es), la información está lista para ser procesada por la CNN que está constituída de 3 capas. Capa de Convolucion Capa de Reduccion (Pooling) Capa de MultiPerceptrones Las CNN se distinguen precisamente por su primer capa, la convolucional, la cual es un conjunto de filtros para extraer los rasgos más importantes de una estructura básica en una imagen, como las estructuras verticales, horizontales, diagonales, etcétera. Para realizar esta extraccion de rasgos hay un producto entre la matriz de entrada y una matriz filtro. La matriz la matriz resultante tiene valores que resaltan los rasgos de la imagen de entrada. Una vez que el filtro es aplicado, proseguirá a segmentarse a través de reducir las dimensiones que posee, el tamaño de la reducción se especifica, esto se logra, tomando un grupo de tamaños cualesquiera y ya sea el número más grande o la media, en este algoritmo se opto por tomar el valor maximo. Este procedimiento de filtrar y reducir las imagenes fue realizado 6 veces y posteriormente se enlazó a 5 capas MLP. Las imagenes y sus respectivas etiquetas son divididas en un 75% de estas para entrenar al algoritmo y el 25% restante para validar que generalice correctamente.


CONCLUSIONES

Con una estructura de 6 capas convolucionales, 2 capas de 32 neuronas las siguientes 2 capas con 64 y las ultimas 2 capas con 128 neuronas, 3 capas reductoras de (2 , 2) cada 2 convoluciones y 5 capas MLP, 4 capas con 64 neuronas con la función de activación "relu" y la ultima con 10 neuronas y la función softmax, un optimizador adam y una función de pérdida "sparse categorical crossentropy" se obtuvo un desempeño del 78% de exactitud esto puede aumentar al mejorar la estructura y cambiar tanto las funciones de activación como optimizadores y funciones de pérdida. Además los tiempos de computo y los recursos necesarios para resolver el problema de clasificación bajaron de 57 minutos en promedio sin alto rendimiento a 3 minutos con alto rendimiento.
Tamay Canché José Eduardo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo

MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO


MODULO DE ACCESO AL SISTEMA ELECTRÓNICO DEL TECNOLÓGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO

Barrientos Correa Daniela, Instituto Tecnológico de Acapulco. Tamay Canché José Eduardo, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico de Estudios Superiores de Valle de Bravo, cuenta con un sistema de información en el cual, tanto alumnos como personal docente y administrativo puede consultar, mediante una intranet, la información de cada uno de los usuarios registrados, así como realizar diversos trámites, como puede ser, en caso de los alumnos, la consulta de sus calificaciones finales, el registro de una o más actividades complementarias para su ciclo escolar en curso, o en el caso de docentes y directivos, consultar sus plantillas de trabajo, planes de estudio, realizar horarios de actividades, etc. Actualmente, el sistema sufre algunos inconvenientes. Uno de ellos, consiste en la asignación de privilegios al personal docente, administrativo, y alumnos, de acuerdo tipo de usuario, sin embargo, se requiere privilegios adicionales que no se encuentran dentro un grupo establecido, específicamente el personal de la institución. Debido a esto, algunos trabajadores que cuentan con funciones adicionales a las de su perfil, no pueden hacer uso de módulos fuera de su grupo establecido.



METODOLOGÍA

Debido a la problemática descrita anteriormente, se realizó un proceso de análisis del funcionamiento del sistema de información del Tecnológico de Estudios Superiores de Valle de Bravo, sobre todo en la estructura de la base de datos. Una vez finalizada la fase de análisis, se ha llegado a la conclusión de proponer la siguiente solución: realizar un catálogo de privilegios para ser asignados a los usuarios al momento de su registro, en el cual estén contenidos los diversos permisos o funcionalidades a los que pueden acceder los empleados cuando estos le son asignados, de esta manera, se busca que, lejos de usar plantillas predefinidas de permisos (roles), dichos privilegios sean asignados de acuerdo a la necesidad de cada usuario, propiciando un funcionamiento óptimo del sistema. Se espera lograr dicha solución, relacionando la nueva tabla de privilegios con la tabla de usuarios, para que, de esta manera, se identifiquen los permisos con que cuenta cada uno de ellos, y de ser necesario, posteriormente agregar más permisos a los mismos, los cuales se almacenarían en la base de datos. Se tiene contemplado que, a partir de estos permisos registrados para cada usuario en la base de datos, se muestre un menú para hacer uso de las diversas funcionalidades que tendrá permitidas, descartando la creación de múltiples menús para los usuarios, debido a la poca factibilidad que estos representan en cuanto a la optimización del sistema, incorporando así, un menú dinámico, que este en función de los permisos que tenga cada usuario. Es importante mencionar que, se busca realizar las actividades ya mencionadas, con la base de datos proporcionada por los asesores de investigación, lo cual implica una reducción de tiempo en cuanto al desarrollo, puesto que, solo se tendrían que agregar las tablas pertinentes. Aunado a ello, esta solución se desarrollará, en el framework de Laravel, un entorno que optimiza el trabajo en gran medida, gracias a los beneficios que este brinda.


CONCLUSIONES

Durante la estancia de verano, con el fin de mejorar la productividad y el rendimiento de una organización como lo es el Tecnológico de Estudios Superiores Valle de Bravo fue fundamental evaluar y analizar las técnicas que se utilizaron para desarrollar el módulo de acceso al sistema de información, y de esta forma, para poder lograr su eficacia y eficiencia en la gestión de sus usuarios, se tuvo que modificar el diseño de la base de datos, creando un nuevo modelo relacional con cardinalidades, así como un diagrama de flujo y el maquetado, por ende, se utilizaron nuevas metodologías de trabajo.
Tapia Rosales Luis Pablo, Instituto Tecnológico de Toluca
Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)

GENERACIÓN DE ENERGÍA Y FLUJO DE USUARIOS FINALES EN LA ESTACIÓN EL NARANJAL DEL METROPOLITANO, LIMA – PERÚ, 2019.


GENERACIÓN DE ENERGÍA Y FLUJO DE USUARIOS FINALES EN LA ESTACIÓN EL NARANJAL DEL METROPOLITANO, LIMA – PERÚ, 2019.

Tapia Rosales Luis Pablo, Instituto Tecnológico de Toluca. Asesor: M.C. Henry Daniel Lazarte Reátegui, Universidad César Vallejo (Perú)



PLANTEAMIENTO DEL PROBLEMA

La estación El Naranjal del metropolitano es el punto principal de arribo de usuarios de este medio de transporte masivo, que, por cuestiones de un mal diseño, no es capaz de satisfacer la demanda actual de usuarios, creando así disturbios dentro la estación debido a la enorme cantidad de gente que busca usarlo, ya que siendo el único medio de transporte para llegar a sus diferentes destinos, sin mencionar que es de los más económicos, los habitantes de la ciudad de Lima no tienen otra opción mas que entrar a las olas de gente que llegan a ser de hasta 80000 personas al día y con un aproximado de 8000 personas que usan la estación en los momentos definidos por los habitantes como horas punta (7:00am a 9:00am y de 6:00pm a 9:00pm), superando así por mucho la cantidad del aforo permitido para esta estación. La estación El Naranjal también resulta ser uno de los lugares con más índice de delincuencia en la ciudad de Lima, atribuido a factores como la falta de una correcta iluminación en el exterior, provocando así la creación de puntos vulnerables para las personas que salen de la estación entre las 7:00pm y las 11:00pm y para aquellas que caminan alrededor de la misma. Esto también es debido a que los alrededores del metropolitano hay diferentes locales (tiendas, edificios comerciales) dotan de iluminación de manera indirecta a la estación, haciendo que El Naranjal se abastezca de estos negocios y no procure utilizar su propia iluminación, creando así momentos de total oscuridad cuando los negocios cierran aproximadamente a las 8:00pm. En mi caso, como ingeniero en electrónica, me toco la labor de desarrollar algún medio para producir energía aprovechando los recursos que la estación me ofrecía, con la condición de que fuese algo que no dañara al medio ambiente en gran medida, para poder distribuir la energía generada al alumbrado que rodea a la estación y mejorar así la seguridad de la zona.  



METODOLOGÍA

Se fundamentó en el análisis y comprensión de la información recolectada inicialmente desde el ámbito internacional, donde dichos datos fueron elementales para la determinación de factores necesarios para la aplicación en la estación de El Naranjal en la ciudad de Lima; posteriormente se procedió al análisis de los datos suministrados por el aforo de usuarios finales en la estación para así entender de alguna manera la magnitud que podría tener el proyecto.


CONCLUSIONES

Como conclusión se puede decir que estamos creando un sistema dependiente de los usuarios. Mientras mayor sea el flujo, mayor será la cantidad de energía generada por el sistema. Éste dependerá de diferentes cuestiones como la fuerza con la que pisen, el peso de los usuarios, la fluidez de los mismos, debido a que el tipo de material empleado (sensores piezoeléctricos) generan una cantidad de energía eléctrica proporcional a la cantidad de energía mecánica aplicada. A partir del análisis de los volúmenes de usuarios finales, los cuales fueron analizados de manera detalla para determinar su totalidad en un día de aforo, se realizó una proyección que refleje que otros perfiles son aptos para la instalación del sistema, en búsqueda de generar energías sostenibles en pro del medio ambiente. La idea básicamente fue crear un tapete dotado de sensores piezoeléctricos que nos permita aprovechar toda esa energía mecánica y almacenarla en baterías como energía eléctrica para así distribuirla en la estación. Una vez aceptada la idea, se realizaron diferentes pruebas para comprobar que la teoría puede ser aplicada, con lo cual, tuvimos éxito, pero no el tiempo suficiente para poder desarrollar un prototipo completamente funcional que nos permita saber que tanta energía podríamos generar, sin embargo, la idea parece ser muy factible por el hecho previamente mencionado sobre la cantidad de gente que circula en la estación.
Tarazon Meraz Invin Alexis, Instituto Tecnológico Superior de Cananea
Asesor: Dr. Guillermo del Carmen Tiburcio Munive, Universidad de Sonora

EXTRACCIÓN DE ORO Y PLATA A PARTIR DE UN REACTIVO ORGÁNICO.


EXTRACCIÓN DE ORO Y PLATA A PARTIR DE UN REACTIVO ORGÁNICO.

Tarazon Meraz Invin Alexis, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Guillermo del Carmen Tiburcio Munive, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El proyecto está enfocado en desarrollar un nuevo reactivo para el proceso de lixiviación de oro y plata, sustituyendo el uso de cianuro ya que debido a su alta toxicidad genera una contaminación que dura por un largo plazo y además puede generar acido cianhídrico el cual es mortal para los seres humanos y animales al estar en contacto con él.



METODOLOGÍA

La síntesis es a base de urea y carbonato de sodio para obtener el cianato, una vez obtenido el cianato se hace reaccionar con cloruro de amonio para obtener el reactivo. Con el reactivo se realizaron pruebas de lixiviación por agitación y se tomaron muestras a las 8, 24 y 48 horas a diferentes tamaños de partícula, llevando un registro mediante tablas de los diferentes porcentajes de extracción para cada tamaño de partícula.


CONCLUSIONES

El nuevo reactivo desarrollado en este proyecto ayuda a la preservación del medio ambiente, no genera gases tóxicos y se desintegra como un fertilizante. Alcanzando niveles de extracción arriba del 80% a diferentes tamaños de partícula. Su aplicación es en minerales de óxido de oro y plata, mineral de sulfuro, relaves de mineral. Sin modificar los parámetros en los procesos de Merril-crowe, carbón activado.
Telles Esparza Juan Aaron, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo

CALIDAD DE SERVICIO Y SEGURIDAD EN VOIP CON H.323


CALIDAD DE SERVICIO Y SEGURIDAD EN VOIP CON H.323

Telles Esparza Juan Aaron, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Homero Toral Cruz, Universidad de Quintana Roo



PLANTEAMIENTO DEL PROBLEMA

El uso de VoIP para comunicación va en aumento y esta de camino a remplazar a la telefonía por circuitos conmutada que se ha usado desde hace décadas en parte por el uso de softphones (como Skype o Zoiper) y teléfonos IP. Esto representa más usuarios y, por ende, una mayor cantidad de datos que se transportan a través de internet. A su vez, los proveedores de servicios de telefonía optan por tener una infraestructura de red VoIP porque esto reduce costos en equipo, mantenimiento y mano de obra. Aunque los beneficios que VoIP ofrece no son del todo gratis. Una gran desventaja de usarlo es que la integridad de los datos dificulta el diseño de una arquitectura de red, la variedad de protocolos y métodos de implementación generan serios problemas de interoperabilidad, a la vez la integración con las redes de datos existentes causa problemas en la calidad de servicio, sumando a que, los dispositivos de seguridad tradicionales como firewalls y protocolos de encriptación no son capaces de proteger las redes de servicios VoIP de amenazas recientes. Durante el verano de investigación se analizan los conceptos de VoIP y los riesgos de seguridad, a través de la recopilación de información de diversas fuentes, para evaluar la seguridad de los datos en una red implementada con el estandar H.323.



METODOLOGÍA

Para realizar este proyecto se analizó los conceptos de H.323 así como su funcionamiento, componenetes, protocolos de seguridad e implementación. Para, realizar pruebas de seguridad y así saber más sobre lo vulnerable que es la información y que tanto los estándares son capaces de mantener seguros los datos que transmiten los usuarios.


CONCLUSIONES

Durante la estancia del verano se logró adquirir conocimiento teórico sobre el funcionamiento y estructura de VoIP con el estándar H.323 así como de hacking ético, sin embargo, al ser un extenso trabajo aún se encuentra en fase de implementación de la red y pentesting. Se espera obtener información sobre vulnerabilidades y que tan expuestos están los datos a riesgos de seguridad.
Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
Tellez Saavedra Edwin Giovanni, Instituto Tecnológico Superior de Puruándiro
Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia

EFECTO DEL APORTE TERMICO DEL PROCESO FCAW (SS-GS) SOBRE EL ANCHO Y PENETRACION DEL CORDON DE SOLDADURA EN UN ACERO ASTM A36


EFECTO DEL APORTE TERMICO DEL PROCESO FCAW (SS-GS) SOBRE EL ANCHO Y PENETRACION DEL CORDON DE SOLDADURA EN UN ACERO ASTM A36

Tellez Saavedra Edwin Giovanni, Instituto Tecnológico Superior de Puruándiro. Asesor: Dr. Francisco Reyes Calderon, Instituto Tecnológico de Morelia



PLANTEAMIENTO DEL PROBLEMA

Como todo proceso de soldadura de arco eléctrico (Arc Welding-AW), el FCAW tiene sus características particulares. No es correcto decir que exista un proceso de soldadura AW mejor que otro, pues cada uno tiene sus bondades y sus limitaciones. La selección de un proceso o combinación de procesos de soldadura para una aplicación particular depende de varios factores. La selección de un proceso de soldadura está determinada por diversos factores tales como: Disponibilidad de corriente eléctrica Disponibilidad del material de aporte Cantidad de metal de soldadura a depositar (en metros lineales, por ejemplo) Condiciones locativas (aplicaciones a nivel del piso o en altura) y ambientales (Condiciones secas o húmedas, corrientes de aire, vientos fuertes, etc.) Tiempo disponible para la culminación de la obra Disponibilidad de personal de soldadura para el proceso en consideración. El proceso FCAW tiene limitaciones en específico: Actualmente está limitado a la unión de aleaciones ferrosas y aleaciones base níquel. El alambre tubular tiene un mayor costo por peso que el alambre macizo, excepto para ciertos aceros de alta aleación. El equipamiento es más costoso y complejo que el utilizado en SMAW, aunque el aumento de la productividad generalmente compensa su costo. La fuente de poder y el alimentador de alambre deben estar relativamente cerca del lugar de la producción del Weld. Para la modalidad FCAW-G, la protección externa puede ser afectada adversamente por corrientes de aire. Debido a la mayor complejidad del equipamiento se requiere mayor mantenimiento que en SMAW. Se pueden generar más humos que en GMAW y que en SAW. Cabe mencionar que la eficiencia de deposición de este proceso va desde un 78% a un 86%.



METODOLOGÍA

Se utilizaron probetas de un acero ASTM A36 las cuales se caracterizaron para obtener la metalografía del material, para esto fue necesario cortar y seleccionar las probetas, posteriormente se realizó un desbaste grueso con lijas de agua con grano desde el 80 hasta el 1500, el desbaste fino se hizo con un paño y con alúmina. Una vez desbastada la pieza se atacó químicamente con Nital al 3% durante 5 segundos para luego hacer un análisis metalográfico del material y posteriormente se sometieron las probetas a pruebas de dureza. Luego de capturar los resultados del material sin cordón de soldadura, se practicaron diferentes procesos de soldadura (SMAW, GMAW Y FCAW) esto con la finalidad de observar las diferencias que se obtienen entre los procesos y parametrizar la soldadura. Se aplicaron 4 cordones de soldadura FCAW ya con los parámetros establecidos, el primero fue por empuje sin oscilación, el segundo fue por arrastre sin oscilación, el tercero fue por empuje con oscilación, el cuarto y último fue por arrastre con oscilación, se cortaron y seleccionaron las probetas con el cordón de soldadura para ser hacer desbaste grueso y fino, y aplicar pruebas de dureza, y pasar al análisis metalográfico de las probetas para observar las diferentes zonas y que tanto fueron afectadas.


CONCLUSIONES

Una buena penetración del material de aporte Un aporte térmico considerable Zona afectada térmicamente Observar que tanto afecta el cordón de soldadura en la metalografía del material y en sus propiedades como lo es la dureza.
Téllez Torres Deyry Jazmín, Instituto Politécnico Nacional
Asesor: Dr. Víctor Manuel Ramírez Rivera, Centro de Investigación Científica de Yucatán (CONACYT)

GESTOR DE ENERGíA PARA VEHíCULOS ELéCTRICOS


GESTOR DE ENERGíA PARA VEHíCULOS ELéCTRICOS

Téllez Torres Deyry Jazmín, Instituto Politécnico Nacional. Asesor: Dr. Víctor Manuel Ramírez Rivera, Centro de Investigación Científica de Yucatán (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el uso de energía eléctrica en sistemas de alimentación, es una problemática debido a que este es inadecuado, cada día incrementa la demanda por un mayor número de equipos electrónicos y con tecnología más desarrollada. Para realizar estos equipos, es necesario tener fuentes de alimentación eficientes o en este caso convertidores, y así obtener una mayor eficiencia al transferir energía y que a la vez no afecte el tamaño, teniendo un alto rendimiento y características de tipo conmutado, es decir que pueda elevar y/o disminuir voltajes. Un convertidor adapta una señal eléctrica (ya sea voltaje y/o corriente) para alimentar determinada carga, funcionando con una entrada de voltaje AC o DC. Por lo mencionado anteriormente es que los convertidores de voltaje DC-DC son tan importantes en la actualidad, ya que son como puentes de transferencia de energía entre la carga y la fuente. Hoy en día debido a los grandes problemas de contaminación, el cambio climático y el impacto ambiental que generamos los seres humanos, se están implementando cada vez más, diferentes alternativas para ayudar a reducir los niveles de emisiones de gases de efecto invernadero, además de que por las recientes problemáticas provocadas por el uso excesivo de combustibles fósiles y la escasez de estos, es sumamente importante realizar investigaciones relacionadas con la eficiencia energética para hacer uso de las diferentes fuentes de energías renovables. Una alternativa a esta problemática son los vehículos eléctricos, que en esta investigación utilizaran como fuente de energía celdas solares fotovoltaicas, las cuales proporcionarán al vehículo el voltaje necesario para su funcionamiento, para poder mantener dicho voltaje a un nivel estable y a la vez poder elevarlo si es que la aplicación lo requiera (para este caso si es requerido), se utilizará un convertidor tipo Boost.



METODOLOGÍA

Se realizó la investigación de los diferentes tipos de convertidores de potencia DC-DC que existen y son implementados actualmente, encontrándose entre estos, convertidores elevadores (Boost), reductores (Buck), reductor-elevador (Buck-Boost), reductor-elevador con polaridad inversa (Cúk). Después de encontrar el diferente funcionamiento de cada uno de ellos (tal como sus nombres lo indican), se investiga más sobre el convertidor elevador de voltaje (Convertidor Boost) debido a que este será el que mejores resultados nos dará para las aplicaciones requeridas, ya que lo que se desea es elevar el voltaje que es entregado por las celdas fotovoltaicas. Posteriormente se realizaron los cálculos dinámicos del convertidor de potencia DC-DC tipo Boost, estos se obtuvieron al tener el modelo del convertidor y los diferentes componentes que lo integran, analizándolo mediante las leyes de Kirchhoff. Para realizar el diseño del convertidor de potencia DC-DC tipo Boost, primero fue necesario saber cual sería la carga final y las características de esta, es decir el voltaje que necesita para realizar su funcionamiento, y la corriente que requiere. Con dichos datos se obtiene la resistencia de la carga, la cual es indispensable para poder realizar los cálculos pertinentes y así obtener un valor del inductor y capacitor ideales para mantener la energía requerida. Con los cálculos realizados, se buscan un capacitor y un inductor cuyos valores comerciales sean exactos o en su defecto lo más cercanos posible a los valores obtenidos. Con el análisis dinámico realizado, se realizan los cálculos necesarios para obtener la función de transferencia del sistema (Convertidor Boost) a lazo abierto, es decir antes de agregar el control que nos ayudará a mantener el voltaje si se presenta alguna perturbación. Una vez encontrada la función de transferencia del sistema, se procede a realizar el control del mismo, en este caso será un control de tipo PID el cual se obtendrá al encontrar el valor de las constantes Kp,Ki y Kd. Una vez que se obtienen dichas constantes, se procede a realizar las pruebas pertinentes de dicho control, en el software Matlab con la herramienta Simulink, introduciendo la función de transferencia del sistema y las constantes del PID en lazo cerrado. Se realiza el diseño de la placa de PCB para el convertidor DC-DC tipo Boost en el Software Proteus. Posteriormente con los cálculos realizados, y la información que ahora se conoce sobre los convertidores tipo Boost, se realizan las pruebas de funcionamiento de estos, en el kit de entrenamiento, dichas pruebas son en lazo abierto y en lazo cerrado para observar el comportamiento del convertidor en cada uno de ellos y observar las diferencias entre estos, sobre todo al agregar perturbaciones en el sistema (variaciones en la entrada).


CONCLUSIONES

Durante la investigación se logró adquirir los conocimientos teóricos de convertidores de potencia DC-DC tipo Boost, y ponerlos en práctica sobre todo al observar el comportamiento del convertidor Boost en el Kit de entrenamiento, debido a que en este al variar la entrada incluso en lazo cerrado, vemos que el Control tiene un rango de funcionamiento de acuerdo a esta variación ya que si es muy grande, este no mantiene el valor de referencia y se cae el voltaje, por lo cual sería necesario realizar otro tipo de control o determinar adecuadamente en que rango funciona correctamente este. Sin embargo, debido al poco tiempo del verano, aún se encuentra pendiente el probar el funcionamiento del convertidor y su control en el vehículo eléctrico y observar si es adecuado para moverlo tal como se espera. 
Tepepa Alvarez Juan Manuel, Instituto Tecnológico de Toluca
Asesor: M.C. Lewin Andrés López López, Universidad del Valle (Colombia)

DISEñO DE BANDA TRANSPORTADORA CON ESTACIóN DE MEDIDA


DISEñO DE BANDA TRANSPORTADORA CON ESTACIóN DE MEDIDA

Tepepa Alvarez Juan Manuel, Instituto Tecnológico de Toluca. Vazquez Eustaquio Marco Antonio, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Lewin Andrés López López, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente se está presentando una demanda por nuevos ingenieros y científicos a nivel mundial, fenómeno evidenciado en este siglo por los bajos niveles de interés en los jóvenes para formarse profesionalmente en áreas de ciencia o ingeniería,de acuerdo a reportes del ministerio de educación en Colombia actualmente existe una deserción promedio del 50% en todos los tipos de estudio universitario.  Existe entonces la necesidad de crear y aplicar nuevas herramientas didácticas apoyadas en las TIC y en los avances tecnológicos que puedan utilizarse en los cursos de las carreras tecnológicas ofrecidas en la sede, al igual que ser llevados a la comunidad estudiantil de colegios de la región con el objetivo de motivar el interés por las áreas STEM. En consecuencia, se plantea aprovechar el recurso físico y humano disponible actualmente en la sede para crear plataformas modulares para experimentación multidisciplinar mediante el uso de la impresora 3D como equipo principal de fabricación de piezas plásticas y responder a la pregunta: ¿qué características deben considerarse en el diseño de plataformas modulares para educación STEM que sean viables de aplicar económicamente ? De este modo se plantea que una plataforma modular didáctica puede ofrecer una alternativa para desarrollar habilidades de campo en cuanto a la programación de dispositivos y software de control de procesos industriales.



METODOLOGÍA

El presente proyecto de investigación posee un enfoque dirigido al campo de la ROBOTICA EDUCATIVA basado en la idea de construcción de sistemas a escala que permitan la simulación de cadenas de producción para la medición de diferentes tipos de variables, para lo cual se ha empleado la metodología con orientación experimental. Las fases a desarrollar en términos generales son:  1) Definición de especificaciones del sistema general en cuanto a estructura, tamaño y requisitos operativos. 2) Diseño de piezas mecánicas para banda transportadora y estaciones de medición. 3) Impresión, pruebas y optimización de piezas mecánicas acopladas a sensores y actuadores (SolidWorks). 4)Programación de componentes electrónicos. 5) Caracterización de sensores en estaciones de medición. 6) Puesta en marcha de una cadena productiva sobre la plataforma. 7) Diseño de interfaz gráfica para la vizualización y contriol del sistema en tiempo real (Processing).


CONCLUSIONES

RESULTADOS Hasta el momento se ha logrado el diseño e impresión 3D de las distintas piezas que forman parte del funcionamiento de la banda transportadora, estas son: • Base. • Soportes. • Ejes. • Carcaza de motor. • Eslabones. • Plataforma. • Engranes. Estas piezas fueron diseñadas evolutivamente ya que en cada etapa se fueron modificando distintas características para mejorar su funcionamiento. Tienen la particularidad de poder acoplarse y posicionarse en distintos lugares del sistema para adecuarse a las necesidades del usuario. Del mismo modo se comenzó a crear la plataforma digital para visualizar y controlar el proceso en tiempo real mediante el Software Processing. En esta interfaz gráfica se puede observar la actualidad del sistema desarrollado y las expansiones futuras que se pretenden adicionar con la continuación del proyecto. CONCLUSIONES •Es importante crear oportunidades para que el estudiante pueda tener contacto con un proceso industrial mediante un equipo didáctico de fácil acceso y manipulación. •La utilización de Processing para la visualización de procesos industriales en 2 dimensiones acerca al estudiante a un entorno más real de la llamada industria 4.0. •El uso de la impresora 3D para prototipado, facilita crear físicamente una idea y comprobar su funcionamiento para aceptar o corregir el diseño. •Al trabajar con impresión 3D obtuvimos experiencia para solucionar los inconvenientes que se generan durante el proceso.
Teran Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato
Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA


APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA

Teran Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato. Trejo Sánchez Angélica María, Instituto Tecnológico Superior de Guanajuato. Trejo Sanchez Carlos Daniel, Instituto Tecnológico Superior de Guanajuato. Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La yaca es un fruto tropical que se encuentra en sobreproducción en el estado de Nayarit teniendo una producción anual de 18,611 toneladas en el 2016 de acuerdo con el Servicio de Información Agroalimentaria y Pesquera (SIAP). Por tal motivo se quiere elaborar un jugo lo cual ayudaría a su diversificación de los productos de bebidas para que tenga un aporte nutricional benéfico a la salud del consumidor.  El objetivo de esta investigación es determinar el tiempo en que un producto ya no cumple con los estándares de calidad y puede ser perjudicial para los consumidores haciendo uso de aditivos ya establecidos, teniendo un antioxidante y un conservador que evitaran una rápida sedimentación de sólidos y líquido así mismo alargando su conservación en temperaturas de refrigeración. Las pruebas fisicoquímicas nos permiten saber en cuánto tiempo su pH, color, olor y sabor han cambiado. A su vez, las microbiológicas nos demostrarán las buenas prácticas de manufactura en el proceso, Y en cuánto tiempo pueden crecer microorganismos no deseados como bacterias, hongos y levaduras. Manteniendo su vida de anaquel derivado de una pasteurización artesanal, adición de aditivos y conservadores, y , posteriormente realizando pruebas microbiológicas para verificar que la pasteurización se hizo de la manera adecuada. Además se pretende desarrollar una estrategia de marketing para llegar al consumidor de una manera directa y así el producto obtenga la distribución deseada. La mercadotecnia esla parte intermedia entre el cliente y la empresa. Así mismo el etiquetado nos permite conocer el alimento, su origen, su modo de conservación, los ingredientes que lo componen o los nutrientes que aportan a nuestra dieta.



METODOLOGÍA

Compuestos fenólicos: Folin- Ciocalteu Determinación del color: Colorímetro Cuantificación de la vitamina C: yodimetrías Acidez:  Volumetría pH: Potenciómetro °Brix: Refractometro Pasteurización. Una vez elaborado y envasado el jugo, se colocaron en agua hirviendo a una temperatura de 95°C durante 10, 15 y 20 minutos. Así se  analizó cuál era el mejor tiempo para dicho tratamiento.Posteriormente se deja enfriar a temperatura ambiente. Análisis microbiológicos Basados en las siguientes Normas Oficiales Mexicanas: NOM-092-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE BACTERIAS AEROBIAS EN PLACA. NOM-112-SSA1-1994, BIENES Y SERVICIOS. DETERMINACIÓN DE BACTERIAS COLIFORMES. TÉCNICA DEL NÚMERO MÁS PROBABLE. NOM-113-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MICROORGANISMOS COLIFORMES TOTALES EN PLACA. NOM-111-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MOHOS Y LEVADURAS EN ALIMENTOS. NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. Etiquetado: Material resistente al agua ya que al mantenerse en refrigeración estará expuesto a exudación por temperatura. Diseño colorido que caracterice la gama de sabores que el jugo posee, así como la imagen del fruto para que el consumidor comience a conocer de donde proviene el producto. En cuanto a los valores de la tabla nutrimental y menciones obligatorias del etiquetado frontal se harán en base a la NOM-051-SCFI/SSA1-2010 Eslogan: La frase promocional tendrá un impacto hacia al cliente que lo lleve a consumir el producto. Publicidad: Poster digital/físico que contendrá la imagen del producto así como su precio, además de que las redes sociales serán el principal vínculo entre el producto y el cliente.


CONCLUSIONES

El uso de ácido ascórbico favoreció la calidad del jugo realzando su sabor y evitando una oxidación prematura ayudando a que el color permanezca. De acuerdo a los datos obtenidos la muestra de 10 minutos fue aceptable en las pruebas microbiológicas, Vitamina C, compuestos fenólicos y color, por lo que el tiempo en el que estuvo a altas temperaturas fue el mejor, realzando su color sin perder sus nutrientes Gracias a los estudios y análisis realizados, se llegó a la conclusión  de que la pasteurización por 10 minutos, fue la óptima para que las características generales de la bebida se mantuvieran lo menos alteradas posible. Los análisis microbiológicos para dicha pasteurización (10 minutos), fueron los siguientes: Conteo de mesófilos: <10 Conteo de coliformes en placa: Ausente Conteo de coliformes por la técnica NMP: Ausente Conteo de hongos y levaduras: <10 Por lo que está dentro de norma, según lo establecido en la NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. La etiqueta es de una amplia gama de colores los cuales representan la variabilidad de sabores del producto, así mismo contiene el título del producto Yackjuice, el nombre de la compañía y denominación aplicada; debajo puede observarse la imagen del fruto utilizado, el etiquetado nutrimental frontal y el contenido neto. En la parte lateral derecha se puede observar el código de barras y dos insignias, la primera marca Guanajuato y la segunda de hecho en mexico, asi como la fecha de caducidad y el símbolo de tire el envase en su lugar. En la parte lateral izquierda podemos encontrar la tabla nutrimental, los ingredientes además de la empresa que lo elabora y su ubicación. El poster promocional físico/digital muestra una imagen central del producto en cuestión, precio con colores llamativos y el eslogan que atraerá la atención del cliente. 
Thuiran Vergara Elvis Jose, Corporación Universitaria del Caribe (Colombia)
Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara

DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG


DISEñO DE APLICACIóN MóVIL PARA LA VISUALIZACIóN EN TIEMPO REAL DE LA UBICACIóN DEL TRANSPORTE PúBLICO EN LA ZMG

Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Guzman Miranda Isabel, Universidad Autónoma de Baja California. Thuiran Vergara Elvis Jose, Corporación Universitaria del Caribe (Colombia). Asesor: Dr. Gilberto Ochoa Ruiz, Universidad Autónoma de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La movilidad es la actividad que la mayoría de las personas realizamos para trasladarnos de un lugar a otro, ya sea de la casa al trabajo o a la escuela y viceversa. Además, la movilidad es uno de los aspectos fundamentales para el desarrollo de las ciudades. La Zona Metropolitana de Guadalajara (ZMG) atraviesa un grave problema de movilidad que es traducido como un congestionamiento vial crónico, según refiere el Reporte Nacional de Movilidad Urbana en México 2014- 2015. Estadísticas indican que las personas invierten 33 horas aproximadamente durante el año demorados por el tráfico. Según el INEGI hasta 2017 existían 4,173 unidades registradas. Los ciudadanos que usan el transporte público se encuentran en constante preocupación debido a la pérdida de tiempo que lleva esperar entre ruta y ruta. En muchos de los casos durante el tiempo de espera, se presentan asaltos. El mayor problema que se presenta en la actividad de movilidad es que la mayoría de las personas esperan alrededor de 15 a 20 minutos en esperar su ruta, lo cual les genera un retraso en sus actividades diarias, generando estrés, preocupación a las personas.



METODOLOGÍA

Se utilizó Android Studio para desarrollar una aplicación móvil llamada IoBus para poder resolver la anterior problemática. IoBus, es una APP (actualmente para Android) que, entrega en tiempo real la ubicación de la ruta deseada. Las actividades seguidas para el desarrollo de la app IoBUS, fueron las siguientes: Como primera actividad, se realizó la lectura y desarrollo de actividades para la comprensión y el manejo del entorno de Android Studio. En esta actividad se desarrolló la primera app, la cual fue un juego didáctico. Al finalizar esta actividad se tenía el conocimiento de las herramientas básicas de desarrollo de Android Studio. Siguiendo con la asignación de los módulos que componen IoBUS, se desarrolló la interfaz para el registro e inicio de sesión de usuarios, y se realizó la lectura de JSON y headers en http. Continuando con el desarrollo del módulo Dashbard para el chofer y creación de dispositivos IoT, y con la consulta sobre bases de datos SQLiTe. Posteriormente se implementó las funciones de registro de usuarios, de eliminar y de mostrar dispositivos conectados. Por último, se hizo la conexión a una API, con ello se ejecutó a prueba de errores y se hizo la corrección de los errores producidos.


CONCLUSIONES

Durante la estancia de verano se lograron adquirir diversos conocimientos enfocados a la programación orientada a objetos, uno de ellos fue a utilizar el IDE de Android Studio, el cual es el entorno de desarrollo integrado oficial para la plataforma Android. Fue un software nuevo para todos los integrantes del equipo ya que nunca habíamos utilizado esta plataforma de desarrollo, pero gracias al apoyo de nuestros asesores pudimos interactuar y desarrollar una aplicación funcional la cual permitió obtener rutas, así como registrar usuarios. Aprendimos a consumir servicios de una API de google Maps la cual nos permitió visualizar los datos que los usuarios van a utilizar para poder observar la ruta del transporte. Además, nos permite crear mapas de manera muy sencilla y rápida. Se utilizó esta API para crear una aplicación móvil llamada IOBus, que también fue creada con código nativo para Apple.   Interactuamos con la parte del desarrollo de la aplicación de IOBus en Xcode, con el fin de que pudiera ser ejecutable en un sistema operativo iOS, se vio la parte del desarrollo de interfaces con esta herramienta, y se nos hizo muy práctica ya que el lenguaje es de alto nivel, y ofrece a los desarrolladores todo lo necesario para crear aplicaciones para Mac, iPad y iPhone, de una forma muy sencilla.   Además, tuvimos la oportunidad de conocer Flutter que es un framework mobile de Google que se utiliza para crear interfaces, pero esta utiliza una versión Cross-Platform, la cual permite el desarrollo de aplicaciones nativas de alta calidad en iOs y Android en un tiempo record. Nos facilitó el trabajo a comparación con las otras dos plataformas, es una un framework que se ha utilizado por desarrolladores, es gratuito y con código abierto.   Esta estancia nos sirvió mucho, pues nosotros desconocíamos por completo el mundo de desarrollo de aplicaciones móviles. Ahora nos han abierto más el interés por implementar nuevos métodos y estrategias en el área de la tecnología y un mayor interés por el área del desarrollo de nuevas tecnologías. Asimismo, agradecemos al programa Delfín y a nuestros asesores, puesto que gracias a ellos hemos tenido la oportunidad de crecer como personas adquiriendo experiencias y nuevos conocimientos.
Tinajero Franco Diana Laura, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México

DISEñO DE UN BAñO SECO EN LA UNAM


DISEñO DE UN BAñO SECO EN LA UNAM

Concha Ramirez Miguel Angel, Consejo Quintanarroense de Ciencia y Tecnología. Picazo Medina Paola Yamileth, Instituto Politécnico Nacional. Sánchez Méndez Martin, Universidad Autónoma del Estado de México. Tinajero Franco Diana Laura, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Vicente Borja Ramírez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

El problema de escasez de agua en la Ciudad de México se debe al uso ineficiente de los diversos servicios de agua y saneamientos. Dada la problemática de agua en la ciudad, cobra importancia la visión previsora en su cuidado y manejo, es por ello que el proyecto busca incorporar el uso de baños secos en una de las instalaciones del campus central de la Universidad Nacional Autónoma de México (UNAM). Un hecho notable es que en el campus debe abastecer una demanda de agua de 80 litros por segundo y, en promedio, el consumo diario total es de 8 050 metros cúbicos. De acuerdo con la Dirección General de Obras de la UNAM durante la última década el consumo anual promedio se ha mantenido en 3 millones de m3 de agua. El sistema de agua potable para el consumo en las distintas dependencias de Ciudad Universitaria (CU) se compone de tres subsistemas: el de suministro, el de almacenamiento y el de la red de distribución de agua. Este último lleva más de 30 años en servicio, por lo cual su mantenimiento se vuelve complicado. Con la finalidad de disminuir el consumo, desde hace más de diez años se ha modernizado el inmobiliario de los sanitarios en las distintas dependencias. En los últimos años, la Facultad de Ingeniería y el Centro de Investigación Avanzada (CIA) han desarrollado como propuesta alterna y visionaria un núcleo sanitario que reduzca el consumo de agua mediante sanitarios secos suficientes para abastecer la demanda de dicho edificio donde los  desechos se tratan mediante un sistema de compostaje adecuado para hacer uso de la materia fecal de una forma segura y eficaz para el usuario y el medio ambiente. El desarrollo de este producto también conlleva una seria problemática social debido al prejuicio que se tiene de los baños secos donde el rechazo hacia los olores y la suciedad es evidente por parte de los usuarios, a diferencia de casos análogos ya desarrollados cercanos a la ciudad. Se busca combatir este tipo de problemas desde el desarrollo mecánico y estético del cuerpo del producto propuesto. El mismo deberá responder a estándares de sustentabilidad, higiene, calidad y pretende obtener la aceptación de los distintos usuarios presentes y futuros, que utilicen el baño en la Facultad de Ingeniería, buscando ofrecer una buena experiencia en su uso. cantidades considerables de compostaje y el traslado del desecho.



METODOLOGÍA

Para desarrollar la propuesta del baño seco se realizaron una serie de pasos que nos han permitido tener un correcto desarrollo del proyecto. En principio revisamos los antecedentes respecto a los baños secos existentes y también analizamos el espacio donde se adaptará, el lugar se encuentra en el edificio I de la facultad de ingeniería, dentro de CU. Esto nos permitió tener noción de su estado para identificar su problemática, conocer sus magnitudes y características. Se hizo una investigación de campo en la cual se analizaron baños públicos de diferentes establecimientos, esto nos permitió realizar una tabla comparativa en donde se observaron cuáles eran los detalles que le generan una mejor experiencia al usuario, las cuales se tuvieron en cuenta a la hora de tomar decisiones en el diseño. De la misma manera se analizaron a los usuarios que participan en este proyecto y se determinaron que existían dos tipos (Estudiantes y conserjes). Siguiendo la metodología de Karl Ulrich se realizaron evaluaciones para determinar, entre todos los conceptos de solución,  el mejor diseño enfocado en el usuario. Durante estas evaluaciones simulamos Escenarios para entender mejor el contexto en el cual se desenvuelven los personajes, y del mismo modo a estos se les dotaron características que se vieron reflejadas en los diagramas de rutas de los usuarios. En conclusión durante este análisis se nos brindó una visión más amplia de los individuos que estarán en contacto directo con el producto final, así como sus rutinas y su metodología a la hora de estar dentro de los baños. Las propuestas de solución se evaluaron con diagramas de polaridad y matrices morfológicas para valorar las características, las funciones, los materiales y/u objetos que serían indispensables para la funcionalidad del proyecto. El proyecto se dividió en áreas de especialidad, dependiendo del perfil de cada integrante del equipo, de este modo la información se incorporaba y todo el equipo añadía un panorama más amplio acerca de los problemas ecológicos que se encontraron en la universidad. Con este sistema se facilitó la generación de alternativas de solución con rasgos ambientales que nos permiten disminuir la huella ecológica que actualmente estamos generando. Para concluir, los resultados se elaboraron virtualmente con el modelado de en 2D utilizando AutoCAD y en 3D utilizando Revit con la finalidad de compartir de manera gráfica los resultados y nuestra visión del baño del futuro.


CONCLUSIONES

La escasez de agua en todo el mundo es un problema que cada vez se vuelve más preocupante. Un sistema que ayude a evitar que las aguas residuales de las ciudades contengan heces fecales, tendrá beneficios en los ámbitos ambientales, sociales, agrícola y económico ya que serán únicamente aguas grises    Es importante mejorar la funcionalidad de los baños públicos con una nuevo diseño y mantener la sostenibilidad a medida que se van descubriendo vulnerabilidades. El proceso que se llevó a cabo para diseñar permitió desarrollar una propuesta la cual cumple con las necesidades del usuario. Más adelante se planea trabajar con otras disciplinas médicas, agrícolas y salud para garantizar la seguridad de los estudiantes interesados en la conservación del ambiente. Así mismo, validar la propuesta a través de prototipos funcionales que nos permitan tener un baño público favorable según los requerimientos establecidos.
Tirado Serrato Jesus, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Dr. Roger Miranda Colorado, Instituto Politécnico Nacional

ANáLISIS EXPERIMENTAL DE VEHíCULO AéREO DE CUATRO ROTORES


ANáLISIS EXPERIMENTAL DE VEHíCULO AéREO DE CUATRO ROTORES

Tirado Serrato Jesus, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dr. Roger Miranda Colorado, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Hoy en día los vehículos aéreos de cuatro rotores son los más empleados en algunas áreas que incluyen aplicaciones militares, de monitoreo, agricultura, entrenamiento, paquetería, rescate de personas, de optimización de trabajo en construcción, entre otras. Por lo tanto, los aspectos anteriores muestran la necesidad de verificar el funcionamiento del vehículo aéreo de cuatro rotores con el programa Matlab en donde se pretende manipular los motores, obtener las lecturas de posición angular, velocidad angular con Simulink para la aplicación distintas estrategias de control.



METODOLOGÍA

Lo primero con lo que se tiene que trabajar es con obtener la lectura de codificadores de la plataforma de vuelo del vehículo aéreo de cuatro rotores, después se deberá de proceder con la manipulación de los motores del vehículo aéreo de cuatro motores por medio de Matlab-Simulink y AscTec ARM SDK  y posteriormente se procederá con la aplicación de un control de tipo PD del modelo lineal del cuadrator en Simulink.


CONCLUSIONES

Se puede concluir que el presente trabajo realizado en el centro de investigación CITEDI fue satisfactorio ya que se realizó la adquisición de datos de los codificadores de la plataforma de vuelo del cuadrotor AscTec Pelican y se realizó una simulación en Simulink del modelo linealizado del vehículo aéreo de cuatro rotores. Los resultados obtenidos en el análisis experimenta: gráficas de posición angular y velocidad angular del modelo linealizado del cuadrotor en Simulink y gráficas de la lectura de los codificadores  OMROM E6B2-CWZ6C y la elaboración de un manual para el procedimiento de la tarjeta dSPACE DS 1103.
Toledo Cornejo José Alexis, Universidad Autónoma de Baja California Sur
Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)

DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.


DISEñO E IMPLEMENTACIóN DE UN SISTEMA SOLAR FOTOVOLTAICO INTERCONECTADO A RED PARA EL POLITéCNICO DE LA COSTA ATLáNTICA.

Aguilar Burgoin Hector Alfredo, Universidad Autónoma de Baja California Sur. Castro Gaytán Oscar, Universidad de La Salle Bajío. Toledo Cornejo José Alexis, Universidad Autónoma de Baja California Sur. Asesor: C. Catalina Molina Valencia, Corporación Politécnico de la Costa Atlántica (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Existen distintas formas de generación de energia eléctrica, la forma más común es por medio de combustibles fósiles. Los cuales son caros y contaminantes; ya que representan alrededor del 60% de las emisiones mundiales de gases de efecto invernadero. El aumento en la necesidad de energía, y la necesidad de la reducción de emisiones; están provocando numerosas investigaciones en fuentes de energía alternativas o diversas maneras de reducir la liberación de partículas contaminantes. Pese a que Colombia genera cerca del 80% de su electricidad por medio de hidroeléctricas, aún tiene dependencia de combustibles finitos y perjudiciales para el medio ambiente. Añadamos a esto, que tiene un gran potencial solar que puede ser aprovechado mediante sistemas solares fotovoltaicos, sobre todo en la zona del Atlántico, justo donde se encuentra la institución a estudio.



METODOLOGÍA

De manera general, este trabajo estimará el número de paneles fotovoltaicos que podrán ser instalados en el área disponible del Politécnico de la Costa Atlántica. Posteriormente, utilizando el software Sketchup, se realizará un modelo 3D de la zona junto con los paneles fotovoltaicos y sus dimensiones reales. Con el software PVsyst se procederá a efectuar la simulación del sistema, con esto se obtendrá la generación total de energía además de las perdidas en eficiencia por sombreado. Asimismo, se estimará la reducción de emisiones de gases de efecto invernadero que se evitaran al instalar el sistema fotovoltaico. Finalmente, se realizará el analisis financiero para ver la rentabilidad del proyecto.


CONCLUSIONES

Se espera que la rentabilidad del proyecto fotovoltaico sea favorable debido a los altos precios de las tarifas eléctricas en Colombia. Además, en este país se aportan bonos financieros a instituciones o empresas que generen energia limpia y renovable. Por otra parte, se espera que la reducción de emisiones contaminantes sea pequeña, ya que al generar cerca del 80% de la electricidad de Colombia por medio de centrales hidroeléctricas el factor de emisiones para partículas contaminantes se mantiene bajo en comparación de países como México
Torán Sánchez José Luis, Instituto Tecnológico Superior de Uruapan
Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo

DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.


DETERMINACIóN DE LA POROSIDAD EFECTIVA Y POROSIDAD TOTAL DE ESPECíMENES DE MORTERO BASE CEMENTO CON SUSTITUCIóN DE MUCíLAGO DE NOPAL.

Castañeda Tajimaroa Juan Pablo, Instituto Tecnológico Superior de Uruapan. Mendoza Vidales Héctor, Instituto Tecnológico Superior de Uruapan. Torán Sánchez José Luis, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Noel Díaz González, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Existen diversos tipos de materiales para construcción, en la mayoría de los casos el material que proporciona sus principales propiedades es el cemento, el cual en su fabricación genera grandes emisiones de CO2, por esta razón se busca realizar sustituciones parciales de cemento por otros materiales naturales que produzcan un resultado similar a una mezcla cotidiana, sin afectar la resistencia y durabilidad de los morteros y concretos, o incluso mejorar las propiedades de los materiales. Con las sustituciones que se realizaron, se buscó mejorar las características y reducir la porosidad de las mezclas. Esta propiedad tiene efectos muy notables en dos de los factores más importantes de nuestra mezcla: la resistencia a la compresión y la durabilidad. A mayor cantidad de vacíos presentes, será mayor la vulnerabilidad de la mezcla a ser atacado por agentes externos, los cuales pueden ser muy agresivos y generar reacciones químicas que lo vayan deteriorando con el tiempo.



METODOLOGÍA

Los especímenes que se están tratando son de mortero base cemento con sustitución de mucílago y fueron elaborados en el mes de octubre del año 2015. Al día de hoy se están realizando diversas pruebas a estos especímenes (considerando que tienen 45 meses de edad). El mucílago es una sustancia viscosa contenida en algunos vegetales como el nopal; para el desarrollo de esta investigación se realizaron dos muestras de mucílago (MN 1:2, MN 1:3), MN es mucílago de nopal. La primera se fabricó hirviendo 1 kg de nopal y 2 L de agua, la segunda, con 1 kg de nopal y 3 L de agua. Se diseñaron tres mezclas de acuerdo a la norma NMX - C - 061 - ONNCCE 2010. A continuación, se presentan las proporciones con las cuales fueron elaboradas las mezclas; 1.- Testigo: 1 Kg de cemento, 2.75 kg de arena y 0.68 L de agua. 2.- MN 1-2:  1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.01 Kg de aditivo-Crisotran R-5 y 0.34 Kg de nopal. 3.- MN 1-3: 1 Kg de cemento, 2.75 kg de arena, 0.68 L de mucílago de nopal, 0.003 Kg de aditivo-Crisotran R-5 y 0.23 Kg de nopal. El cemento con el que se fabricaron las mezclas fue CPC 30R RS y la especie del nopal es opuntia ficus - indica. Las mezclas se colaron en los moldes y fueron desmoldados cumplidas las 24 horas. Fueron curados por inmersión hasta la edad de prueba. Los especímenes fueron sometidos a pruebas de resistividad eléctrica y la velocidad de pulso ultrasónico, que arrojan información acerca del grado de porosidad interna del mortero. El procedimiento anterior fue utilizado tanto para la prueba de porosidad total como para la prueba de porosidad efectiva. Las pruebas de porosidad total y porosidad efectiva no podrán ser expresadas con resultados, debido a que actualmente los especímenes se encuentran en el horno, y se analizarán una vez que se obtenga masa seca constante, esto es, cuando la diferencia de masas en porcentaje no es mayor al 0.1%. PRUEBA DE POROSIDAD TOTAL. Para la realización de esta prueba se seguirá el procedimiento que dicta la RED DURAR. Se tomará la masa húmeda (Wsaturado), posteriormente se determinarán sus volúmenes con un picnómetro y una probeta graduada, luego se obtiene la masa sumergida (Wsumergido) utilizando una balanza hidrostática con canastilla. Finalmente, se colocarán los especímenes en el horno a 50°C hasta masa seca constante, para obtener su masa seca (W50° o Wseco). Luego de obtener estos datos se aplicará la siguiente formula: % Porosidad total = ((𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 − 𝑾𝒔𝒆𝒄𝒐) / (𝑾𝒔𝒂𝒕𝒖𝒓𝒂𝒅𝒐 −𝑾𝒔𝒖𝒎𝒆𝒓𝒈𝒊𝒅𝒐)) ×𝟏𝟎𝟎 PRUEBA DE POROSIDAD EFECTIVA. Consiste en determinar la absorción capilar que posee el mortero. Actualmente los especímenes se encuentran en el horno a 50°C, y serán retirados hasta obtener masa seca constante; después, los especímenes se cubrirán con parafina y brea en las caras laterales; se registrarán las masas de los especímenes sellados. Posteriormente se colocarán en un recipiente de fondo plano sobre una esponja o cualquier fibra absorbente de manera que el tirante de agua sea de 3 mm por encima de la superficie de la cara del espécimen expuesta al agua. Los especímenes se pesarán a 1, 5, 10, 15, 30 minutos y 1, 2, 3, 4, 6, 24, 48… horas como indica la norma NMX - C - 504 - ONNCCE - 2015. Esta prueba de termina cuando la masa húmeda es constante, es decir, cuando la diferencia de masas de un día a otro no es mayor al 0.1%. Finalmente se elabora una gráfica (𝑊𝑡−𝑊0/𝐴 vs √𝑡).


CONCLUSIONES

Los resultados de la sustitución de mucílago de nopal por agua en la mezcla arrojaron buenos resultados en las pruebas de durabilidad como resistividad eléctrica y velocidad de pulso ultrasónico a edades tardías; ya que el promedio obtenido de resistividad eléctrica es de 77.6 K-cm cuando la norma NMX - C - 514 - ONNCCE - 2016 dicta que una resistividad de 50 - 100 K-cm es considerada con velocidades de corrosión bajas, por lo tanto el resultado es benéfico. Por otra parte, el promedio obtenido en la prueba de velocidad de pulso ultrasónico fue de 4130.2 ; la norma NMX - C - 275 - ONNCCE - 2004 indica que una velocidad de pulso >2350   se debe a pocos vacíos o agrietamiento bajo o nulo, y basado en los criterios de evaluación de la RED DURAR 1998 una velocidad de propagación >4000    resulta como durable. Existen registros de que la adición de fibra de nopal a morteros base cemento aportan una mayor compacidad a la mezcla, disminuyendo la cantidad de poros de aire, de acuerdo a trabajos previos elaborados en el Laboratorio de Materiales Ing. Luis Silva Ruelas de la Facultad de Ingeniería Civil de la UMSNH, en los cuales se realizaron sustituciones en diferentes porcentajes de fibra de nopal y almidón de maíz. Los datos obtenidos reflejan que la sustitución del mucílago es favorable en cuanto a porosidad y, por ende, durabilidad. Por lo cual, se espera obtener resultados positivos en las pruebas de porosidad total y absorción capilar.  
Toribio González Alejandra, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit

FABRICACIóN DE NUEVOS PRODUCTOS A PARTIR DE RESIDUOS SOLIDOS.


FABRICACIóN DE NUEVOS PRODUCTOS A PARTIR DE RESIDUOS SOLIDOS.

Flores Garduño Mauricio, Tecnológico de Estudios Superiores de Valle de Bravo. Toribio González Alejandra, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los residuos sólidos son todos los desechos (RSU) que proceden de actividades humanas y de animales que son normalmente sólidos, y que se desechan como inútiles o indeseados. Actualmente Tepic, Nayarit desecha 800 toneladas diarias de RSU, de los cuales, 37 % son orgánicos, 18 % papel y cartón; 14% plásticos diversos; 9% desechos sanitarios y 7% otros materiales. Debido a que el tema de RSU  presenta un déficit en educación ambiental   dentro de la región de Tepic Nayarit, se tiene que buscar disminuir en una cantidad estos mismos; así como disponer de una normatividad a fin de evitar los riesgos que causen  a la salud humana y al ambiente. Un punto desfavorable para trabajar, fue que la región es extensa, por lo cual se tuvo que elegir lugares estratégicos, que en este caso fueron la Universidad Autónoma de Nayarit (UAN), misma en la que se llevó a cabo el proyecto, así como la Colonia Indeco, ubicada dentro de la región; por lo cual se estableció un programa piloto en la UAN el cual pretende capacitar al personal administrativo para realizar un reciclaje correcto de los RSU orgánicos  e inorgánicos para hacer uso de estos en la  fabricar nuevos productos.



METODOLOGÍA

Se realizó una capacitación a los administrativos de la UAN la cual tuvo como propósito sensibilizar y concientizar al personal de los problemas ambientales ; así también enseñar la separación correcta de los RSU inorgánicos, principalmente el plástico que  debe ser de acuerdo a su número de clasificación que va desde el 1 hasta el 7.La capacitación es impartida todos los martes y jueves de cada semana con material didáctico. Posteriormente de instruir la separación correcta de RSU el personal nos entregó sus residuos separados correctamente.  Para la elaboración de la Composta se trabajó dentro de la UAN  en colaboración con la población de la colonia Indeco. Principalmente se buscó un área de compostaje la cual se ubicó dentro del laboratorio de RSU, partiendo con la elaboración de tres camas de compostaje, realizando una excavación de 3m de largo x 1m de ancho x 50cm de profundidad y una separación de 80cm entre estas mismas. Posteriormente se adaptaron dichas  camas  utilizando Bambu para   que actuará como protección. Aquí colocamos todos los desechos de origen orgánico, los residuos  se recogían  en  la colonia dos veces por semana, siendo los días martes y viernes respectivamente;  posterior a esto se procedió a vertir la materia dentro de las camas de compostaje  realizando una mezcla con diferentes tipos de sueloPara la elaboración de la Composta se trabajó dentro de la UAN  en colaboración con la población de la colonia Indeco. Principalmente se buscó un área de compostaje la cual se ubicó dentro del laboratorio de RSU, partiendo con la elaboración de tres camas de compostaje, realizando una excavación de 3m de largo x 1m de ancho x 50cm de profundidad y una separación de 80 cm entre estas mismas. Posteriormente se adaptaron dichas camas utilizando Bambu para que actuará como protección. Aquí colocamos todos los desechos de origen orgánico, los residuos  se recogían  en  la colonia dos veces por semana, siendo los días martes y viernes respectivamente;  posterior a esto se procedió a vertir la materia dentro de las camas de compostaje  realizando una mezcla con diferentes tipos de suelo . Por otra parte, para la elaboración de productos se trabajó con el plástico que entrego el personal,  fue  colocado en la trituradora para la obtención de un menor tamaño. Se hizo uso de los inertes y ABEC para fabricar tres block con las siguientes cantidades todos con un volumen de 0.0475 metros cúbicos. Replica 1: 5 kg de arena, 2.5 kg de cemento  y 1.6 L de agua sin ningún tipo de plástico. Replica 2: 3.5 kg de arena ,1.5 kg de cemento, 1.4 L de agua y 0.4 kg de inertes. Replica 3: 3.5 kg de arena ,1.5 kg de cemento, 1.2  L de agua y 1.2 kg de ABEC. Finalmente el HDPE y PET  se introdujo en la inyectora para fabricar una espátula  a base de plástico.


CONCLUSIONES

Todos los productos fabricados se someterán a pruebas para determinar si son factibles  y  analizar que no generen emisiones de gases que puedan dañar al medio ambiente  además que cumplan con los estándares de calidad.
Torreblanca Villavicencio Daniel, Instituto Tecnológico de Tapachula
Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas

ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.


ESTUDIOS TéCNICOS PARA LA IMPLEMENTACIóN DE CONCRETOS DE ALTAS PRESTACIONES.

Espinosa Zamora Diego Alfredo, Universidad de Colima. Ibarra Ovando Luis Abraham, Instituto Tecnológico de Tapachula. Torreblanca Villavicencio Daniel, Instituto Tecnológico de Tapachula. Asesor: Dr. Francisco Alberto Alonso Farrera, Universidad Autónoma de Chiapas



PLANTEAMIENTO DEL PROBLEMA

El desarrollo sustentable de estos tiempos modernos impone un cambio drástico en la visión y las estrategias para lograr una infraestructura con responsabilidad social, consciente de los impactos ambientales que genera y cuyos objetivos se centren en mejorar la calidad de vida cumpliendo con los estándares ambientales de orden internacional. Diversas investigaciones se han suscitado con el afán de conseguir una optimización del que hasta el día de hoy sigue siendo el material de construcción con mayor presencia mundialmente: el concreto; las alternativas más comunes son el uso de agregados reciclados y el uso de cenizas producto de residuos agroindustriales, sin embargo, es preciso mencionar que este tipo de adiciones requiere una caracterización previa a fin de conocer las propiedades que poseen acorde a la región de donde se obtienen. Los estudios técnicos que se han estado elaborando intentan dar solución a las patologías del concreto que ya han sido identificadas, así como implementar las tecnologías que permiten una mejora en las propiedades mecánicas de los concretos. Dichas tecnologías son denominadas altas prestaciones, de las cuales destacan mayores resistencias tanto a compresión como a flexión, durabilidad, eficiencia energética, uso racional del agua y finalmente, eficiencia de recursos.



METODOLOGÍA

Siguiendo una metodología experimental, se elaboraron diseños de mezcla para concretos a partir de las dosificaciones que mencionan los sacos de cemento para distintas resistencias, esto como alternativa a los métodos ACI ya que no se contaba con el tiempo suficiente para caracterizar los agregados. Posterior a los diseños se procedió a la obtención de todos los materiales, para lo cual se hizo uso de máquinas trituradoras de PET y unicel, mallas de distintas aberturas para cribar la ceniza y los agregados (gruesos y finos). Estos se resguardan de la humedad. Para concretos con adiciones, el orden de colocación de los materiales dentro de la revolvedora se ve afectado por las características de los componentes, por ejemplo: en concretos ligeros, donde se sustituye el volumen de grava por polvo o perlita de unicel, este residuo tenderá a salirse de la revolvedora por los giros y se vuelve necesario emplear un orden distinto al habitual. Las proporciones empleadas de cada tipo de residuo fueron las siguientes: Para tiras y escamas de PET, se usaron 2gr por cada kg de cemento. Para ceniza de bagazo de caña, se reemplaza el 5% y el 15% en peso del cemento (para morteros y concretos, respectivamente). Para perlita de unicel, se sustituye la totalidad del volumen de agregado grueso. Los especímenes elaborados fueron cilíndricos y prismáticos, esto conforme a la norma NMX-C-160-ONNCCE-2004 y en base a esto se designaron los volúmenes de mezcla necesarios por cada tipo. Se consideró en cada ocasión un desperdicio por procesos de elaboración. Las pruebas se realizaron con base en las normas NMX-C-083-ONNCCE-2002, para la prueba de compresión del concreto, y NMX-C-191-ONNCCE-2004, para el ensaye a flexión en vigas de concreto. Para la elaboración de los blocks de mortero también se siguió una metodología experimental, la cual se basa en proporciones obtenidas por la práctica y la experiencia. Se emplearon dos moldes diferentes, uno que funciona bajo compresión y otro rústico. En cuanto a la elaboración de placas, esta se diseñó como parte de un sistema modular de muros. El molde para estas fue de unas dimensiones de 1 m x 1 m, con un espesor de 1 pulgada; se le coloca una malla que debe ir tensada previo al colado de la placa. Para probarlas, se hace una prueba de carga y descarga, llevada a cabo de manera experimental, donde se le aplica pesos de cierta magnitud y luego retirándolos, esto mientras un micrómetro nos indica las deformaciones presentes al momento de colocar las cargas para luego llevarla hasta el punto de falla.


CONCLUSIONES

Los resultados obtenidos no fueron satisfactorios pues identificamos ciertos errores que nos impidieron llegar a las cifras esperadas, tales como un diseño poco fortuito para las mezclas, humedad de los agregados y el tiempo disponible.  Los blocks no lograron su acometido, pues no rebasaron los 30 kg/cm2 y esto se debe a la cohesividad de la mezcla, así como al curado de los blocks. Los concretos ligeros obtuvieron una resistencia a la compresión que va del 12% al 20% de lo esperado. Los concretos con ceniza obtuvieron una resistencia a la compresión que va del 37% al 62% de lo esperado. Los concretos con tiras de PET obtuvieron una resistencia a la compresión que va del 58% al 80% de lo esperado. Los concretos convencionales obtuvieron una resistencia a la compresión que va del 65% al 73% de lo esperado, haciendo más notorias las deficiencias en el diseño, pues ni siquiera en la mezcla de control se logró llegar. Para la cuestión de las vigas, es satisfactorio mencionar que las tiras de PET cumplieron su función y retardaron la fisuración, consiguiendo mayor resistencia a la flexión. Se obtuvo un valor mayor al 20% de la resistencia a la compresión lograda en concreto convencional (145.52 kg/cm2). Las vigas con perlita de unicel lograron entre 11 y 17 kg/cm2, apenas posicionándose cerca del 10% de la resistencia a la compresión del concreto convencional. El sistema modular de muros si es muy efectivo, ya que son excelentes aislantes térmicos y debido a su peso reducido, son muy fáciles de transportar y colocar en el sitio de construcción; en conclusión, es una alternativa atractiva para viviendas de bajo costo para zonas marginadas.
Torres Baltazar Abdiel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez

INTERCONEXIóN DE PANELES FOTOVOLTAICOS A RED COMERCIAL


INTERCONEXIóN DE PANELES FOTOVOLTAICOS A RED COMERCIAL

Rodríguez Chávez Manuel Alejandro, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Torres Baltazar Abdiel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Ing. Oscar Fernando Muñoz Gumeta, CANACINTRA Tuxtla Gutiérrez



PLANTEAMIENTO DEL PROBLEMA

Las tecnologías de energía renovable tales como fotovoltaica, turbinas eólicas han llegado a ser populares y comercialmente disponibles. Sin embargo estas nuevas tecnologías son menos competitivos que la energía eléctrica industrial de gran potencia. Este resumen se trata de una interconexión de un sistema fotovoltaico que me tocó trabajar como estudiante de verano científico, esto es para poder realizar una investigación de cómo son interconectados los paneles a la red de CFE la cual cuentan con un medidor bidireccional conectado a la red eléctrica la cual las tensiones eléctricas de CA son de mayor magnitud dependiendo las cantidades de cadenas o arreglos de los paneles que están conectados.



METODOLOGÍA

Comenzando con los recursos naturales para la captación de la energía para ser procesada, las interconexiones de los módulos SFV seguidos por los controladores de carga principal para que luego sea regulado en un inversor de CA para que al final sea utilizado para las cargas deseadas.   En esta investigación la clasificación de este sistema fotovoltaico es de inversores por cadena, la cual es un arreglo de los paneles interconectados en serie-paralelo, la cual cuenta también con un sistema de protección contra sobre-corriente, y en este caso la salida de potencia es menor a los 10kwh como máximo por la norma CFE G0100-04 Interconexión a la Red Eléctrica de Baja Tensión de Sistemas Fotovoltaicos con Capacidad hasta 30kW.  En una conexión bifásico la cual las corrientes de los SFV de cada inversor en CD y el manejo de estas potencias son altas pero son de menor riesgo. Hay muchas condiciones que afectan el funcionamiento del SFVI; la sombras, es el problema más eficaz en la generación de la energía fotovoltaica ya que impide el paso de los fotones; la latitud, debe tomarse en cuenta este factor ya que se debe determinar la inclinación del panel la cual se debe inclinar en un Angulo correspondiente a la latitud del sitio de instalación; la temperatura, esto provoca una disminución de tensión eléctrica la cual afecta a la generación de este sistema. Otro aspecto importante es el puesto a tierra; es decir, tener conectado esté SFV a tierra o algún cuerpo conductor que extiende a la conexión a tierra para tener la mayor seguridad contra el riesgo de aterrizaje contra el cuerpo humano.  


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las interconexiones de un sistema fotovoltaico la cual nos pusimos en práctica con todo lo mencionado en la metodología del SFVI, la cual también se puso en cuenta que para realizar algún tipo de obra de un SFVI hay que tener puesto herramientas de seguridad en el sitio de instalación, y también tener todo listo para hacer el trabajo finalizado  como son los herramientas y material requeridos para la instalación todo, esto hay tener a mano para poder hacer de una obra o proyecto a su máximo para poder ponerlo en marcha. Con respecto a la capacidad instalada, aplica para la interconexión a la red eléctrica de baja tensión para el SFV ya que cuenta con un máximo de hasta 30kw ya sea en viviendas, comerciales o escuelas. Como conocimiento de SFVI hay que tener en cuenta la interpretación de los planos o dibujos y planos eléctricos para realizar las instalaciones, para que podamos iniciar con un proyecto u obra. Para la capacidad del tablero de carga hay que tener en cuenta la verificación del centro de carga en donde se realizará la interconexión la cual si tiene la capacidad de recibir la potencia de salida del inversor al instalar el SFV, esto es para tener en cuenta la protección contra sobrecorreinte del tablero o centro de carga, ya que en este caso hay que revisar el interruptor termomagnético que protege a los conductores que alimentan al tablero tiene la capacidad de recibir la corriente de salida máxima del inversor. En este caso los conectores para las salidas de los conductores para el centro de carga fueron ponchados con cuidado en la cual al momento de hacer el ponchado se pueda zafar el pin del conductor.
Torres Beltran Juan Jonas, Universidad Politécnica de Sinaloa
Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa

MODIFICACIóN DE DRONES FPV


MODIFICACIóN DE DRONES FPV

Torres Beltran Juan Jonas, Universidad Politécnica de Sinaloa. Asesor: M.C. Alberth Josue Sapiens Perez, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el uso de drones se vuelve algo muy común, puesto que debido a las mejoras que se les han implementado a lo largo de los años, pueden realizar diferentes funciones dependiendo del enfoque que se le quiera dar a este. En este proyecto se tiene a disposición un dron, el cual se verá en la tarea de ser modificado para adaptarlo con un enfoque diferente, y esto es, poder ver lo que la cámara de él dron pueda ver.  ¿Cuál es la necesidad de modificar un dron que ya tiene una cámara? El dron a disposición cuenta con una cámara, sin embargo esta cámara puede realizar solo la tarea de grabar,  y el contenido es directamente guardado en la memoria interna del dron. Por lo que se le adaptara una cámara completamente diferente, la cual además de poder grabar y guardar en su memoria, también será capaz de transmitir una captura continua hacia un dispositivo móvil. De esta manera el manipulador del dron será capaz de controlar de una perspectiva mejorada la movilidad de este; además de que al hacer esta modificación, el dron será capaz entonces de poder movilizarse a través de espacios más cerrados o complicados para una persona, sin la necesidad de que el manipulador esté presente en el mismo sitio que este. Además debido a que tanto la cámara a adaptar al dron, y el dron mismo necesitan batería, se buscara una manera eficiente de hacer funcionar ambos elementos de manera correcta.



METODOLOGÍA

Se llevara a cabo diferentes tareas para hacer esta adaptación al dron. Empezando por realizar un diseño en un software, en este caso SOLIDWORKS, basándonos en medidas obtenidas de un proceso de medición de las dimensiones del dron.  Basándonos en que, por las características físicas de la cámara, esta deberá ser reubicada de posición, colocándola entonces en la parte superior de él dron de manera centrada. Después de realizar dicho diseño se llevara a cabo la elaboración de esta mediante una máquina de impresión 3D.  Una vez que se tenga la pieza impresa, se le adaptara al dron mediante uso de herramienta correcta para evitar dañar el cuerpo del dron y su funcionalidad. Una vez la cámara fue instalada, se necesitara de un dispositivo móvil que tenga las capacidades adecuadas para conseguir que mediante un módulo receptor de señales, las cuales provendrán de la cámara, se pueda visualizar en tiempo real lo que la cámara esté capturando en ese momento. Una vez conseguido esto, se adaptara el dispositivo móvil ya enlazado con la nueva cámara del dron, a unos lentes de realidad virtual, de esta manera se podrá manipular el dron de una manera más eficiente. Por último se realizara la compra de dos baterías que sean aptas para la alimentación de voltaje y por lo tanto hacer más eficiente la duración o el consumo de energía de los elementos (cámara y dron).


CONCLUSIONES

Mediante el proceso de modificación se obtuvo conocimiento de distintos factores como el alcance de la cámara y el consumo de energía de está misma, así como también del dron. Además de una útil aplicación de la ingeniería asistida por computadora como lo fue en este caso el diseño mecánico; Además de aprender que característica de los dispositivos móviles es requerida, en este caso, para la recepción de la señal de la cámara.
Torres Caudillo Fernanda Michelle, Universidad de Guadalajara
Asesor: Dr. Virginia Francisca Marañón Ruiz, Universidad de Guadalajara

APLICACIÓN BIOTECNOLÓGICA DE SUERO DE LECHE EN LA CONVERSIÓN DE QUITINA


APLICACIÓN BIOTECNOLÓGICA DE SUERO DE LECHE EN LA CONVERSIÓN DE QUITINA

Torres Caudillo Fernanda Michelle, Universidad de Guadalajara. Asesor: Dr. Virginia Francisca Marañón Ruiz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

En la región de los Altos Norte de Jalisco la producción de leche y sus derivados es una de las principales actividades económicas y culturales, como parte de la elaboración de estos productos, uno de los desechos más grandes es el lactosuero, con un nivel de acidez y pH que llega a ser perjudicial para el ambiente. En los últimos años, ha surgido la inquietud de los investigadores del Centro Universitario de Los Lagos, se han dedicado a encontrarle una utilidad al lactosuero, como recurso de reuso de una materia prima altamente contaminante para el rio Lagos, aprovechando la actividad metabolica de los lactobacilos para la producción de ácido láctico en el proceso de fermentación, ya que este tipo de bacterias son capaces de metabolizar el azúcar a ácido lactico. Una de las reacciones que puede aprovechar estas condiciones es la conversión de quitina a quitosano. La quitina es el segundo polímero renovable más abundante en la naturaleza, seguido solo por la celulosa, lo que hace que sea de interés, se encuentra en los exoesqueletos de artrópodos, hongos, insectos y en algunas algas, cumpliendo con la función de ser un polímero estructural que les confieren dureza y firmeza a los caparazones. Por su estructura química, este polímero es insoluble en agua y poco reactivo, por lo que es difícil trabajar con él, sin embargo, la desacetilación de la quitina crea una nueva unidad de glucosamina, N-acetil-D-glucosamina, que, a su vez, tiene propiedades físicas, químicas y biológicas mejores que la quitina por la presencia de una amina primaria. Por su reactividad con diferentes moléculas biológicas y químicas, este polímero se ha convertido en método de estudio para lograr una mayor desacetilación de la quitina, y por lo tanto un quitosano más puro en el mercado. En las diferentes metodologías empleadas se ha propuesto utilizar el lactosuero para la conversión de quitina con un grado de desacetilación que se acerque a 100%, por lo que el propósito de esta investigación es optimizar una metodología para lograr un quitosano más puro y limpio con la fermentación a cargo de los lactobacilos. 



METODOLOGÍA

Para el desarrollo del proyecto se efectuó la siguiente metodología que se describe a continuación, se lavó el caparazón de camarón para eliminar cualquier residuo y limpiarlo, posteriormente se secó a 30°C. Para eliminar el colorante, astaxhantina, responsable del color naranja del camarón, se utilizó etanol-agua al 85% en relación 1:10 (1g de caparazón y 10 de mazcla) en agitación orbital por 12 horas. Se filtró y se lavó con agua destilada, luego se mantuvo en la estufa por 20 horas a 65°C hasta que el caparazón quedara completamente seco para iniciar la fermentación con lactosuero enriquecido al 5%, 10% y 15% de sacarosa por 15, 20, 25 y 30 días en agitación orbital. Durante la fermentación se tomó una alícuota para monitorear pH, acidez y temperatura todos los días y a la misma hora, y así confirmar la presencia de ácido láctico. Despues de que pasaran los días correspondientes de fermentación, el producto se centrifugó y lavó hasta pH neutro, para poder realizar la reacción química. El precipitado se agitó constante por 3 horas a 95°C con NaOH a 1.3 N. Se desmineralizó con HCl 1.3 N durante 1 hora. Se blanqueó con NaOCl al 0.38% por 1 hora. Por último, el sólido se centrifugó y se enjuagó con agua destilada a pH neutro, Se seca a 80°C por 30 minutos. Las pruebas se realizarón por triplicado.


CONCLUSIONES

Hasta el momento, la fermentación láctica se ha modificado con el paso de los días, cambiando de pH, acidez y temperatura dependiendo de qué fase del ciclo celular se encuentren las bacterias y de la concentración del sustrato, con la toma de lecturas durante la fermentación se ha estado modificando el porcentaje de azúcar con respecto a la inicial, siguiendo las variables principales. Con esta modificación, se han visto resultados considerables de aumento de acidez, temperatura, y a su vez, baja de pH, lo que es favorecedor para la conversión de quitina. El primer lote de 15 días, ya fue retirado de la fermentación láctica y se pesó la cantidad de caparazón de camarón que se recuperó, y fue más del 78% en relación a la materia inicial.  Con respecto a la acidez se obtuvo un promedio de 5.85 ml de NaOH para la concentración de 5%, 4.65 ml de NaOH para la concentración de 10% y 3.75 ml de NaOH para la concentración de 15%, por lo que en cuestión de acidez, hubo mayor resultado en la concentración de 5% en 15 días. En resultados de pH, se obtuvo un promedio de 3.63 para concentración de 5%, para concentración de 10% el promedio fue 3.61 y para concentración de 15% el promedio fue 3.59, así pues, el pH baja más con una concentración del 15% durante 15 días.Hasta el día de hoy, ese lote entro al proceso de reacción química para la purificación y separación de quitosano del caparazón de quitina. Durante el proceso de fermentación de lactosuero, se han estado diferenciando a través de las lecturas de pH y acidez cual puede ser el porcentaje de concentración de azúcar y cada cuanto tiempo se tiene que volver a suministrar para la producción de ácido láctico. Los resultados obtenidos al final de la estancia serán expuestos en el congreso, dichos resultados nos van a arrojar los datos necesarios para optimizar la obtención de quitosano con un procedimiento biotecnológico, a la vez, corroborar antecedentes y compararlos con la caracterización con FT-IR-ATR.
Torres Giner Pedro Luis, Universidad Autónoma de Ciudad Juárez
Asesor: Dr. Jose Guadalupe Miranda Hernanez, Universidad Autónoma del Estado de México

SÍNTESIS Y PROPIEDADES MECÁNICAS DE COMPUESTOS CERÁMICOS A PARTIR DE CONCHA DE CARACOL REFORZADO CON PARTÍCULAS DE COBRE


SÍNTESIS Y PROPIEDADES MECÁNICAS DE COMPUESTOS CERÁMICOS A PARTIR DE CONCHA DE CARACOL REFORZADO CON PARTÍCULAS DE COBRE

Torres Giner Pedro Luis, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Jose Guadalupe Miranda Hernanez, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Uno de los cerámicos refractarios de mayor importancia es el Aluminato de Calcio (CaO∙ Al2O3), esto se debe a sus diversas aplicaciones, tales como procesos de metalurgia, concretos a base de aluminato de calcio y materiales refractarios. El aluminato de calcio es sinterizado principalmente a partir de CaO y Al2O3, aunque en algunos casos, el CaO y Al2O3 se puede obtener a través del efecto térmico de carbonato de calcio (CaCO3). En la naturaleza existen fuentes abundantes de este compuesto como lo son en las conchas de caracol, almejas y cascaras de huevo.



METODOLOGÍA

Compuestos cerámicos-metal (CaO∙Al2O3-Cu) fueron preparados mediante molienda mecánica y consolidados a través de un proceso de sinterización in situ. Siendo el objetivo de este trabajo estudiar el efecto de partículas Cu incorporadas en la base cerámica del material, principalmente en la microestructura y propiedades mecánicas. Sistemas químicos con una relación 1:1 M entre polvos de CaCO3 y Al2O3 fueron formados con una adición de Cu del 0.5,1.0,1.5,3.0 % del peso, respectivamente. El polvo mezclado fue compactado en muestras cilíndricas y sinterizadas a 1500° C. Se calculó la densidad utilizando el principio de Arquímedes, así como caracterizaron microestructural a través de microscopia óptica. Además, se evaluó la tenacidad a la fractura, dureza y el módulo elástico de los materiales.


CONCLUSIONES

Los resultados de la caracterización identifican las partículas de cobre en la base cerámica, de igual forma se observan distintas fases del aluminato de calcio. Así mismo, las propiedades mecánicas muestran cambios en comparación al material de referencia que fue sinterizado bajo las mismas condiciones, pero sin adición de partículas de cobre.
Torres Gonzalez Diego, Universidad de Guadalajara
Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara

CINETICA DE REDUCCION CON NANOPARTICULAS DE ORO


CINETICA DE REDUCCION CON NANOPARTICULAS DE ORO

Cortes Orozco Héctor Alejandro, Universidad de Guadalajara. Torres Gonzalez Diego, Universidad de Guadalajara. Asesor: Dr. Jacobo Aguilar Martínez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las nanopartículas han demostrado ser multifuncionales debido a que pueden usarse a dar imagen y terapéuticas. Se ha prestado mucha atención al control de la forma y el tamaño de las nanoestructuras metálicas ya que las propiedades magnéticas, catalíticas, eléctricas y ópticas son influenciadas por ellas. Se han desarrollado métodos para explicar la cineteca de oxido reducción de la N-isopropilacrilamida y acrilamida elaborando una síntesis con nanopartículas de oro. Obteniendo varias replicas de hidrogeles que son estructuras macromoleculares tridimensionales, de características hidrofílicas obtenidas a partir de polímeros sintéticos o naturales. Los hidrogeles absorben grandes cantidades de agua debido a los grupos polares que contienen en su estructura que permitan utilizarse con las nanopartículas de oro en diferentes equipos como Raman y Uv-Visible, el cual es demostrar al tiempo de oxido reducción de los compuestos anteriormente mencionados, y buscar una aplicación como biomateriales.



METODOLOGÍA

Para poder explicar la cineteca de oxido reducción de la N-isopropilacrilamida y acrilamida se elaboraron reacciones de ellas con nanopartículas de oro. Agregando el monómero (N-isopropilacrilamida o acrilamida) con agua bidestilada, utilizando parámetros de variación de temperaturas, variación de tiempo, agitación, etc. en baño maría, así como se añadió iniciador (KPS), N2 para generar una atmosfera inerte y acelerador (Tetrametiletilendiamina), utilizando la sonicación para permitir generar la reacción de oxido reducción, a una misma temperatura y tiempo. Se caracterizaron con el programa de Raman para obtener la información y estructura de los compuestos, obteniendo la longitud de onda de cada una de las aminas secundarias. Al igual que UV-Visible para obtener datos sobre los tamaños de nanoparticulas


CONCLUSIONES

Usando las reacciones de cada uno de los compuestos se logro poder explicar la cinética de oxido reducción, la longitud de onda respecto a la absorbancia obtenida de cada uno de ellos registrando longitudes en el UV-visible entre 500 a 630 nm con una tonalidad de longitud de onda naranja.. Además de aprender muchas cosas nuevas que permiten reforzar lo aprendido como diferentes técnicas de preparación de las soluciones, utilización de distintos equipos, y entender el diseño de las reacciones con las nanopartículas de oro al obtener estos resultados.  
Torres López Manuel, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas

EMPRESA VERTIV "BALANCEO CFM PROCESO PINTURA EN POLVO (ELECTROSTáTICA)"


EMPRESA VERTIV "BALANCEO CFM PROCESO PINTURA EN POLVO (ELECTROSTáTICA)"

Torres López Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

La empresa VERTIV de R.L de C.V  se encuentra ubicada en el municipio de Reynosa Tamaulipas, es una empresa líder mundial en el diseño y el mantenimiento de tecnologías de infraestructura de misión crítica para la aplicación vital en centros de datos, redes de comunicación y espacios comerciales y entornos industriales, es decir que elaboran gabinetes, componentes de telecomunicación. Mi proyecto lo estoy llevando a cabo  en el área de pintura en polvo (electrostática) de ingeniería manufactura, que se desperdician mucho el polvo de pintura por la falta del balanceo de flujo de aire (CFM¨s), por el cual se llevara una mejora para tener un control y un balance de temperatura de horno y lavadora y flujo de aire en el proceso pintura en polvo. Anteriormente la configuración de inyectores y extractores se encontró con; Inyectores 1, 2, 4 y 5 encendidos, Extractores  2 y 3 encendidos.



METODOLOGÍA

El objetivo de mi proyecto es balancear el volumen de aire en proceso de pintura (CFM´s), para tener un buen ambiente y un control de temperatura y la presión de aire tanto positivo como negativo. Con la ayuda de la herramienta anemómetro que me permite conocer la medición del flujo de aire en diferentes áreas de proceso en polvo, con la importancia de ayudar para tener un buen balanceo y  no se forme una corriente inestable, disminuir el arrastre de polvo en el horno, disminuir contaminación, la mala calidad del producto,  y el sobre consumo de pintura. También hice configuraciones de inyectores y extractores de aire para tener un buen balanceo de temperatura, las cuales monitoríe en 3 ajustes, como son; 1er ajuste, se apaga el extractor # 3, se monitorea durante 10 min los CFM’s de la sección C. 2do ajuste, se enciende el inyector # 6, se monitorea durante 10 min. 3er ajuste, se apaga el extractor # 2 y se enciende el extractor # 4, monitoreo durante 10 min.


CONCLUSIONES

Como conclusión en mi proyecto aplicado en la empresa VERTIV en ingeniería manufactura en el área de pintura en polvo, logre balancear el flujo de aire y la temperatura con la ayuda del anemómetro. Los resultados obtenidos fueron Eliminación de arrastre de polvo en el horno de curado y enfriamiento Menos sobre consumo de pintura Menos contaminación Mayor calidad al producto Mayor productividad Configuración que presenta mejores resultados en lecturas de CFM’s en la sección C. Inyectores 1, 2, 4, 5 y 6 encendidos, extractor # 5 encendido. Temperatura ambiental del área de lavadoras Anterior 96°F   ---- Actual  106°F Ajustes realizados con la cortina de acceso a lavadoras cerrada.  
Torres Martínez Vilmer Yerid, Universidad de la Guajira (Colombia)
Asesor: Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos

TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE PROCESOS DE OXIDACIóN AVANZADA


TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE PROCESOS DE OXIDACIóN AVANZADA

Torres Martínez Vilmer Yerid, Universidad de la Guajira (Colombia). Tous Romero Marysabel, Universidad de la Guajira (Colombia). Asesor: Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos



PLANTEAMIENTO DEL PROBLEMA

En el proceso de teñido en la industria textil se producen grandes cantidades de agua con colorantes, esta al ser desechada representa un grave problema ambiental. El uso de Procesos Avanzados de Oxidación (PAO´s) en el tratamiento de agua con colorante es fundamental para evitar su afectación en los ecosistemas, como la reducción de la luz solar necesaria para los procesos de fotosíntesis y la caída de los niveles de oxígeno disuelto. El tratamiento mediante procesos de oxidación avanzada, recientemente ha atraído la atención para la aplicación de tratamiento de aguas residuales debido a su desempeño en la degradación de los contaminantes orgánicos y la ausencia de contaminación secundaria, este tipo de procesos forma parte de los denominados PAO´s, los cuales combinan diferentes efectos físicos y químicos, tales como la pirólisis, la fotólisis UV, así como la formación de especies oxidantes por ejemplo radicales (H, O, •OH) y moléculas (H2O2, entre otras). En este trabajo se utilizó un proceso fenton para el tratamiento de agua con colorante NA52 (tipo Azo), el cual es usado en la industria textil.



METODOLOGÍA

Para este proceso se realizo una curva de calibración del colorante NA52 a una concentración 1.0mM, aforado a 250 mL; posteriormente se midieron en el espectrofotómetro las absorbancias para obtener la ecuación que relaciona la absorbancia (y) con la concentración (x). El sistema experimental se utiliza para la degradación del contaminante orgánico, Con el propósito de identificar que la presencia del sulfato ferroso (FeSO4) aumenta la eficiencia en el proceso de degradación por fenton, se realizaron diferentes mezclas con agua destilada y colorante NA52 a 1.0 mM, variando la concentración del FeSO4. La solución inicial para este caso debe ser de 250 mL con un pH óptimo de 3.0. Para el seguimiento de la descomposición del colorante a diferentes tiempos, se utilizó un espectrofotómetro DR/6000, potenciómetro HACH HQ40d, adicionalmente se mide parámetros fisicoquímicos como temperatura y conductividad eléctrica. 


CONCLUSIONES

Se uso el proceso fenton para degradar el colorante textil negro acido 52 (Na52), añadiendo como catalizador sulfato ferroso (FeSO4), esto con el propósito de acelerar el proceso de transformación del colorante en estructuras más sencillas, los resultados indican una remoción del 88% en una hora. Las condiciones optimas para degradar el colorante a 1.0 mM mediante el proceso fenton fueron de un pH optimo de 3 añadiendo 0.5 mL de peróxido de hidrogeno (H2O2) y 5 mL de sulfato ferroso (FeSO4) en una hora de tratamiento.  
Torres Pérez Alejandra Jocelyne, Universidad de Guadalajara
Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes

PALEOCAUCES Y SUBSIDENCIA COMO AFECTACIONES A URBANIZACIÓN FUTURA


PALEOCAUCES Y SUBSIDENCIA COMO AFECTACIONES A URBANIZACIÓN FUTURA

Torres Pérez Alejandra Jocelyne, Universidad de Guadalajara. Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

En México se tienen identificadas varias regiones que presentan paleocauces y subsidencia relacionada con la sobreexplotación de acuíferos que produce daños a la infraestructura por lo tanto se tiene la necesidad de conocer los detalles de estos fenómenos por las implicaciones sociales que representa cuanto a detección de riesgos actuales y futuros. Actualmente el estado de Aguascalientes ha experimentado cambios en reactivación, formación de fallas y grietas de manera gradual y continua; causadas por la extracción de agua del Acuífero del Valle de Aguascalientes para abastecer de esta fuente el aprovechamiento agrícola, industrial, pecuario y urbano, esta genera asentamientos no uniformes en la superficie, las cuales afectan a la infraestructura y construcciones que se encuentran en su traza. Las cuales han causado gran preocupación a todos los habitantes. En el caso de los paleocauces, es un tramo de cauce fluvial antiguo que ha sido abandonado por el cambio de curso en un río, por lo tanto, el hombre tiende a ocupar terrenos de muy alto riesgo con elementos vulnerables sin tener conciencia del peligro existente. La consecuencia de los daños causados por el hundimiento del suelo y fallas del terreno incluye la reducción de los valores económicos de las tierras cuando se producen fallas o fracturas del terreno en las zonas no urbanizadas o en áreas agrícolas. El objetivo principal de esta problemática nos lleva a resolver las siguientes dudas:   ¿Cómo saber si la grieta o fractura que se encuentra en el terreno es por causa de subsidencia o paleocauce?   Al tener la presencia de un paleocauce o subsidencia, ¿Cuál es el riesgo que tendría las posibles edificaciones?



METODOLOGÍA

Esta investigación se enfocó en definir si nuestra fractura o grieta presente es resultado de una subsidencia o paleocauce, deben cumplir ciertas características; por lo tanto, se realizó lo siguiente: Mediante observaciones de campo en fallas y grietas existentes o nuevas para determinar condiciones características físicas (morfología, ubicación, evolución). Reconocimiento del terreno para dimensionar la problemática. Planeación del trabajo de campo y elaboración de posibles hipótesis. Se realizó la visita de campo a un Paleocauce…   Ubicación: Carretera en Valladolid, municipio de Jesús María, Ags; para reconocimiento de condiciones características físicas.  Para la obtención de esto se requirió descender a la profundidad del paleocauce mediante cuerdas, la herramienta que se necesito fue un flexómetro, estadal, agua, cuaderno de notas. Como resultado del perfil estratigráfico y materiales que conforman a este paleocauce, se obtuvo lo siguiente (Tomando en cuenta que el punto 0 se denomina la profundidad del paleocauce): Estrato 1: 0m a 1.0m: Arena- Finos; Color: Naranja-Blanco-Gris. Estrato 2: 1.0m a 1.3m: Asentamiento Grava Fina (aprox. 3/4) con Arcilla-Limos (50%). Estrato 3: 1.30m a 3.30m: Fragmentos de roca redondeada, empacadas de Arcilla-Arena (60%). Estrato 4: 3.30m a 4.20m: Arcilla color gris (30%) y Arena (70%). Estrato 5: 4.20m a 6.0m: Arcilla color gris (60%) y Arena (40%). Estrato 6: 6.0m a 7.90m: Arcilla color gris (90%) y Arena (10%). Estrato 7: 7.90m a 8:20m: Capa Vegetal. En las capas 4,5 y 6 se necesito la presencia del agua en los materiales presentes en la capa y realizando pruebas tipo índice en campo (olor, color, textura y apariencia). Como consecuencia de esta práctica podemos observar que estamos hablando de materiales transportados y depositados por el agua, su tamaño varía desde las arcillas, gravas gruesas y cantos rodados. Cabe mencionar que la primera inspección que se realizó fue el día 17 de Junio del 2019, semanas después (día 25 de Julio del 2019) se regresó al sitio para seguir con su monitoreo, en ese lapso de tiempo se dieron precipitaciones frecuentemente en este sitio, como resultado observamos principalmente que hubo un arrastre de materiales ocasionando la sedimentación de estos y logrando una mayor profundidad en el paleocauce (aprox. 1 m.) Se realizo también visita a zonas de fallas y fracturas asociadas a subsidencia… Ubicación: Puertecito de la Virgen, municipio San Francisco de los Romos, Ags. Mediante la observación de las fallas causadas por la subsidencia encontramos que a diferencia de los paleocauces su estratigrafía es más definida por sedimentaciones rocosas, caliche, rocas calizas y conglomerados basálticos. Estas están definidas por fallas geológicas tipo normales, lo que implica que entre bloque y bloque se tiene un escarpe visible de gran diferencia, así como fallas secundarias. Con ayuda del estadal se midió la altura del escarpe entre bloque y bloque, así como la profundidad de la subsidencia, aunque en todo el trazo de la subsidencia hay cambios de profundidades graduales.


CONCLUSIONES

Con la finalización de mi estancia de verano, se adquirió información teórica sobre las fallas y grietas en el estado de Aguascalientes, asi como poner en práctica técnicas de suelos para analizar y diferenciar entre paleocauces y subsidencias, para darle el mejor uso a este tipo de problemáticas. Los objetivos a largo plazo de estos estudios son: Seguir con en monitoreo en las zonas identificadas con riesgo de generar agrietamientos y fracturas con la finalidad de verificar los resultados a mediano y largo plazo. Y extender este tipo de estudios a las zonas propensas a desarrollar para definir el tipo de estudio particular para cada zona. Con esta investigación se espera el poder ayudar a los pobladores de Aguascalientes a conocer más sobre este tema al adquirir ciertos terrenos o casas, o el saber qué hacer si encuentra anomalías en ellas.
Torres Pesce Daniela, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)

DESARROLLO DE PELíCULAS DELGADAS CON ACTIVIDAD FOTOCATALíTICA PARA APLICACIONES EN REMEDIACIóN AMBIENTAL


DESARROLLO DE PELíCULAS DELGADAS CON ACTIVIDAD FOTOCATALíTICA PARA APLICACIONES EN REMEDIACIóN AMBIENTAL

Torres Pesce Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Zeuz Montiel Gonzalez, Centro de Investigación en Materiales Avanzados (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Se estima que hay una producción de 7x105 toneladas de colorantes anualmente. Sólo se aprovecha el 80% del colorante en el proceso de teñido y el 20% restante se convierte en aguas residuales. Este residuo hace que cambien las propiedades del agua, por ejemplo, reduce la transparencia en los ríos y lagos, disminuye el oxígeno disuelto, etc. y, por consecuencia, hay una baja en la actividad fotosintética de las plantas en esos ecosistemas. Debido a que la mayoría de los colorantes son compuestos orgánicos de cadena estable, se han buscado métodos efectivos para su degradación. Este proyecto se centra en el proceso de fotocatálisis heterogénea, el cual consiste en convertir la energía solar a energía química en la superficie de un fotocatalizador, comúnmente un material semiconductor, que reacciona con el medio creando radicales  ×OH y O2-; estas especies son altamente oxidantes y son capaces de degradar compuestos orgánicos. Los fotocatalizadores desarrollados en este trabajo son en películas delgadas de óxido de hierro sobre un sustrato fijo de ZnO/vidrio, esto permite que el material activo se encuentre soportado en el sustrato y así se eviten pérdidas del mismo durante el proceso de degradación.



METODOLOGÍA

Los sustratos empleados en el proyecto fueron películas de ZnO sobre vidrio (previamente lavado) preparados por ALD (depósito por capa atómica) con diferentes espesores (variando el número de ciclos ALD). Para este procedimiento se utilizaron parámetros de depósito previamente establecidos por el grupo de trabajo. Para efectuar el depósito por baño químico empleando los sustratos previamente descritos, se partió de la solución de reacción formada por: Trietanolamina (TEA), Fe(NO3)3 (Nitrato de Hierro), Na2S2O3 (Tiosulfato de sodio), HCl (Ácido Clorhídrico) y Agua desionizada, bajo condiciones establecidas para la formación del Fe2O3. En total se realizaron 10 depósitos de 5 muestras cada uno, para obtener la cantidad suficiente para colocar en el reactor de degradación. Posterior al baño químico se realizó tratamiento térmico convencional para promover la fase cristalina del Fe2O3. Teniendo las muestras preparadas, se procedió a realizar el experimento de degradación con el reactor fotocatalítico, cubriendo la parte interna del reactor con 8 sistemas multicapa y colocando una lámpara. Se preparó el colorante Rodamina B como sustancia contaminante y posteriormente se añade al reactor. Se obtuvieron muestras durante diferentes intervalos de tiempo para poder observar la degradación del colorante, tomando una muestra como blanco y otra con TEO (Tiempo de estabilización en la obscuridad), las cuales sirvieron con fin de comparación. Por último, se realizó un estudio de Espectroscopía UV-Vis a las muestras, registrando los correspondientes espectros de absorción UV-Visible, para determinar la longitud de onda a la que se produce el máximo de absorción por este colorante.


CONCLUSIONES

Se lograron sintetizar los sistemas multicapa asegurando la reproducibilidad de las metodologías de depósito del grupo de trabajo. Se observó una disminución en el principal pico de absorción de la Rodamina B, lo que sugiere una degradación del colorante. No obstante, hace falta corroborar la información con un estudio de fotólisis. La estancia de verano me ha proporcionado conocimientos tanto teóricos como experimentales, como lo son: el concepto de película delgada, sistema multicapa, depósito por baño químico, depósito por capa atómica, características de los semiconductores, espectroscopía UV-Vis, efecto Hall, entre otros. Como resultado, pude percatarme del alcance que tiene mi carrera, teniendo en cuenta un mayor acervo para mi formación profesional.
Torres Quintero Mario Rafael, Universidad de Guadalajara
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.


PATRóN DE ANTENA DE LOS OBSERVATORIOS DE ONDAS GRAVITACIONALES Y SU UTILIDAD EN LA DETECCIóN DE SUPERNOVAS.

Mora Pérez Yoany Stephany, Universidad de Colima. Ramírez Camacho Brayan Alexis, Universidad de Sonora. Torres Quintero Mario Rafael, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La astronomía de Ondas Gravitacionales (OG) se logró consolidar gracias a la implementación de una red de observatorios interferométricos: dos por parte de LIGO (Laser Interferometer Gravitational-Wave Observatory, por sus siglas en inglés) situados en Livingston y Handford, Estados Unidos, además de Virgo, en Cascina, Italia; éstos están basados en el interferómetro de Michelson-Morley y son capaces de detectar cambios de longitud más pequeños que un átomo. El presente estudio examina la relación que existe entre la ubicación, la orientación, o los parámetros de construcción de un detector interferométrico, además de la posición sobre la bóveda celeste de la fuente emisora de OG con la señal que se proyecta en los registros.



METODOLOGÍA

Para el análisis de datos se utilizaron las librerías PyCBC y LAAL  del lenguaje de programación Python, con las cuales se estudió la influencia del Patrón de Antena (la dependencia entre la sensibilidad del detector y su posición con respecto a una fuente) en las señales de ondas gravitacionales proyectadas sobre los detectores. Las fuentes astronómicas que se tomaron como objetos de estudio fueron la colisión del sistema binario GW150914 y las explosiones de supernovas SN2017gax y 2015as. Los análisis se efectuaron sobre series de tiempo.


CONCLUSIONES

En este trabajo se determinó que la posición en el cielo de la fuente de las Ondas Gravitacionales, la ubicación del interferómetro y la construcción de éste son factores que determinan la intensidad de la señal obtenida en los detectores. Existen ubicaciones para las cuales la respuesta del detector será máxima y otras en las cuales no se detectará el paso de una Onda Gravitacional.  Se obtuvo también la dependencia del ángulo de polarización de la onda para los interferómetros, además del patrón de antena para cada uno de los detectores y para las tres fuentes.
Torres Ruiz Luis, Universidad Autónoma de Tamaulipas
Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas

TRANSVERSALIDAD AMBIENTAL EN PROYECTOS DE INGENIERíA EN ASENTAMIENTOS HUMANOS PERIFéRICOS AL ANTIGUO TIRADERO A CIELO ABIERTO DE CIUDAD MADERO, TAMAULIPAS


TRANSVERSALIDAD AMBIENTAL EN PROYECTOS DE INGENIERíA EN ASENTAMIENTOS HUMANOS PERIFéRICOS AL ANTIGUO TIRADERO A CIELO ABIERTO DE CIUDAD MADERO, TAMAULIPAS

Torres Ruiz Luis, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

Introducción, La Transversalidad en la Administración Pública Federal (APF) se da en el momento en el que una o varias políticas públicas son objeto de interés de una o más dependencias o entidades gubernamentales, (federal, estatal o municipal). En el Tamaulipas sustentable, el crecimiento de las ciudades y el desarrollo del territorio son orientados por políticas públicas de ordenamiento y urbanización que protegen los recursos naturales y crean entornos funcionales con equipamiento suficiente y de calidad para la vida comunitaria. Antecedentes, Tamaulipas es el séptimo estado con mayor concentración urbana del país después del Distrito Federal, Nuevo León, Coahuila, Baja California, Colima y Quintana Roo. Según datos del censo 2010, Tamaulipas tiene una densidad de población de 40.7 habitantes por kilómetro cuadrado, por debajo de la media nacional de 57.3; El crecimiento y desarrollo urbano en los municipios del sur de Tamaulipas, que conforman la Zona Conurbada de Tampico, Madero y Altamira, (ZCTMA), a partir del año 2005 cuentan con un Relleno Sanitario (RS) localizado en Altamira, como depósito de Residuos Sólidos Urbanos(RSU), anteriormente se depositaban en terrenos en cada municipio, conocidos como Tiraderos a Cielo Abierto (TCA) o también como Basureros Municipales (BM), localizados en terrenos de poca plusvalía económica. Planteamiento del Problema, en el área del antiguo TCA de Ciudad Madero TCA-CM, conocido como “Chispus”, con una extensión de quince hectáreas, en el año de 1995 el predio para depositar los RSU era de tres hectáreas, colindante con una laguna, la cual al saturase el predio, se relleno  de sur a norte, hasta el año 2005 en que se dejo de verter RSU , quedando el área, sin sanear,  esporádicamente se cubrió con material de cubierta, ha causado impacto al medio natural y social, dado los asentamiento humanos periféricos al mismo. Integramos en nuestra investigación, estudios y antecedentes de información generada a lo largo del tiempo; así como de manera actual, visitas a campo y entrevistas con funcionarios de la Administración Municipal de la Dirección de Ecología y Cambio Climático, Administración 2018-2021, Objetivo Central, de Identificar la Corresponsabilidad de la Transversalidad en Proyectos de Ingeniería en Asentamientos Humanos Periféricos al Antiguo Tiradero a Cielo Abierto de Ciudad Madero, Tamaulipas.



METODOLOGÍA

El Trabajo de Investigación, tendrá un enfoque mixto, sustentado en el método de analizar teorías con Enfoque cualitativo, al realizar acopio y análisis de tipo bibliográfico, y de Enfoque cuantitativo, si sólo se basa en datos estadísticos que serán recolectados en el campo objeto de estudio. Consideramos que nuestro Trabajo de Investigación es de Método inductivo, para Hernández Sampieri, R., et al (2006, p.   107) “, al aplicarse los principios descubiertos a casos particulares, a partir de un enlace de juicios; Análisis documental, gabinete y de campo de manera cualitativo con respecto a los rasgos socio económicos, físicos y biológicos que prevalecen en la zona de estudio, referido a la Colonia Candelario Garza, colindante al poniente del antiguo TCA de Cd. Madero, Tamaulipas. Apoyándose la presente investigación en la lectura, análisis e interpretación de información  en imágenes de fotografías aéreas verticales de vuelos realizados en 1976 y 1995, a fin de describir la evolución histórica del paisaje y  de los asentamientos humanos. 


CONCLUSIONES

Dado el breve tiempo de seis semanas, en el cual hemos desarrollado de manera intensa, nuestro Trabajo de investigación, nos permitimos presentar nuestras conclusiones, integrándolos en seis factores de  Sustentabilidad Ambiental ,descritos a continuación: Factor Técnico, se desconoce el planteamiento del Proyecto Ejecutivo, carencia de un programa de saneamiento básico, y la proyección en la reincorporación del predio al uso y vocación del suelo; Factor Económico, nula Gestión Económica en la Corresponsabilidad Sectorial, para búsqueda de financiamiento y la mezcla de recursos; Factor Político, Planteamiento de Voluntad Política en el Ámbito Estatal y Municipal, para conjuntamente establecer un Plan Integral de Saneamiento y un Programa de Transversalidad en Proyectos de Ingeniería para  restauración en la zona, con estrategias y líneas de acción, cuyas metas, sean establecidas de manera transparente,  más allá de los tiempos de las Administraciones involucradas. Factor Social, la participación y desarrollo comunitario se hace indispensable la vinculación de la Autoridad Municipal en sus diversas direcciones con programas de medioambiente, salud pública, deporte, educación y cultura, las cuales busquen dignificar y acrecentar la calidad de vida en la zona en estudio; Factor Jurídico, definición de  Tenencia de la Tierra, no se cuenta con una clausura oficial – permanente y de vigilancia por parte de la Autoridad Municipal a fin de evitar el depósito, esparcimiento y con ello la posible pepena, de residuos sólidos, por parte de habitantes de la zona y público en general, y Factor Ambiental, Se destaca la ubicación y localización geográfica de la zona en estudio, describiéndola la configuración especial que la circunda como cuatro cuadrantes, cuyos dos cuadrantes al oriente y al poniente se encuentran cubiertos por asentamientos humanos, al Norte el eje de Lagunas que se extienden de Sur a Norte; al sur con áreas habitacionales y de  esparcimiento - recreativo al localizarse no mayor a quinientos metros, el Parque Bicentenario.
Torres Sánchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.


EVALUACIÓN DE RIESGOS DE SEGURIDAD E HIGIENE EN LOS PUESTOS DE TRABAJO EN LA BENEFICIADORA DE HULE EL FÉNIX S.A. DE C.V.”.

Arriaga Lopez Erick Fernando, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Castillo Andres, Instituto Tecnológico Superior de Ciudad Hidalgo. Aviles Palomares Jose Luis, Instituto Tecnológico Superior de Ciudad Hidalgo. Torres Sánchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La beneficiadora de hule Fénix cuenta con un personal, de 35 personas para el desarrollo de su producción diaria, los cuales cuentan con algunas deficiencias en la aplicación del uso del equipo de protección personal, ya que no hay una evaluación de riesgos periódicamente. Por ello cabe mencionar que es muy fácil de detectar que la empresa no desarrolla ninguna actividad que mida los riesgos que causa el trabajo que lleva acabo cada uno de los trabajadores en su estación de trabajo, por lo que se puede decir que los trabajadores no cuentan con la disciplina necesaria para hacer uso del equipo de protección personal. En el aspecto de las áreas de trabajo en la parte de la recepción de la materia prima hay mucha agua dispersa en el suelo donde también en esa área no existe ningún tipo de señalamiento o sistema de secado para el suelo ya que al no contar con esto puede ocasionar accidentes en esa área determinada. En el área de enjuagado se detecta que existe una persona que opera al extremo superior de una escalera a una altura considerablemente como un factor de riesgo que no cuenta con señalamientos y de ningún tipo de instrucciones para mantenerse en esa área para no ocasionar algún accidente o lesión para el operario. Dentro del área de corte se encuentra que la persona que está encargada de realizar esta operación no cuenta con el equipo de protección personal adecuado para realizar su trabajo, así mismo el área donde realiza el corte está sucia y resbalosa, estos factores de riesgo y seguridad pueden ocasionar daños a la salud del trabajador.



METODOLOGÍA

Como primer punto de la metodología para abordar la problemática planteada, se presento un diagnóstico de la situación actual de la higiene y seguridad industrial en los puestos de trabajo en la purificadora del hule granulado HEM 20, es decir, se realizo un recorrido para determinar los riesgos y en base a ello elegir y aplicar el instrumento de medición, el cual es el primer objetivo específico del presente proyecto. De esta manera se pretende visualizar y contextualizar de mejor manera el objeto de estudio, para recopilar información relevante y entender el porqué del problema y por medio de esto, asegurar una buena propuesta para implementar y controlar la seguridad de los trabajadores dentro del área de trabajo. La empresa, cuenta con áreas delimitadas para el proceso que se lleva a cabo en el área de producción, las cuales cuentan con trabajadores a cargo de las máquinas que están trabajando de manera activa. Por lo tanto, es de gran importancia mantener la seguridad de los operadores en una meta permanente de cero accidentes. Es por ello que, se desarrollo un  formato de evaluación, donde se dio  a conocer la información obtenida por medio de un recorrido realizado en cada una de las áreas del proceso, la cual describe los factores de riesgo a los que están expuestos dichos trabajadores. Se desarrollo una matriz de evaluación de riesgos para la evaluación de cada área de trabajo basadas en las Normas Oficiales Mexicanas (NOM), donde se evaluo el riesgo al que esta expuestos los trabajadores, asi mismo como el grado de lesion y la probabilidad de qu estos puedan ocurrir. Para la realización del análisis y evaluación de riesgos a base de la metodología de William T. Fine en el cual se calcula el grado de peligrosidad cuya fórmula es: Grado de peligrosidad= (Consecuencias) (Exposición) (Probabilidad) Y JE (justificación económica) = Grado de peligrosidad / (Factor de costo x Grado de corrección) Una vez realizado el análisis y evaluación de riesgos en los puestos de trabajo, basándose en Normas Oficiales Mexicanas STPS, así como en la metodología de Williams T. Fine, se detectaron los factores de riesgos a los que están expuestos en las distintas áreas de trabajo, por lo que con el objetivo de cumplir la meta cero accidentes se hace un proyecto de mejora para la empresa.


CONCLUSIONES

Durante la estancia de este verano de investigacion cientifica  se logró adquirir conocimientos teóricos y practicos sobre el proceso de purificacion de hule natural HM20 ( Hule Mexicano Grado 20), en el cual se pudo detectar una problematica respecto a la higiene y seguridad industrial de la empresa, la cual nos permitio llevar acabo un analsis para la evaluacion de los factores de riesgo a los qu estan expuestos los trabajadores en sus respectivos puestos de trabajo.  Por lo que es de gran importancia mencionar que los resultados obtenidos de las metodologias empleadas en el proceso del proyecto, nos abrio un campo positivo. ya que pudimos dejar en manos una propuesta de mejora para el area ya antes mencionada, la cual se basa en las NOM'S ( Normas Oficiales Mexicas), y la metodologia de Williams T. Fine.
Torres Sandoval Diana Karina, Universidad Autónoma de Baja California
Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California

ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.


ESTIMACIóN DE LA ORIENTACIóN UTILIZANDO UNA IMU Y UNA TARJETA DE DESARROLLO BEAGLEBONE BLACK PARA SU APLICACIóN EN LA PLATAFORMA EXPERIMENTAL DE UN CUBESAT.

Leyva Amaya Brenda, Universidad de Sonora. Ramírez Gómez Juan Bernardo, Universidad Autónoma de Baja California. Torres Sandoval Diana Karina, Universidad Autónoma de Baja California. Asesor: Dr. Eloisa del Carmen Garcia Canseco, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

Los satélites pequeños se clasifican en base a su peso y dimensiones como: minisatélite (100-500 kg), microsatélite (10-100 kg), nanosatélite (1-10 kg) y pico-satélite (0.1-1 kg); siendo estos últimos de importante desarrollo en instituciones educativas debido a que sus características de tamaño y peso hacen de ellos una opción más económica (Gutierrez, 2015). Actualmente la tendencia de construcción de los satélites pequeños se ha vuelto más atractivo debido a los menores costos y cortos tiempos de desarrollo y son comúnmente desarrollados en laboratorios universitarios (Choque, 2019). En el marco del verano de investigación científica se aborda esta temática con el fin de comprender el funcionamiento de un nano-satélite, con énfasis en la determinación de la orientación.



METODOLOGÍA

En este proyecto trabajamos con una tarjeta Beaglebone Black, la cual es una plataforma de desarrollo de bajo costo para desarrolladores y aficionados (BeagleBoard.org - black, s.f.). Para poder establecer la conexión entre la computadora y la Beaglebone Black, se conecta la Beaglebone Black a la computadora por medio de un cable USB tipo-A a USB tipo-B.  Posteriormente comprobamos si la conexión se ha realizado de forma exitosa accediendo al servidor web en la Beaglebone dando clic en el archivo htm llamado START que se encuentra en los archivos de la carpeta Getting Started.  El paso siguiente consisten en actualizar el sistema operativo, donde la imagen más reciente se descarga en la página oficial (BeagleBoard.org - latest-images, s.f.). Como la memoria flash de la Beaglebone Black es de 4Gb, se utiliza una microSD de 8Gb como unidad de arranque para tener el espacio suficiente para instalar lo requerido. La computadora Beaglebone Black puede ser controlada por medio de instrucciones a través de una  terminal de tipo linux. En Windows, se requiere de un programa especial que permita abrir un canal de comunicación SSH (o Secure Socket Shell) con un cable USB-microUSB (de laptop a Beaglebone Black). Para expandir la memoria de la computadora Beaglebone Black y efectuar actualizaciones, se necesita conexión a internet. Basta con conectar la computadora con un cable ethernet. Es importante cerciorarse que se cuenta con conectividad a internet para evitar problemas futuros.  La memoria total disponible está limitada por la capacidad interna de la computadora. Para hacer uso del espacio disponible en la memoria microSD, basta con introducir un comando de expansión de memoria en la terminal. Además, existen comandos que se utilizan para instalar todas las actualizaciones disponibles para el sistema operativo, estos se utilizan con el fin de un mejor desempeño de la computadora (Beagleboard:BeagleBoneBlack Debian - eLinux.org., s.f.).  Otra manera de interactuar con la computadora Beaglebone Black es por medio del ambiente gráfico incorporado. Para esto es necesario un programa de tipo VNC (Virtual Network Computer) y configurar la Beaglebone Black por medio de la terminal. Una vez que el programa está instalado, en la terminal (por medio de código) se instala el programa en la Beaglebone Black y se crea una contraseña. Posteriormente, se inicia el programa (en la beaglebone y en Windows). Ahora se puede interactuar con la Beaglebone Black de manera gráfica, e incluso se puede utilizar la terminal desde ahí.  El sensor utilizado para la determinación de la orientación es un Sparkfun Razor IMU con 9 grados de libertad. El primer paso en el manejo de este sensor es establecer la conexión del hardware con la microcomputadora BeagleBone Black. Una vez establecida esta conexión se procede a realizar escribir un código breve cuya función es la lectura de los datos crudos del sensor. Se optó por utilizar una herramienta desarrollada previamente en Python (McWhorter, 2015) . Este proceso sirve como confirmación de que se ha establecido la comunicación con el sensor correctamente y existe una correcta respuesta al movimiento.  A continuación, es importante reinterpretar esta información que se obtiene de manera que se pueda correr un programa que muestre los ángulos yaw, pitch y roll, también en tiempo real. Con el fin de implementar esto, fue necesario consultar las definiciones de dichos ángulos en base a los datos crudos que envía el sensor. El programa creado es una modificación del primer código utilizado para visualizar los datos crudos y permite visualizar en pantalla, en tiempo real, los ángulos yaw, pitch y roll del sensor con respuesta adecuada al movimiento. Este era el objetivo principal del proyecto por lo cual, a pesar de las dificultades técnicas experimentadas, se considera que se logró el objetivo.


CONCLUSIONES

Se adquirieron conocimientos sobre la configuración del hardware de la Beaglebone Black. Además, la estancia de investigación nos dió la oportunidad de trabajar con un sensor de medición inercial. Esta experiencia será de utilidad para aplicarla en actividades futuras. En la realización de este proyecto se pudo observar el valor del trabajo en equipo y la capacidad de encontrar recursos en línea para el desarrollo del mismo. Se considera que el objetivo propuesto se alcanzó, a pesar de las dificultades. Es importante mencionar que fue necesario ajustar el plan de trabajo para adaptarlo mejor a los recursos, tanto materiales como de tiempo, disponibles para su realización.  Referencias: Gutierrez Medina, A. (2015). Desarrollo de un entrenador experimental con dos ruedas de reacción para un CubeSat educativo (Tesis de maestría). Centro de Investigación Científica y de Educación Superior de Ensenada, Baja California. Choque Yanarico, H. (2019). CubeSat Educativo. Universidad Católica Boliviana San Pablo. La Paz, Bolivia. McWhorter, Paul. (2015). Beaglebone Black GPS LESSON 1: Hooking Up the Adafruit Ultimate GPS | Technology Tutorials. Recuperado: 30/07/2019, de:  http://www.toptechboy.com/tutorial/beaglebone-black-gps-lesson-1-hooking-up-the-adafruit-ultimate-gps/ Beagleboard:BeagleBoneBlack Debian - eLinux.org. (s.f.). Recuperado: 30/07/2019, de: https://elinux.org/Beagleboard:BeagleBoneBlack_Debian  BeagleBoard.org - black. (s.f.). Recuperado:  30/07/2019, de: https://beagleboard.org/black BeagleBoard.org-latest-images. (s.f.). Recuperado: 29/07/2019, de: https://beagleboard.org/latest-images
Torres Torres Yael Valdemar, Instituto Politécnico Nacional
Asesor: Dr. Ariadna Sánchez Castillo, Universidad Autónoma del Estado de Hidalgo

PROPIEDADES ESTRUCTURALES DEL GRAFENO Y óXIDO DE GRAFENO BICAPA Y TRICAPA


PROPIEDADES ESTRUCTURALES DEL GRAFENO Y óXIDO DE GRAFENO BICAPA Y TRICAPA

Torres Torres Yael Valdemar, Instituto Politécnico Nacional. Asesor: Dr. Ariadna Sánchez Castillo, Universidad Autónoma del Estado de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo de investigación se describe algunas propiedades estructurales del grafeno así como del óxido de grafeno bicapa y tricapa. El grafeno es una estructura nanométrica, bidimensional, de átomos de carbono fuertemente cohesionados en una superficie uniforme, ligeramente plana, con ondulaciones, de un átomo de espesor, con una apariencia semejante a una capa de panal de abejas por su configuración atómica hexagonal. De esta configuración o arreglo peculiar se desprenden las propiedades electrónicas, mecánicas y químicas excepcionales del grafeno. La principal importancia del grafeno surge de la consideración de ser un bloque constructor a partir del cual se forman todos los demás materiales grafiticos, es decir, si se le envuelve a manera del forro de un balón, proporciona fullerenos; si se le enrolla cilíndricamente, nanotubos; si se le superpone tridimensionalmente, grafito. Debido a su reciente obtención en estado libre, un interés empresarial encaminado a su producción industrial así como de investigación se desató dadas sus potenciales aplicaciones en electrónica, computación y ecología, entre otras importantes áreas. Por otro lado el óxido de grafeno es un compuesto de carbono, oxígeno e hidrógeno en proporciones variables, obtenido tras el tratamiento de grafito con un oxidante fuerte. Al igual que el grafeno recientemente ha llamado la atención por sus importantes propiedades y aplicaciones por ejemplo; las películas de óxido de grafeno se pueden emplear en campo médico o en la industria alimentaria como agentes esterilizantes, se ha observado que el GO se ha utilizado como biosensor, debido a las propiedades fluorescentes, el papel de óxido de grafeno también podría emplearse para crear materiales hibridos que contengan polímeros, cerámicas o metales, donde tales compuestos se comportan mucho mejor que los materiales existentes, como por ejemplo, en componentes para aviones, automóviles; edificios y áreas del sector deportivo. Y finalmente el óxido de grafeno es de gran interés para la comunidad científica debido a la facilidad con la que este puede ser el vehículo para la obtención de materiales funcionalizados y optimizados con nanopartículas.



METODOLOGÍA

Para el desarrollo de este trabajo de investigación fue necesario el uso de los siguientes softwares; Vesta y XCrysden como visualizadores de las estructuras propuestas y Quantum Espresso para el cálculo de las propiedades estructurales y electrónicas. Quantum espresso está basado en la Teoría del Funcional de la Densidad Electrónica. Para realizar los cálculos se obtuvo en primer lugar la constante de red  para el grafeno usando pseudopotenciales GGA (Aproximación del Gradiente Generalizado) para simular las interacciones entre electrones. La constante de red para el grafeno en el estado base se obtuvo relajando la estructura hexagonal con diferentes constantes de red cercanas a la experimental y calculando su energía total. Para determinar cual era la estructura más estable se graficó una curva de área vs energía total y la estructura con energía más baja es la que se considera como la más estable Usando esta constante de red se obtuvieron las estructuras relajadas para celdas 2x2, 4x4 y 4x8 unicapa y posteriormente bicapa y tricapa con el mismo procedimiento que para la celda unitaria. Finalmente se propusieron varias estructuras para el óxido de grafeno monocapa, bicapa y tricapa añadiendo O y OH a las estructuras anteriores del grafeno para obtener la estructura más estable.


CONCLUSIONES

El estudio de las propiedades estructurales del grafeno y óxido de grafeno se llevó a cabo, obteniendo la visualización de las estructuras del óxido de grafeno bicapa y tricapa. Es importante mencionar que durante la construcción de las estructuras relajas del óxido de grafeno se observaron muy pocas variaciones en las dimensiones de la red, demostrando que el óxido de grafeno es un material resistente, con una destacada flexibilidad y además resulta ser muy ligero. Por otro lado, en el proceso de agregar O y OH en la estructura del óxido de grafeno se determinó la posición más estable, de acuerdo con las simulaciones realizadas, es decir, varias estructuras, posteriormente se compararon las energías y se determinó la más estable de acuerdo a un nivel bajo de energía. Se propusieron tres estructuras para la incorporación de los oxígenos en le grafeno; sobre uno de los átomos de carbono (top) en medio de dos átomos de carbono (bridge) y finalmente en medio de un hexágono de la red usando como base una celda de 2x2 periódica en dos dimensiones. Se determinó que la estructura más estable es la posición denominada bridge. Mientras que para el -OH la incorporación al grafeno es sobre un átomo de carbono. Con estos resultados se está haciendo la saturación del grafeno bicapa y tricapa con O y OH para determinar aquella que nos de la configuración más estable que no deforme la capa superior del grafeno. Por otro lado, se pretende calcular la estructura electrónica del grafeno y del óxido de grafeno bicapa y tricapa.
Torres Uicab Saul, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes

CáLCULO DE PROFUNDIDAD TEóRICA DE FALLAS EN ZONAS DE SUBSIDENCIA Y SU INTERACCIóN CON EL ACUíFERO.


CáLCULO DE PROFUNDIDAD TEóRICA DE FALLAS EN ZONAS DE SUBSIDENCIA Y SU INTERACCIóN CON EL ACUíFERO.

Torres Uicab Saul, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Jesús Pacheco Martínez, Universidad Autónoma de Aguascalientes



PLANTEAMIENTO DEL PROBLEMA

El hombre desde los inicios de la civilización ha buscado cubrir la principal necesidad de abastecerse de agua para sustentar su desarrollo agrícola, pecuario y expasión territorial. Asentarse cerca de recursos hídricos como manantiales fue la clave de la supervivencia. El descubrimiento del acuífero del valle de aguascalientes con los estudios del siglo XIX fue de tal importacia dando seguridad de contar con un abasto de agua que dio inicio a la explotación de este recurso. Romeo Navarro en el 2010 expone que sistema acuífero de aguascaliente está formado por una serie de estratos de rellenos aluviales: limo, arena y grava, que por mas de 40 años ha sido sobreexplotado. Debido a esta configuración del terreno cuando la explotación del acuífero rebasa su recarga natural se produce el abatimiento del nivel freático, la pérdida del agua genera espacios vacios en el terreno ocacionando un reacomodo de las partículas del suelo, como resultado un descenso lento del terreno con la aparición de grietas en el valle tanto en la zona urbana como en sus alrdedores, este fenómeno es conocido como subsidencia. Aranda Gomez (1985) concluyó que las fisuras de la tierra están asociadas con el bombeo de agua subterránea además de que la geología estructural desempeña un papel pasivo. Ademas de daños en la infraestructura urbana ocacionada por el hundimiento de terreno existen otro tipo de afectaciones pero la problemática principal en la que se centra este trabajo es la de infiltración de agua no tratada en las grietas que no se tiene conocimiento si alcanza el nivel piezométrico del agua subterranea, que de darse la situación, estaría contaminando un recurso valioso.



METODOLOGÍA

Con apoyo en el Sistema de Información de Fallas Geológicas y Grietas (SIFAGG) y por la facilidad de obtener datos geológicos para este trabajo se seleccionó la grieta (paleocause) a lado de la pensión municipal de Jesús María. Se midió la abertura del paleocause con un estadal desde su superficie hasta el fondo tomando de referencia puntos en cada cambio de estrato, así mismo, el grosor correspondiente de cada estrato. Establecer una relación de pendientes con base a la disminuciòn de las aberturas  y el grosor de los estratos para calcular la profundidad teórica del paleocauce. Se hará un cálculo de estabillidad de taludes con datos de mecánica de suelos que serán proporcionados por el investigador para comprobar si se mantendrá la apertura del paleocauce. Obtener la profundidad del nivel piezométrico del agua subterránea y comparar con la profundidad del paleocause. Identificar la estratigrafía del suelo a partir de la parte inferior del paleocause para descartar un estrato rocoso impermeable y realizar cálculos de permeabilidad del suelo hasta llegar al nivel piezométrico del agua subterránea utilizando las precipitaciones máximas de la zona, de está forma establecer si en un estrato se detiene la infiltración del agua de acuerdo a su velocidad de flujo. Contrastar los resultados obtenidos de la infiltración de un volumen de agua calculado con la precipitación máxima de la zona contra la infiltración de un volumen de agua menor


CONCLUSIONES

Durante la estancia se obtuvo conocimiento sobre el tema de la subsidencia en aguacalientes y las diferentes tecnologías y técnicas de estudio aplicadas a esta problemática. Aplicando los conocimientos con el perfil de ingeniero civil se espera obtener como resultado si ocurre la infiltración de agua no tratada hasta el nivel piezométrico del agua subterránea con un determinado volumen, porque no es lo mismo derramar un vaso de agua que verter una pipa entera en una grieta, contribuyendo así a la línea de investigación del asesor generando nuevas oportunidades de estudio.
Tous Romero Marysabel, Universidad de la Guajira (Colombia)
Asesor: Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos

TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE PROCESOS DE OXIDACIóN AVANZADA


TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE PROCESOS DE OXIDACIóN AVANZADA

Torres Martínez Vilmer Yerid, Universidad de la Guajira (Colombia). Tous Romero Marysabel, Universidad de la Guajira (Colombia). Asesor: Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos



PLANTEAMIENTO DEL PROBLEMA

En el proceso de teñido en la industria textil se producen grandes cantidades de agua con colorantes, esta al ser desechada representa un grave problema ambiental. El uso de Procesos Avanzados de Oxidación (PAO´s) en el tratamiento de agua con colorante es fundamental para evitar su afectación en los ecosistemas, como la reducción de la luz solar necesaria para los procesos de fotosíntesis y la caída de los niveles de oxígeno disuelto. El tratamiento mediante procesos de oxidación avanzada, recientemente ha atraído la atención para la aplicación de tratamiento de aguas residuales debido a su desempeño en la degradación de los contaminantes orgánicos y la ausencia de contaminación secundaria, este tipo de procesos forma parte de los denominados PAO´s, los cuales combinan diferentes efectos físicos y químicos, tales como la pirólisis, la fotólisis UV, así como la formación de especies oxidantes por ejemplo radicales (H, O, •OH) y moléculas (H2O2, entre otras). En este trabajo se utilizó un proceso fenton para el tratamiento de agua con colorante NA52 (tipo Azo), el cual es usado en la industria textil.



METODOLOGÍA

Para este proceso se realizo una curva de calibración del colorante NA52 a una concentración 1.0mM, aforado a 250 mL; posteriormente se midieron en el espectrofotómetro las absorbancias para obtener la ecuación que relaciona la absorbancia (y) con la concentración (x). El sistema experimental se utiliza para la degradación del contaminante orgánico, Con el propósito de identificar que la presencia del sulfato ferroso (FeSO4) aumenta la eficiencia en el proceso de degradación por fenton, se realizaron diferentes mezclas con agua destilada y colorante NA52 a 1.0 mM, variando la concentración del FeSO4. La solución inicial para este caso debe ser de 250 mL con un pH óptimo de 3.0. Para el seguimiento de la descomposición del colorante a diferentes tiempos, se utilizó un espectrofotómetro DR/6000, potenciómetro HACH HQ40d, adicionalmente se mide parámetros fisicoquímicos como temperatura y conductividad eléctrica. 


CONCLUSIONES

Se uso el proceso fenton para degradar el colorante textil negro acido 52 (Na52), añadiendo como catalizador sulfato ferroso (FeSO4), esto con el propósito de acelerar el proceso de transformación del colorante en estructuras más sencillas, los resultados indican una remoción del 88% en una hora. Las condiciones optimas para degradar el colorante a 1.0 mM mediante el proceso fenton fueron de un pH optimo de 3 añadiendo 0.5 mL de peróxido de hidrogeno (H2O2) y 5 mL de sulfato ferroso (FeSO4) en una hora de tratamiento.  
Tovar Martínez Mayra Angélica, Universidad de La Salle Bajío
Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar

SISTEMA DE ILUMINACIÓN CON TECNOLOGÍA LED RGB CONTROLADA MEDIANTE PLATAFORMAS IOT


SISTEMA DE ILUMINACIÓN CON TECNOLOGÍA LED RGB CONTROLADA MEDIANTE PLATAFORMAS IOT

Tovar Martínez Mayra Angélica, Universidad de La Salle Bajío. Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Actualmente, 7,716,223,209 personas en el mundo utilizan el internet en sus vidas diariamente para múltiples tareas como adquirir conocimiento, comunicación entre personas, recibir y enviar dinero, comprar en línea, ganar dinero, entre muchas más. El internet ha ido evolucionando rápidamente a lo largo de las décadas, una de sus últimas y más importante evolución es el Internet de las cosas (IoT, por sus siglas en inglés). El IoT es un concepto que caracteriza la próxima gran transformación en la evolución de Internet. Los sistemas IoT implican la adquisición de datos de sensores y la entrega de órdenes a dispositivos que interactúan o forman parte del mundo real. También reconocen eventos y cambios, y pueden reaccionar de forma autónoma y apropiada. La gran mayoría de los usos que se le ha dado al IoT se encuentran en casi todos los sectores industriales. Las empresas manufactureras emplean los sistemas IoT para gestionar el manejo de materiales, la optimización de inventarios y la conexión de sistemas robóticos; así como en las administraciones locales han visto relevante el IoT con la monitorización del alumbrado, los sistemas de control del tráfico y otras más aplicaciones inteligentes que ayudan a que una ciudad se convierta en una Smart City. Para el manejo de tareas de gestión y visualización de los datos generados en curso y en tiempo real existen las plataformas IoT las cuales son la superbase de dispositivos interconectados que generan un ecosistema propio de una forma más eficiente. Actualmente existen aproximadamente al menos 49 plataformas IoT en el mercado. En este proyecto se realizó la evaluación de 9 plataformas IoT que existen en el mercado, entre ellas están: ThingSpeak, Carriots, Adafruit, Sentilo, Devicehive, IoTsens Smart City, Pubnub, TheThings.io y Thinger.io, siendo esta última la que se utilizó para la implementación de un sistema de iluminación de alta potencia controlado remotamente mediante la plataforma IoT.



METODOLOGÍA

Para la realización de este proyecto se utilizó el software de Arduino IDE para la programación de las plataformas IoT y su conexión con la tarjeta Lolin NodeMCU V.3. En la Plataforma Thinger.io se realizó la configuración de la tarjeta NodeMCU y se hizo una conexión con la aplicación móvil de esta plataforma que lleva su mismo nombre, en ella podemos observar los diferentes parámetros que se controlarán para elegir el color de la luz que emitirán los LEDs RGB. Para la elección de los colores se introduce en la plataforma el rango del color que uno desea cambiar y está se conecta mediante la red de wi-fi con la tarjeta NodeMCU, la cual se encuentra conectada a una placa fenólica perforada que contiene los LEDs RGB. Este circuito se compone de 3 LEDs RGB de 3W en serie, montados en un disipador de aluminio, y un puente H L293D, el cual nos permite manejar la potencia de los LEDs RGB con la tarjeta NodeMCU.


CONCLUSIONES

Durante la estancia de verano se obtuvo la implementación de las Plataformas IoT, así como su debido análisis y comparación para la elección de una plataforma que ayude al estudiante, maestro, emprendedor o profesionista en la creación de diversos proyectos y se conozca más acerca del Internet de las cosas y sus múltiples aplicaciones en diversos campos. Al igual, se logró la creación de un sistema de iluminación de alta potencia controlado remotamente y con esto se puede escalar a diversas aplicaciones más específicas en el campo de la Medicina, Biología, Química, Sector Industrial, entre otras.
Trejo Beltrán Christian Fernando, Instituto Politécnico Nacional
Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo

EFECTO DE LAS PROPIEDADES FISICOQUíMICAS DE LOS SUELOS EN LA CORROSIóN DE ACEROS DE DUCTOS


EFECTO DE LAS PROPIEDADES FISICOQUíMICAS DE LOS SUELOS EN LA CORROSIóN DE ACEROS DE DUCTOS

Trejo Beltrán Christian Fernando, Instituto Politécnico Nacional. Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

El principal problema que afecta la integridad de las tuberías de transporte de hidrocarburos es la pérdida de espesor del tubo por corrosión, este efecto que trae consigo dicha degradación del material metálico abarca aspectos de seguridad, ambientales y económicos. La mayoría de los incidentes en tuberías enterradas corresponden a pérdida de hermeticidad por fugas pequeñas, derivadas de la pérdida de metal, localizada en forma de corrosión por picaduras en donde participan reacciones de oxidación y reducción, las cuales son de suma importancia generándose entre ellas un intercambio de electrones. La corrosión por picaduras en suelos es un fenómeno complejo, que involucra numerosas variables fisicoquímicas cuya sinergia dificulta su comprensión y análisis. Considerando que la corrosión externa en un ducto sumergido o enterrado se presenta debido a la interacción de este con el electrolito que lo rodea, siendo el suelo el principal electrolito existente en este proceso, sus propiedades fisicoquímicas como el pH, resistividad, potencial redox y humedad al verse incrementadas o disminuidas afectan directamente al efecto corrosivo en la tubería enterrada, acelerando el procesos o haciéndolo más agresivo, por lo tanto es necesario conocer el grado de acero que presente mejor comportamiento ante dichas propiedades fisicoquímicas del suelo.



METODOLOGÍA

Se realizó una consulta bibliográfica del proceso de corrosión con enfoque a corrosión localizada en forma de picaduras tanto externa como interna en tuberías de transporte de hidrocarburos, factores naturales que propician el mismo y comportamiento de las propiedades fisicoquímicas del suelo La metodología empleada consistió en la visualización, medición, cálculo y análisis de la velocidad de corrosión en cupones (muestras) de acero de tres grados diferentes (X52, X60, X70), los cuales previamente fueron maquinados con dimensiones de 5x5 cm y posteriormente enterrados dentro de un sistema experimental. El sistema experimental consta de tres contenedores de suelos, y en cada contenedor un tipo de suelo donde se enterraron los cupones;  los suelos ocupados en el sistema antes mencionado fueron tomados previamente en campo en los sectores de Minatitlán, y Salina Cruz, en los sitios conocidos como Las Matas Ver., Texistepec Ver., y en el sitio conocido como Chamizal Oax.,respectivamente (a una profundidad de 1.5 m), siendo estas zonas de interés debido a su interacción con los sistemas de transporte  por medio de ductos. Los cupones analizados estuvieron enterrados y monitoreados a diferentes lapsos de tiempo, el registro que se tuvo de estos es a una semana, dos semanas, un mes, dos meses, seis meses, un año y dos años donde la medición de las propiedades fisicoquímicas del suelo como pH, Resistividad, Potencial redox y Humedad se efectuaron durante toda la prueba, obteniendo su comportamiento de manera gráfica. Durante la estancia se participó en la limpieza de algunos cupones. Se limpiaron con ácido clorhídrico inhibido (HCl) de esta manera se eliminaron impurezas generadas por la corrosión en su exposición al suelo. Se realizaron mediciones con un calibrador vernier digital para obtener los datos de la profundidad de las picaduras en los diferentes cupones de acero, así como el espesor del cupón, clasificando los datos por la parte superior, e inferior, y el tipo de acero en el que se presentaron. Cabe mencionar que se realizaron cinco mediciones en cada una de estas caras y se tomó la máxima profundidad como la de mayor relevancia para el estudio. Con base en los datos de tiempo y profundidad de picadura se determinó la velocidad de corrosión en cada periodo de tiempo, se obtuvo su comportamiento grafico de la misma para cada tipo de acero en cada tipo de suelo, así como la determinación con uso de software de la función que más se ajusta al comportamiento real de los datos para poder predecir dicha velocidad a tiempos futuros y así poder determinar el tiempo de vida útil de la tubería bajo condiciones de campo similares a las estudiadas.


CONCLUSIONES

Se obtuvieron resultados que expresan una mayor corrosión en la parte inferior de los cupones analizados, ya que por segregación gravitacional la humedad predomina en la parte inferior del sistema experimental aumentando su concentración de esta y enfocándola a esa área. Por otra parte, el acero de grado X60 resultó ser el metal con menor resistencia a los procesos fisicoquímicos de la corrosión, lo cual puede ser atribuido a su composición química. A su vez el acero grado X52 resultó ser más resistente ante el proceso de corrosión, durante el análisis se obtuvo que los suelos que poseen una resistividad baja del orden del 0 a 1000 Ω-cm son altamente corrosivos, y aquellos que presenten un pH menor a 5.5 son extremadamente corrosivos, el efecto del potencial Redox en la corrosión nos indica que a valores menores de 100 mV sería altamente agresivo el suelo para el metal. Del análisis de resultados referente a la velocidad de corrosión en los cupones de acero, se observa que está relacionada con las propiedades fisicoquímicas del suelo y la microestructura del acero. El comportamiento de la velocidad de corrosión en los aceros expuestos a los suelos  presenta dos comportamientos diferentes dependiendo del tiempo. Es decir, a corto tiempo presenta velocidades de corrosión altas, y a largo tiempo la velocidad de corrosión es más lenta. En los primeros 2 meses los aceros presentaron velocidades de corrosión del orden de 10 mm/año en la cara superior, y hasta 35 mm/año en la cara inferior de los cupones. A partir de los 2 meses la velocidad de corrosión en los cupones decrece y se comporta más estable, reduciéndose en valores promedios de 1.08 mm/año, esto debido al fenómeno de pasivación (capa de óxidos que se forma en la picadura). A largos periodos de tiempo la velocidad de corrosión decrece, sin embargo se observó que el área corroída crece. Para suelos corrosivos como el de las Matas y Chamizal se recomienda el uso de un acero X52, ya que aseguraría un mayor tiempo de vida útil del ducto con base en el estudio realizado.
Trejo Hinojosa Luis Mario, Instituto Politécnico Nacional
Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)

CLASIFICACIóN BINARIA DE PATATAS FRITAS POR CONTENIDO DE GRASAS SATURADAS USANDO UN ESPECTROFOTóMETRO NIR DE BAJO COSTO Y REDES NEURONALES


CLASIFICACIóN BINARIA DE PATATAS FRITAS POR CONTENIDO DE GRASAS SATURADAS USANDO UN ESPECTROFOTóMETRO NIR DE BAJO COSTO Y REDES NEURONALES

Trejo Hinojosa Luis Mario, Instituto Politécnico Nacional. Asesor: Dr. Alejandro Pazos Sierra, Universidad de la Coruña (España)



PLANTEAMIENTO DEL PROBLEMA

La obesidad infantil se ha convertido en un problema importante a lo largo del mundo, el comer excesivamente, la falta de ejercicio y el estilo de vida sedentaria trae como consecuencia la obesidad, y un mayor riesgo de mortalidad, así como al desarrollo de diferentes problemas especialmente enfermedad coronaria, diabetes tipo 2, cáncer, apoplejía, entre otros, que hoy constituyen las principales causas de muerte. En México, la Encuesta Nacional de Salud y Nutrición del año 2006 (ENSANUT 2006), encontró una prevalencia de sobrepeso y obesidad para hombres y mujeres de 71,9 % y 66,7 % respectivamente. Uno de los factores de riesgo que se han encontrado para los problemas de obesidad es la comida: en la última década el comer fuera de casa se ha hecho cada vez más habitual y rutinario. A su vez las personas consumen más frecuentemente alimentos de preparación rápida que son más económicos pero altos en calorías y grasa. El tratamiento de la obesidad debe ser multidisciplinario ya que las causas no son aisladas y usualmente son multifactoriales, por lo que en esta investigación se busca obtener un modelo predictivo por medio del uso de redes neuronales y técnicas de inteligencia artifical para clasificar las patatas fritas en dos grupos, uno de alto contenido de grasas saturadas y otro de bajas, ofreciendo una herramienta para incentivar el consumo responsable.



METODOLOGÍA

Se adquirieron 41 bolsas diferentes de patatas fritas en un único supermercado de la zona metropolitana de A Coruña en España. Las bolsas fueron almacenadas a una temperatura promedio de 22°C en el laboratorio donde serían tomadas las mediciones después de un día de la compra. Se creó una base de datos en un documento excel con imágenes tomadas de cada bolsa, los atributos fueron: Identificador (tomado como un número entero), marca/sabor, información nutrimental e ingredientes. Esta base de datos fue ampliada al desglosar la información nutrimental en columnas adicionales en el mismo documento. Los atributos son: Valor energético, energía, lípidos, hidratos de carbono, azúcares, fibra, proteínas y sal. La meta propuesta es generar un clasificador utilizando la cantidad en gramos de grasas saturadas como parámetro, debido a esto se añadió una columna extra para indicar la pertenencia a uno de los dos siguientes grupos: Altas en grasas: Se eligió el valor numérico de 1 para aquellas muestras donde por 100g de producto se encuentre una cantidad mayor o igual a 4g de grasas saturadas Bajas en grasas: Todas aquellas muestras donde por 100g de producto la cantidad de grasas saturadas sea menor a 4g Una vez se terminó de etiquetar las bolsas y sus características se procedió a realizar las mediciones con el espectrofotómetro de infrarrojo cercano DLP NIRscan Nano de Texas Instruments. Se tomaron las mediciones seleccionando aleatoriamente 10 patatas para cada una de las 41 bolsas y ejecutando un escaneo con el espectrofotómetro. Cada una de las mediciones se almacenó en formato ‘CSV’ en la tarjeta micro SD del Smartphone con la aplicación de interfaz de control del DLP NIRscan Nano. Este proceso generó un conjunto de 410 mediciones, cada una contiene la información de la intensidad, absorbancia y reflectancia por longitud de onda entre 901nm a 1700nm en 228 particiones. Para realizar el entrenamiento de la red se desarrolló un script en Python, utilizando las librerías: Tensorflow, Keras y Sklearn como componentes principales para realizar la separación de los datos, normalización, definición de un modelo, su entrenamiento y evaluación. El script realiza una lectura de los 410 archivos CSV con las mediciones, los etiqueta por tipo de bolsa y separa las mediciones en dos arreglos, uno bidimensional de tamaño 410x228 para las mediciones y sus características, y otro de 410x2 donde se encuentra la correspondencia de una bolsa a uno de los dos grupos descritos. Este último arreglo es de dos dimensiones debido a que se crea una separación categórica. Una vez se tienen estos dos arreglos, el que contiene los datos de las mediciones es normalizado. A los dos arreglos se les aplica un 41-Group-Fold Cross-validation. Generando 41 folds diferentes para entrenamiento, donde las 41 mediciones se separan por grupos de 10 mediciones y 10 etiquetas, regresadas en forma de 4 nuevos arreglos. El primer par es el conjunto de entrenamiento, con 400 mediciones y 400 etiquetas. El segundo de pruebas contiene las mediciones de una única bolsa, siendo 10 mediciones y 10 etiquetas. Estos 4 arreglos son pasados como parámetros a la función que entrenará y evaluará el modelo. Para evaluar el rendimiento del modelo, cada uno de los 41 Fold es pasado por un proceso de entrenamiento y evaluación 50 veces, los resultados de estas repeticiones son promediadas. Posteriormente los resultados de los 41 Fold se promedian y se obtiene la desviación estándar. Estos son los parámetros que permiten evaluar el rendimiento de la arquitectura seleccionada para el modelo


CONCLUSIONES

En las pruebas preliminares durante la selección del mejor algoritmo de separación y la normalización de los datos donde se evaluó una única repetición por Fold se obtuvieron resultados cercanos al 65% de acierto para el modelo, estos resultados son preliminares debido a que en este momento aún se están corriendo las pruebas finales. La cantidad de muestras es muy importante para generar grupos de entrenamiento, validación y pruebas de un tamaño adecuado que permitan el correcto entrenamiento del modelo y su evaluación sea estadísticamente significativa Se puede mejorar el resultado haciendo técnicas de pre procesamiento de la señal con diferentes técnicas Una vez obtenidas los resultados finales de este primer modelo se realizarán mejoras en la arquitectura y el pre procesamiento de la señal
Trejo Sánchez Angélica María, Instituto Tecnológico Superior de Guanajuato
Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA


APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA

Teran Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato. Trejo Sánchez Angélica María, Instituto Tecnológico Superior de Guanajuato. Trejo Sanchez Carlos Daniel, Instituto Tecnológico Superior de Guanajuato. Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La yaca es un fruto tropical que se encuentra en sobreproducción en el estado de Nayarit teniendo una producción anual de 18,611 toneladas en el 2016 de acuerdo con el Servicio de Información Agroalimentaria y Pesquera (SIAP). Por tal motivo se quiere elaborar un jugo lo cual ayudaría a su diversificación de los productos de bebidas para que tenga un aporte nutricional benéfico a la salud del consumidor.  El objetivo de esta investigación es determinar el tiempo en que un producto ya no cumple con los estándares de calidad y puede ser perjudicial para los consumidores haciendo uso de aditivos ya establecidos, teniendo un antioxidante y un conservador que evitaran una rápida sedimentación de sólidos y líquido así mismo alargando su conservación en temperaturas de refrigeración. Las pruebas fisicoquímicas nos permiten saber en cuánto tiempo su pH, color, olor y sabor han cambiado. A su vez, las microbiológicas nos demostrarán las buenas prácticas de manufactura en el proceso, Y en cuánto tiempo pueden crecer microorganismos no deseados como bacterias, hongos y levaduras. Manteniendo su vida de anaquel derivado de una pasteurización artesanal, adición de aditivos y conservadores, y , posteriormente realizando pruebas microbiológicas para verificar que la pasteurización se hizo de la manera adecuada. Además se pretende desarrollar una estrategia de marketing para llegar al consumidor de una manera directa y así el producto obtenga la distribución deseada. La mercadotecnia esla parte intermedia entre el cliente y la empresa. Así mismo el etiquetado nos permite conocer el alimento, su origen, su modo de conservación, los ingredientes que lo componen o los nutrientes que aportan a nuestra dieta.



METODOLOGÍA

Compuestos fenólicos: Folin- Ciocalteu Determinación del color: Colorímetro Cuantificación de la vitamina C: yodimetrías Acidez:  Volumetría pH: Potenciómetro °Brix: Refractometro Pasteurización. Una vez elaborado y envasado el jugo, se colocaron en agua hirviendo a una temperatura de 95°C durante 10, 15 y 20 minutos. Así se  analizó cuál era el mejor tiempo para dicho tratamiento.Posteriormente se deja enfriar a temperatura ambiente. Análisis microbiológicos Basados en las siguientes Normas Oficiales Mexicanas: NOM-092-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE BACTERIAS AEROBIAS EN PLACA. NOM-112-SSA1-1994, BIENES Y SERVICIOS. DETERMINACIÓN DE BACTERIAS COLIFORMES. TÉCNICA DEL NÚMERO MÁS PROBABLE. NOM-113-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MICROORGANISMOS COLIFORMES TOTALES EN PLACA. NOM-111-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MOHOS Y LEVADURAS EN ALIMENTOS. NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. Etiquetado: Material resistente al agua ya que al mantenerse en refrigeración estará expuesto a exudación por temperatura. Diseño colorido que caracterice la gama de sabores que el jugo posee, así como la imagen del fruto para que el consumidor comience a conocer de donde proviene el producto. En cuanto a los valores de la tabla nutrimental y menciones obligatorias del etiquetado frontal se harán en base a la NOM-051-SCFI/SSA1-2010 Eslogan: La frase promocional tendrá un impacto hacia al cliente que lo lleve a consumir el producto. Publicidad: Poster digital/físico que contendrá la imagen del producto así como su precio, además de que las redes sociales serán el principal vínculo entre el producto y el cliente.


CONCLUSIONES

El uso de ácido ascórbico favoreció la calidad del jugo realzando su sabor y evitando una oxidación prematura ayudando a que el color permanezca. De acuerdo a los datos obtenidos la muestra de 10 minutos fue aceptable en las pruebas microbiológicas, Vitamina C, compuestos fenólicos y color, por lo que el tiempo en el que estuvo a altas temperaturas fue el mejor, realzando su color sin perder sus nutrientes Gracias a los estudios y análisis realizados, se llegó a la conclusión  de que la pasteurización por 10 minutos, fue la óptima para que las características generales de la bebida se mantuvieran lo menos alteradas posible. Los análisis microbiológicos para dicha pasteurización (10 minutos), fueron los siguientes: Conteo de mesófilos: <10 Conteo de coliformes en placa: Ausente Conteo de coliformes por la técnica NMP: Ausente Conteo de hongos y levaduras: <10 Por lo que está dentro de norma, según lo establecido en la NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. La etiqueta es de una amplia gama de colores los cuales representan la variabilidad de sabores del producto, así mismo contiene el título del producto Yackjuice, el nombre de la compañía y denominación aplicada; debajo puede observarse la imagen del fruto utilizado, el etiquetado nutrimental frontal y el contenido neto. En la parte lateral derecha se puede observar el código de barras y dos insignias, la primera marca Guanajuato y la segunda de hecho en mexico, asi como la fecha de caducidad y el símbolo de tire el envase en su lugar. En la parte lateral izquierda podemos encontrar la tabla nutrimental, los ingredientes además de la empresa que lo elabora y su ubicación. El poster promocional físico/digital muestra una imagen central del producto en cuestión, precio con colores llamativos y el eslogan que atraerá la atención del cliente. 
Trejo Sanchez Carlos Daniel, Instituto Tecnológico Superior de Guanajuato
Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato

APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA


APROVECHAMIENTO INTEGRAL DE LA YACA PARA LA ELABORACIóN DE UNA BEBIDA

Teran Contreras Cynthia Natalia, Instituto Tecnológico Superior de Guanajuato. Trejo Sánchez Angélica María, Instituto Tecnológico Superior de Guanajuato. Trejo Sanchez Carlos Daniel, Instituto Tecnológico Superior de Guanajuato. Asesor: Ing. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

La yaca es un fruto tropical que se encuentra en sobreproducción en el estado de Nayarit teniendo una producción anual de 18,611 toneladas en el 2016 de acuerdo con el Servicio de Información Agroalimentaria y Pesquera (SIAP). Por tal motivo se quiere elaborar un jugo lo cual ayudaría a su diversificación de los productos de bebidas para que tenga un aporte nutricional benéfico a la salud del consumidor.  El objetivo de esta investigación es determinar el tiempo en que un producto ya no cumple con los estándares de calidad y puede ser perjudicial para los consumidores haciendo uso de aditivos ya establecidos, teniendo un antioxidante y un conservador que evitaran una rápida sedimentación de sólidos y líquido así mismo alargando su conservación en temperaturas de refrigeración. Las pruebas fisicoquímicas nos permiten saber en cuánto tiempo su pH, color, olor y sabor han cambiado. A su vez, las microbiológicas nos demostrarán las buenas prácticas de manufactura en el proceso, Y en cuánto tiempo pueden crecer microorganismos no deseados como bacterias, hongos y levaduras. Manteniendo su vida de anaquel derivado de una pasteurización artesanal, adición de aditivos y conservadores, y , posteriormente realizando pruebas microbiológicas para verificar que la pasteurización se hizo de la manera adecuada. Además se pretende desarrollar una estrategia de marketing para llegar al consumidor de una manera directa y así el producto obtenga la distribución deseada. La mercadotecnia esla parte intermedia entre el cliente y la empresa. Así mismo el etiquetado nos permite conocer el alimento, su origen, su modo de conservación, los ingredientes que lo componen o los nutrientes que aportan a nuestra dieta.



METODOLOGÍA

Compuestos fenólicos: Folin- Ciocalteu Determinación del color: Colorímetro Cuantificación de la vitamina C: yodimetrías Acidez:  Volumetría pH: Potenciómetro °Brix: Refractometro Pasteurización. Una vez elaborado y envasado el jugo, se colocaron en agua hirviendo a una temperatura de 95°C durante 10, 15 y 20 minutos. Así se  analizó cuál era el mejor tiempo para dicho tratamiento.Posteriormente se deja enfriar a temperatura ambiente. Análisis microbiológicos Basados en las siguientes Normas Oficiales Mexicanas: NOM-092-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE BACTERIAS AEROBIAS EN PLACA. NOM-112-SSA1-1994, BIENES Y SERVICIOS. DETERMINACIÓN DE BACTERIAS COLIFORMES. TÉCNICA DEL NÚMERO MÁS PROBABLE. NOM-113-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MICROORGANISMOS COLIFORMES TOTALES EN PLACA. NOM-111-SSA1-1994, BIENES Y SERVICIOS. MÉTODO PARA LA CUENTA DE MOHOS Y LEVADURAS EN ALIMENTOS. NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. Etiquetado: Material resistente al agua ya que al mantenerse en refrigeración estará expuesto a exudación por temperatura. Diseño colorido que caracterice la gama de sabores que el jugo posee, así como la imagen del fruto para que el consumidor comience a conocer de donde proviene el producto. En cuanto a los valores de la tabla nutrimental y menciones obligatorias del etiquetado frontal se harán en base a la NOM-051-SCFI/SSA1-2010 Eslogan: La frase promocional tendrá un impacto hacia al cliente que lo lleve a consumir el producto. Publicidad: Poster digital/físico que contendrá la imagen del producto así como su precio, además de que las redes sociales serán el principal vínculo entre el producto y el cliente.


CONCLUSIONES

El uso de ácido ascórbico favoreció la calidad del jugo realzando su sabor y evitando una oxidación prematura ayudando a que el color permanezca. De acuerdo a los datos obtenidos la muestra de 10 minutos fue aceptable en las pruebas microbiológicas, Vitamina C, compuestos fenólicos y color, por lo que el tiempo en el que estuvo a altas temperaturas fue el mejor, realzando su color sin perder sus nutrientes Gracias a los estudios y análisis realizados, se llegó a la conclusión  de que la pasteurización por 10 minutos, fue la óptima para que las características generales de la bebida se mantuvieran lo menos alteradas posible. Los análisis microbiológicos para dicha pasteurización (10 minutos), fueron los siguientes: Conteo de mesófilos: <10 Conteo de coliformes en placa: Ausente Conteo de coliformes por la técnica NMP: Ausente Conteo de hongos y levaduras: <10 Por lo que está dentro de norma, según lo establecido en la NOM-130-SSA1-1995, BIENES Y SERVICIOS. ALIMENTOS ENVASADOS EN RECIPIENTES DE CIERRE HERMÉTICO Y SOMETIDO A TRATAMIENTO TÉRMICO. DISPOSICIONES Y ESPECIFICACIONES SANITARIAS. La etiqueta es de una amplia gama de colores los cuales representan la variabilidad de sabores del producto, así mismo contiene el título del producto Yackjuice, el nombre de la compañía y denominación aplicada; debajo puede observarse la imagen del fruto utilizado, el etiquetado nutrimental frontal y el contenido neto. En la parte lateral derecha se puede observar el código de barras y dos insignias, la primera marca Guanajuato y la segunda de hecho en mexico, asi como la fecha de caducidad y el símbolo de tire el envase en su lugar. En la parte lateral izquierda podemos encontrar la tabla nutrimental, los ingredientes además de la empresa que lo elabora y su ubicación. El poster promocional físico/digital muestra una imagen central del producto en cuestión, precio con colores llamativos y el eslogan que atraerá la atención del cliente. 
Trejo Soria Gerardo Ramses, Instituto Tecnológico de Toluca
Asesor: Dr. Pablo Luis López Espí, Universidad de Alcalá (España)

ANáLISIS DE RADIACIóN DE ANTENAS MICROSTRIP POR MODIFICACIONES DE CURVATURA EN MICROWAVE STUDIO CST.


ANáLISIS DE RADIACIóN DE ANTENAS MICROSTRIP POR MODIFICACIONES DE CURVATURA EN MICROWAVE STUDIO CST.

Trejo Soria Gerardo Ramses, Instituto Tecnológico de Toluca. Asesor: Dr. Pablo Luis López Espí, Universidad de Alcalá (España)



PLANTEAMIENTO DEL PROBLEMA

Las antenas microstrip o ``parche" tienen múltiples aplicaciones en las que el tamaño reducido es un factor importante, por ejemplo: aeronática, aviación, sátelites, dispositivos móviles, comunicaciones en general, etc. Este tipo de antenas se utiliza ya que ofrecen la posibilidad de hacer dispositivos cada vez más pequeños y livianos.\ Estas antenas son el resultado de una evolucion que desde sus inicios estuvo regida bajo el principio de realizar diseños de dimensiones reducidas tanto en antenas como en lineas de transmisión que pudieran ser fácilmente acoplados a cualquier dispositivo.Constan de dos conductores separados por  un dieléctrico y un puerto de alimentación. \ Las líneas de microstrip aparecieron publicadas por primera vez en 1952 y tardó en ganar auge, ya que al tener estructuras abiertas tienen amplias pérdidas por radiación y en partícular cuando son utilizadas en substratos de baja permitividad como los que se tenían en aquellos días. Conforme la tecnología fue avanzando y se fueron creando substratos de menores pérdidas, el uso microstrip aumentó ampliamente. Este tipo de antenas tienen desventajas dentro de las que se detaca:  Baja potencia de radiación; Por su estructura no pueden soportar altas potencias en los componentes de una antena microstrip.   Baja eficiencia.   Ancho de banda angosto.  Pérdidas considerables.  Afectadas facilmente por el factor térmico, en especial con substratos flexibles.  



METODOLOGÍA

CST MICROWAVE STUDIO(CST MWS), es el resultado de muchos años de investigación y desarrollo para la obtención de soluciones computacionales precisas de diseños electromagnéticos en 3D. CST MWS proporciona simulaciones electromagnéticas en 3D de una manera rápida y precisa en altas frecuencias. El software ayuda a reducir el tiempo de desarrollo a través de prototipos virtuales antes de las pruebas fisicas y optimización en lugar de experimentación. subsection*{DISEÑO DE LA ANTENA TIPO PARCHE SIMPLE} Para poder tener un parametro de medición utilizando las herramientas de CST studio suite, los cuales se describen acontinuacion:   substrato: se tiene que elegir el material con el que se planea hacer el dieléctrico de la antena, para este ctrabajo se eligió FR-4, el cual es el material con el que se fabrican las placas de cobre. Se tiene que delimitar el tamaño, grosor etc. Masa o plano de tierra: Esta se pone el cara posterior del substrato  se marca en la barra de herramientas con ``Pick Face", y pulsando sobre la cara se selecciona el material, para esta antena se utilizó cobre puro.  item Parche: esá se genera igual que la masa pero en la cara contraria, siguiendo los mismos pasos. Puerto: Es el puerto de alimentación y es muy importante ponerlo en la ubicacion dentro de la antema, ya que con él podemos mejorar el coeficiente de reflexión y el ancho de banda. Para colocarlo se da botón derecho en la antena y click en la opción de ''ports" ahi se desplegara un menú, en el cual debemos poner las medidas del puerto,así como la posicion en el plano del modelado. Ya con el modelo de la antena fabricado lo que sigue es la obtencion del coeficiente de reflexión(S-parameters), la frecuencia de resonancia se debe ajustar con el Puerto para que esta sea de aproximadamente 2.5GHz.  Todos estos parametros sirven para comparar la simulaciones de las antenas que posteriormente se modelaron con ayuda del software CST se  diseñaron con un dobles en toda la antena


CONCLUSIONES

En las simulaciones se puede observar que una antena tipo parche tiene un globo de radiación principalmente en 0° y en 270°, mientras que cuando se empieza a dar una curvatura en la estructura de la antena; se emieza a deformar el globo de radiación, es decir, el lóbulo se modifica y en lugar de que la radiacion tienga una orientación como en la antena plana orignal, se empieza a expandir hacia 180° y 90°. Se puede obserbar de mucho mejor manera al agregar las tres curvas.\ Esto es un resultado interesante, ya que se podria proponer un diseño para controlar la radiación, segun sea conveniente para la aplicación y lugar donde se requiere poner la antena. Se espera poder realizar una prueba fisica para concluir con la experimentación, para así, poder encontrar alguna aplicación
Trejo Trejo Dalet, Universidad Autónoma del Estado de Hidalgo
Asesor: Dr. Fernando Hernández Aldana, Benemérita Universidad Autónoma de Puebla

GENOTOXICIDAD EN AGUAS RESIDUALES Y TRATADAS


GENOTOXICIDAD EN AGUAS RESIDUALES Y TRATADAS

Trejo Trejo Dalet, Universidad Autónoma del Estado de Hidalgo. Asesor: Dr. Fernando Hernández Aldana, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Título: Genotoxicidad de aguas tratadas y residuales Asesor: Dr. Fernando Hernández Aldana, Benemérita Universidad Autónoma de Puebla Estudiante: Dalet Trejo Trejo, Universidad Autónoma del Estado de Hidalgo   Planteamiento del problema A nivel nacional la contaminación del agua es un problema homogéneo, debido a las altas concentraciones de los desechos generados por la población. La ciudad de Puebla se desarrolló entre diversos ríos, uno de ellos el Alseseca que atraviesa gran parte de la zona sur oriente de la ciudad, siendo así un recurso que facilito el desarrollo económico y social, pero aumento de la población genero problemas de contaminación del agua resultado del  mal manejo de los desechos municipales e industriales, afectando a su vez la flora y fauna, propiciando el desequilibrio de los ecosistemas y del medio ambiente, además de las implicaciones que esto puede tener en la salud de las poblaciones aledañas a lo largo de toda su cuenca que cruza el municipio de norte a sur.



METODOLOGÍA

Se utilizaron dos ratas macho de la cepa wistar, las cuales se mantuvieron en jaulas de plástico con aserrín, con libre acceso de alimento sumistrándoles  75 mL  de agua fitorremediada proveniente de la planta Agua de Puebla para todos la cual se encarga del tratamiento del Rio Alseseca. Los dos ejemplares de la cepa wistar fueron expuestos puesto a la ingesta de agua fitorremediada duante treinta días, monitoriando peso y volumen de agua ingerido diariamente. Una vez concluido el tiempo de administración del agua, las ratas fueron sedadas para realizar un estudio sanguíneo. Para ello los animales son anestesiados con pentobarbital sódico. Una vez anestesiados los animales, se realizó la toma de 4 mL de sangre por succión directa en el corazón del roedor. Posteriormente se realizo el ensayo cometa. 


CONCLUSIONES

La sangre de los ratones de primera instancia se percibió más oscura aunada a una coagulación acelerada en comparación con la de ratones control, por lo que a nivel molecular nos sugiere cambios en el material genético.  
Treviño Trujillo Juan José, Instituto Tecnológico de Culiacán
Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez

DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES


DISEñO AEROESPACIAL: ELECTRóNICA DE COHETES

Baños Hinojosa Paulina Berenice, Instituto Politécnico Nacional. González Rivas Jesús Ramiro, Instituto Tecnológico de Culiacán. Treviño Trujillo Juan José, Instituto Tecnológico de Culiacán. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Un cohete es un vehículo, aeronave o nave espacial que obtiene su empuje por la reacción de la expulsión rápida de gases de combustión desde un motor cohete (motor de reacción que genera empuje mediante la expulsión de gases que provienen de la cámara de combustión). Carlos Duarte Muñoz, 2018. El principio de funcionamiento del motor de cohete se basa en la tercera ley de Newton, la ley de la acción y reacción, que dice que "a toda acción le corresponde una reacción, con la misma intensidad, misma dirección y sentido contrario". La importancia de estos vehículos radica en dos características: su capacidad de alcanzar grandes velocidades y aceleraciones y poder funcionar en el vacío, al igual que a través de ellos investigar sobre los distintos fenómenos en el espacio y así experimentar mediante el lanzamiento de carga útil. Es por eso que la electrónica de cohetes es fundamental para cumplir estos objetivos de investigación, ya que con ella se puede obtener datos específicos a través de distintos tipos de sensores y artefactos electrónicos, como la ubicación, velocidad, aceleración, temperatura, presión, entre otros. Dentro de nuestro proyecto haremos uso de ella para la adquisición de datos de la IMU y GPS. La principal herramienta utilizada en el desarrollo de nuestro proyecto es la unidad de medida inercial (IMU) desarrollada especialmente para ser utilizada en cohetes de agua y aire comprimido. La IMU desarrollada cuenta con 10 grados de libertad, la selección de los sensores fue realizada teniendo en cuenta las características de vuelo de nuestro cohete. Para obtener estas variables es necesario programar cada uno de los componentes de acuerdo a las necesidades del cohete. El principal obstáculo en nuestro proyecto es la creación de un código que se apegue a las especificaciones del acelerómetro y al Sistema de Posicionamiento Global (GPS) al igual que el correcto almacenamiento de los datos, por lo que durante el verano, se estudiarán la características de cada uno de estos componentes, utilizando el lenguaje de programación en Arduino.



METODOLOGÍA

Componentes utilizados: -Acelerómetro de 9 ejes JY901 (Wit Motion) -Adafruit Ultimate GPS Logger Shield (Adafruit) -Arduino UNO R3 de Steren -Tarjeta microSD de 8GB El ensamble del circuito se hizo teniendo como base el Arduino UNO, al cual se le acopló de manera directa el GPS y sobre el se soldó el GPS. Las librerias usadas para laprogramacion de los comonentes son: "Adafruit_GPS.h", "JY901.h" y "avr/sleep.h". La información que se requería obtener del acelerómetro fue: -Aceleración, Velocidad, Posición, Ángulo  todos en los 3 ejes(x,y,z) Los 3 datos que se obtienen de manera directa del acelerómetro son las 3 aceleraciones, entonces para obtener las 3 velocidades se filtro por el método de pasa bajas del trapezoide para obtener los datos de aceleración suavizada, y después se integraron estos datos para obtener las tres velocidades deseadas. Para obtener la posición en los 3 ejes, se siguió el mismo paso de integración en la velocidad. Lo siguiente es el módulo GPS del circuito. Este componente trabaja a una frecuencia máxima de 10Hz, pero debido a la aplicación que se le va a dar se optó a trabajar con el a la frecuencia por defecto que tiene (1Hz). Este componente nos sirvió para obtener dos tipos de enunciados usados por la NMEA (National Marine Electronics Association, o la Asociación Nacional de Electrónica de la Marina): los enunciados GGA y RMC.  Lo último sería la adquisición de datos en la tarjeta SD, lo cual se logró generando dos archivos dentro del código: un archivo .csv para los datos del acelerómetro y un archivo .txt para los del GPS. Los datos se guardan en la tarjeta SD.


CONCLUSIONES

Durante la estancia de verano se logró adquirir diversos conocimientos teóricos y prácticos acerca de la electrónica que debe de tener un cohete para el censado de su aceleración, velocidad, posición, ángulos de giro, así como también su geolocalización, así como también el desarrollo del programa que tomará estas lecturas junto con los sensores usados, los datos obtenidos en pruebas de laboratorio, tanto como de la IMU como del GPS son los siguientes; 0.08/-0.06/0.97/0.03/-0.02/0.33/0.01/-0.01/0.11/-4.08/-3.62/-8.32 Los datos anteriores muestran aceleración, velocidad, posición y ángulos de inclinación, tomando para cada uno 3 casillas las cuales representan en cada uno de ellos (X, Y, Z) respectivamente, (lectura prueba acelerómetro). $GPRMC,020825.000, A,3144.9771, N,10625.4068, W, 0.61, 98.31, 110719, A*4ª Lo anterior nos proporciona; Hora (GMT) (020825.000), Latitud (3144.9771, N), Longitud (10625.4068, W),     Velocidad del viento en nudos (0.61), Angulo de ataque (98.31), Fecha (110719), (lectura prueba GPS). La realización de este proyecto proporciono conocimiento sobre algunos aspectos que se tiene que tomar en cuenta para el censado en el lanzamiento de un cohete, así como también, la utilización correcta de ambos sensores y su programación, adjuntando a esto el procesamiento y filtrado de datos para la obtención de muestras más limpias.  A pesar de la dificultad y de algunos contratiempos que se presentaron durante la realización del proyecto, su conclusión fue un éxito ya que después del montado del circuito en el cohete y efectuado su lanzamiento, se pudieron obtener los datos en la tarjeta micro SD preestablecida para el guardado de los datos del monitoreo en la cual se guardaron los dos formatos de archivos .CSV y .TXT registrado en el primero de ellos los datos del desplazamiento y el segundo los datos de la geolocalización listos ya para ser procesados con las herramientas establecidas.
Trujillo Silva Laura Patricia, Instituto Tecnológico Superior de Tacámbaro
Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)

CARACTERIZACIÓN DE PANELES SOLARES FOTOVOLTAICOS DE PELÍCULA DELGADA EN LA CIUDAD DE MANIZALES: INCIDENCIA EN EL ÁNGULO DE INCLINACIÓN


CARACTERIZACIÓN DE PANELES SOLARES FOTOVOLTAICOS DE PELÍCULA DELGADA EN LA CIUDAD DE MANIZALES: INCIDENCIA EN EL ÁNGULO DE INCLINACIÓN

Trujillo Silva Laura Patricia, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Francy Nelly Jiménez García, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Las energia renovables, son aquellas que pueden ser inagotables o se regeneran por si solas, una de ellas es la energía solar fotovoltaica que transforma de manera directa la luz solar en electricidad empleando el efecto fotovoltaico. El objetivo de este trabajo es determinar la incidencia del ángulo de inclinación de un panel de película delgada de silicio sobre su eficiencia en condiciones de radiación y temperatura de la ciudad de Manizales, Colombia. 



METODOLOGÍA

Se tomaron las curvas corriente -voltaje a diferentes ángulos y radiaciones durante cuatro semanas. Se ajustaron las curvas con el modelo de un diodo simple para obtener los parámetros y calcular la eficiencia del panel.


CONCLUSIONES

Se encontró que este panel arroja altos voltajes, funciona mejor a radiaciones mayores de 450 w/m2, presenta desempeños adecuados aun para ángulos de inclinacion alto (60° a 90°) y su eficiencia a las condiciones del sitio estuvo alrededor de 9.6%.
Trujillo Teran Alexis, Instituto Tecnológico de Iguala
Asesor: M.C. Ma. del Rosario González Santamaría, Instituto Tecnológico de Iguala

ANáLISIS DEL COHORTE GENERACIONAL 2015 DE LA CARRERA DE INGENIERíA EN GESTIóN EMPRESARIAL PARA EL DISEñO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.


ANáLISIS DEL COHORTE GENERACIONAL 2015 DE LA CARRERA DE INGENIERíA EN GESTIóN EMPRESARIAL PARA EL DISEñO DE ESTRATEGIAS DE LA MEJORA EDUCATIVA.

Cuenca Martinez Lizeth, Instituto Tecnológico de Iguala. Trujillo Teran Alexis, Instituto Tecnológico de Iguala. Asesor: M.C. Ma. del Rosario González Santamaría, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Esta investigación se lleva acabo para identificar las causas por la cuales los alumnos de la carrera de Ingeniería en Gestión Empresarial no culminan su carrera en esta institución, analizando a fondo los índices de reprobación, deserción, rezago y eficiencia terminal. Dicha investigación se realiza dentro del plantel, abarcando la generación 2015, esperando obtener los resultados necesarios para que estos sean analizados y se emitan las propuestas adecuadas para que de esta manera se evite la deserción de los alumnos. Para ello se aplicaron encuestas en las cuales los alumnos expresaron las causas que conllevan esta deserción, graficando los resultados obtenidos para analizar cuál es la causa principal que hace que esta situación se presente en el instituto tecnológico de iguala.  Después de obtener los resultados propuestos por los alumnos se plantearon estrategias que sirvan como base para atender las causas que provocan esta deserción y de esta manera lograr reducir o erradicar el problema, mediante las acciones que la misma institución lleva acabo respecto a lo propuesto en este proyecto.  Buscando que se incremente el índice de eficiencia terminal y por ende concluir su titulación.



METODOLOGÍA

Diseño y elaboración de la encuesta. •    Se formularon las preguntas para la encuesta, luego se elaboró el diseño de la misma en google. Aplicación de la encuesta: •    Estudiantes de la carrera de Ingeniería en Gestión Empresarial de 2° a 8° semestre dieron respuesta a la encuesta que se les aplicó en el Laboratorio de Programación, acompañados de un investigador docente y un estudiante asesorado.  Actualización de datos estadísticos por cohorte generacional. •    Se nos otorgó un usuario y contraseña por las autoridades correspondientes del Instituto para poder ingresar al portal del SII y obtener datos específicos de cada estudiante del cohorte generacional 2015. Una vez accesado se revisó la situación académica de los estudiantes por medio de su retícula y kardex. Se actualizó la información de la base de datos en una matriz concentradora. Análisis e interpretación de la información obtenida. •    Con la información recabada de las encuestas se graficó cada una de las preguntas para analizar a detalle los problemas a los que se enfrentan los estudiantes. Análisis comparativo de las estrategias implementadas por la institución. •    En equipo se hizo la comparación de las estrategias que ya aplica el Instituto y que no han funcionado en su totalidad. Análisis FODA. •    Se realizó en equipo un análisis FODA de las fortalezas que tiene el Instituto, las debilidades que se tienen, las oportunidades que se presentan y las amenazas que atentan a los estudiantes.  


CONCLUSIONES

El tema que se estudió es la deserción, rezago y eficiencia terminal  en la formación inicial de futuros ingenieros; a partir de reconocer el incremento en los últimos años del número de alumnos que viven esta situación en su recorrido escolar de formación académica, en la universidad observada. Particularmente, resultó llamativo identificar que casi la totalidad de una sección de una cohorte fue sufriendo desgranamiento en su matrícula inicial hasta casi desaparecer. A ello se agrega, el reconocimiento dentro de la Institución, de bajos niveles de rendimiento en evaluación, así como dificultades en la comprensión de textos, diversidad cultural y cognitiva en el alumnado, y ciertos aspectos de la organización escolar que consideramos inciden de algún modo en el problema que interesa abordar.  Para ello se tomó como referente a la cohorte 2014 de la carrera de Ing. En Gestión Empresarial del Instituto Tecnológico de Iguala, a partir de la construcción de una muestra, realizando encuestas y estudios de investigación en línea a profundidad.  Por otra parte, producir conocimientos referidos a las características que esta problemática adquiere una importancia relevante dada las pocas investigaciones sobre formación académica que hay en nuestro país. Sin dejar de lado, las connotaciones sociales, psicológicas y económicas que la deserción, rezago, eficiencia terminal y titulación tienen para los alumnos, el sistema educativo y la sociedad. Ello significaría un aporte importante para pensar estrategias de intervención asertivas y superadoras de problemas existentes a la vez que permitiría dar impulso a la tarea de producción de conocimientos a través de la investigación en un Instituto Tecnológico de México. Se propondrá un plan estratégico para la mejora educativa.  
Ugarte Fragoso Hugo, Universidad Politécnica del Valle de México
Asesor: Dr. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México

FATIGA CON RELACIóN A LA CAPACIDAD PULMONAR EN ESTUDIANTES DE LA UNIVERSIDAD POLITéCNICA DEL VALLE DE MéXICO.


FATIGA CON RELACIóN A LA CAPACIDAD PULMONAR EN ESTUDIANTES DE LA UNIVERSIDAD POLITéCNICA DEL VALLE DE MéXICO.

Ugarte Fragoso Hugo, Universidad Politécnica del Valle de México. Asesor: Dr. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México



PLANTEAMIENTO DEL PROBLEMA

La presente es una investigación de tipo descriptiva experimental transversal a cerca de la Fatiga con relación a la Capacidad Pulmonar en estudiantes de la Universidad Politécnica del Valle de México., evaluar este aspecto en una muestra de estudiantes con respecto a ciertas variables como los  hábitos alimenticios, actividades que puedan dañar los pulmones, etc., saber si existe algún daño a la salud a corto o largo plazo; Estos problemas son desencadenados debido a los malos hábitos que existen, vicios como fumar y daños mediante el entorno como lo son la contaminación ambiental juegan un papel fundamental en este tipo de estudios. Se llevarán a cabo la aplicación de métodos de evaluación ergonómica, específicamente en la evaluación de la fatiga de acuerdo a la Norma Oficial Mexicana NOM-035-STPS-2018 que se enfoca a factores psicosociales entre ellos la fatiga,



METODOLOGÍA

Se realiza una prueba en donde alumnos de dos grupos completos de ingeniería industrial de 6to cuatrimestre y un grupo completo de 4to cuatrimestre de la carrera de ingeniería en logística de la Universidad Politécnica del Valle de México, los grupos son seleccionados aleatoriamente. Se les aplica un cuestionario que solicita datos como su edad, si desayunaron o no el día de la prueba, si son fumadores, nombre completo y se realiza una medición de su capacidad pulmonar utilizando un espirómetro, se recopilan los datos antes mencionados y solicita a los estudiantes participantes realizar una prueba física en donde deben correr, trotar o caminar sin parar alrededor de una cancha previamente medida y marcada cada metro de distancia, esta prueba se realiza durante 10 minutos, tomando el número de vueltas realizadas y haciendo la coversión a metros, posteriormente se realiza la medición nuevamente con el espirómetro y se registran los datos obtenidos para poder determinar la capacidad pulmonar después de la actividad física.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos de las enfermedades que generan afecciones en los pulmones y en su capacidad, también el cómo nuestros malos hábitos logran afectarnos de manera directa sin conocerlo o ignorandolo totalmente, se realiza una campaña para que la gente pueda conocer mas sobre este tema, sin embargo, la concientización es un trabajo bastante muy grande y de gran insistencia pero que genera resultados a largo plazo, se implementaran medidas para que este problema disminuya y las personas puedan tener una mejor calidad de vida, una salud mejor conservada para aumentar su productividad y reducir los problemas de fatiga.
Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
Urbina Fernandez Jose, Instituto Tecnológico Superior de Huauchinango
Asesor: Mtro. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango

APPITSH


APPITSH

Marquez Hernandez Jessica Jazmin, Instituto Tecnológico Superior de Huauchinango. Urbina Fernandez Jose, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Cupertino Luna Trejo, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

Actualmente el Instituto Tecnológico Superior de Huauchinango  cuenta con un sitio web, el cual está disponible para el público en general y a la cual los alumnos pueden acceder para poder hacer distintas consultas, para ello tienen que ingresar desde un navegador web por medio de un dispositivo de escritorio, portátil o móvil. Las consultas más frecuentes que realizan los alumnos es la de calificaciones, kardex, carga académica, noticias y eventos que se han llevado a cabo en el instituto. Para poder realizar las consultas de una forma más fácil se ha planteado el desarrollo de una aplicación para dispositivos móviles que tiene como objetivo mejorar la experiencia de los alumnos del Instituto; como sabemos hoy en día la mayor parte de la población cuenta con un dispositivo móvil personal con el cual interactúan todo el día en sus tareas cotidianas, y está planteada para que los alumnos del instituto puedan hacer la consulta de calificaciones, Kardex, eventos y noticias de una forma práctica. Sabemos que en la actualidad las aplicaciones móviles son hoy en día una de las herramientas de comunicación que estará al alcance de cualquier usuario a largo plazo cumpliendo satisfactoriamente su función. El progreso de la tecnología móvil brinda disponibilidad y acceso a Internet de alta velocidad; por supuesto la notable interfaz de comunicación en estos dispositivos dan como resultado un nivel completo de experiencia e innovación en la informática móvil.



METODOLOGÍA

Para detallar el flujo y el comportamiento de la aplicación inicialmente se comenzó con la elaboración de los diagramas de caso de uso, para esto no se utilizó alguna herramienta o programa de software. Principalmente para la app, los contextos en la que ésta podría estar ya sean en un estado abierto (Primer plano) o cerrado (Segundo plano). En segundo, los contextos para la página web, así mismo se realizaron diagramas para la base de datos. Teniendo un diagrama de flujo y control del funcionamiento del sistema detallado y preciso, se continuó con el desarrollo de la base de datos para el registro de los alumnos. De igual forma se desarrolló una base de datos para simular el sistema de datos del Instituto Tecnológico Superior de Huauchinango y así representar las calificaciones, kardex, carrera, semestre, etc. Propias del alumno. Para la creación de las bases de datos se utilizó el sistema gestor MySQL y como servidor de las Notificaciones Push, se optó por utilizar Firebase en plan Spark. Para poder crear el modelado y maquetado de la app y la página web se utilizó Adobe XD en donde se construyeron las interfaces que cada módulo conlleva, después de esto se inició con la creación y pruebas de los servicios web y al mismo tiempo el desarrollo del sitio web con las herramientas y/o tecnologías que se enlistan a continuación: Apache http Server PHP Sublime Text Postman HTML CSS JS Posteriormente se puso en marcha el desarrollo la app, para ello se utilizó el IDE de Android Studio bajo el patrón de arquitectura MVC (Modelo Vista Controlador) y como gestor de datos se utilizó Sqlite. Para el consumo de los servicios web en la aplicación se usó la biblioteca de terceros llamada Volley. Por último, también fueron utilizadas otras herramientas externas como por ejemplo Android Asset Studio para la edición de algunos iconos y NetBeans para la ejecución rápida de algunos bloques de código.


CONCLUSIONES

Con el desarrollo del proyecto se espera contar con una aplicación móvil inédita en el ámbito universitario, que permitirá a los beneficiarios contar con información pertinente en cualquier momento y desde cualquier lugar. La difusión dentro de la comunidad universitaria y posteriormente su réplica en otras instituciones seguramente generará nuevos requerimientos que podrán ser plasmados en futuras versiones del aplicativo. Las áreas de gestión de la universidad contarán con una herramienta de alto valor agregado a las soluciones informáticas que actualmente poseen en pos de brindar un mejor servicio a sus usuarios.
Urista Márquez Diana Violeta, Universidad de Guadalajara
Asesor: Dr. David Alejandro Hernandez Velazquez, Universidad de Guadalajara

DETERMINACIóN DE LA ACTIVIDAD ANTIOXIDANTE DE DISTINTAS MOLéCULAS POR MEDIO DE UN ESTUDIO DFT.


DETERMINACIóN DE LA ACTIVIDAD ANTIOXIDANTE DE DISTINTAS MOLéCULAS POR MEDIO DE UN ESTUDIO DFT.

Urista Márquez Diana Violeta, Universidad de Guadalajara. Asesor: Dr. David Alejandro Hernandez Velazquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los radicales libres son sustancias químicas con alta capacidad de reaccionar con otras moléculas debido a sus electrones desapareados. Estos radicales libres se producen durante el metabolismo celular y tienen funciones importantes en la transportación de iones, expresión de genes y apoptosis. Sin embargo, es necesario que sean controlados mediante mecanismos antioxidantes, ya que cuando ocurre un desequilibrio en estos. Los radicales libres pueden atacar a las bases de los ácidos nucleicos, cadenas de proteínas y causar estrés oxidativo que puede afectar el DNA o RNA, resultando en enfermedades cardiovasculares, cáncer u otras afecciones. Por eso, en este trabajo se desarrolló una investigación de posibles sistemas antioxidantes que pudieran ayudar a controlar los radicales libres y prevenir daños en la salud.



METODOLOGÍA

Se seleccionaron 5 moléculas de interés, y estas fueron estudiadas de acuerdo a sus propiedades electrónicas derivadas de la Teoría del funcional de la densidad (DFT). Se analizaron dos de los mecanismos más importantes de los antioxidantes, los cuales son la transferencia de un electrón y la transferencia de un átomo de hidrogéno, todo en comparación con valores reportados del fenol y otros antioxidantes famosos.


CONCLUSIONES

Del presente trabajo se logró identificar por cual de los dos mecanismos antioxidantes funciona mejor cada molécula, se determinó que la mejor de ellas fue la Fenidona, la cual presentó resultados muy parecidos a los del fenol, además de otros anitioxidantes como el Trolox y el ácido cafeico.
Urquidez Beltrán Alejandro, Instituto Tecnológico de Culiacán
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO


ANáLISIS DE LA ACTIVIDAD ESTOMáTICA EN PLANTAS CON POTENCIAL HíDRICO

Arias Ramírez José Ramón, Instituto Tecnológico de Culiacán. Castro Uribe Kevin, Instituto Tecnológico de Culiacán. Urquidez Beltrán Alejandro, Instituto Tecnológico de Culiacán. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Al realizar mediciones de variables fisiológicas en pantas como potencial hídrico, y actividad fotosintética, la apertura y cierre estomática altera fuertemente estas mediciones, de tal manera que se requiere analizar la actividad estomática que tiene la planta bajos diferentes estímulos externos, para poder compensar las mediciones de las variables mencionadas.



METODOLOGÍA

Para conocer el método más factible para la visualización de una estoma hicimos pruebas con pedazos de hojas de distintas plantas. Para la visualización de las estomas en una hoja viva y sin estrés alguno se utilizó un microscopio para poder determinar cuándo una estoma estaba abierta o cerrada, se le dieron pulsos de luz infrarroja, ultravioleta y luz verde, también se le aplicó calor y se mojó la planta para ver las distintas reacciones usando diferentes métodos; intercalando luz, calor o humedad. Cuando se determinó que la estoma se cerraba o abría se tomaban fotografías con la cámara infrarroja en el área que se estaba analizando con el microscopio. El microscopio es digital VELAB VE-D10 con el aumento de 350x. Para tomar las termografías se utilizó una cámara Gobi-640-GigE con un lente de 18 mm.


CONCLUSIONES

La visibilidad de una estoma varía mucho dependiendo el tipo de planta y tamaño de hoja, se espera obtener datos específicos sobre los estímulos que hacen a una estoma abrirse o cerrarse, que, a su vez, nos dará información sobre las condiciones en que una planta lleva a cabo la fotosíntesis. Con la ayuda de una cámara termográfica, se desea ver la reacción térmica de la planta cuando esté realizando la fotosíntesis.
Valderrama Celestino Cassandra, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México

BIOSINTESIS DE NANOPARTÍCULAS DE PLATA A PARTIR DEL EXTRACTO HIDROALCOHOLICO DE LAS HOJAS DE BRYOPHYLLUM DELAGOENSE


BIOSINTESIS DE NANOPARTÍCULAS DE PLATA A PARTIR DEL EXTRACTO HIDROALCOHOLICO DE LAS HOJAS DE BRYOPHYLLUM DELAGOENSE

Valderrama Celestino Cassandra, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen gran variedad de aplicaciones de la nanotecnología en diversas áreas como en la biomedicina, industria de alimentos, tratamiento de aguas, entre otras. En los últimos años el uso de nanopartículas metálicas ha ido en aumento, debido a su escala nanométrica, los materiales pueden adquirir o realzar propiedades a los que tienen escala macroscópica.           Una de las ramas de la nanotecnología es la nanomedicina, la cual busca la aplicación de nanomateriales para el diagnóstico, tratamiento y prevención de enfermedades. Es por ello que se tiene como propósito dar estructuras específicas a los nanomateriales sintetizados. Dentro de las nanopartículas metálicas, las nanopartículas de plata han acatado mayor atención por su fuerte actividad antimicrobiana y propiedades ópticas, eléctricas, mecánicas y estructurales, y su fotoactividad; lo que lo permite ser usado en sistemas como biosensores, medios de contraste para imágenes médicas y sistemas de detección molecular.           Para la síntesis de nanopartículas metálicas existen métodos en los que se emplean agentes reductores. Aunque la síntesis y el estudio de propiedades de  nanopartículas de plata presentan gran  interés para la preparación de nanomateriales basados en este metal. Es por ello que se han empleado métodos de síntesis que permiten la las nanopartículas de plata se estabilicen, mantengan sus propiedades y puedan modificar su estructura para diversos fines.           Debido al impacto que tiene la síntesis de estos materiales en el medio ambiente se está buscando nuevas alternativas para la producción de nanopartículas, como la síntesis verde, que es amigable con la naturaleza y producen menos cantidad de desechos tóxicos.



METODOLOGÍA

Preparación del extracto hidroalcohólíco de las hojas de Bryophyllum Delagoense. Se preparó una solución de 150 ml agua/etanol en proporción 85:15 v/v. Se agregaron en un matraz de fondo redondo la solución hidroalcoholica y 10 gramos de hojas de la planta Bryophyllum Delagoense. Se montó el equipo soxhlet y estuvo en reflujo durante una hora. El extracto obtenido fue filtrado para retirar las hojas residuo de la planta presentes en extracto.   b. Biosíntesis de las nanopartículas de plata. Se preparó una solución precursora de 100 ml de nitrato de plata 2.5 mM. En un vaso de precipitados se agregó el extracto de Bryophyllum Delagoense obtenido, este se colocó en una parrillapara mantenerlo a una temperatura constante promedio de 30°C con un agitador magnético para mantenerlo en agitación. Se agregó la solución precursora gota a gota al extracto, y se realizaron tres muestras con distintas proporciones solución precursora/extracto, 1:1, 1:2 y 2:1. La proporción elegida es solución precursora/extracto 1:2. Se mantuvo agitando durante aproximadamente una hora para finalmente dejarlo reposar hasta el día siguiente. Se realizaron lavados a cantidades de las muestras de NP’sAg sintetizadas con tolueno y dimetilsulfóxido para retirar los residuos orgánicos que dejó el extracto. c. Pruebas de Caracterización. Se realizaron pruebas de caracterización para apreciar las propiedades de las nanopartículas de plata sintetizadas, tales como: Difracción de Rayos - X, Espectroscopia de Infrarrojo, Microscopía Electrónica de Barrido, Espectrofotometría de UV- visible. d. Aplicación en la Absorción de Colorantes. Se realizaron soluciones de Azul de Metileno a 3 ppm, Borohidruro de Sodio a 1 mg/ml. En celdas se variaron las cantidades de Azul de Metileno, Borohidruro de Sodio y solución diluida de NP’s Ag. Las concentración un poco más favorecedora para observar la absorción fue de 1.5 ml de azul de metileno, 200 microlitros de borohidruro de sodio y 100 microlitros de NP’s Ag aforadas a 200 microlitros.


CONCLUSIONES

Con ayuda de las pruebas de caracterización se pudo observar la presencia de las NP’s Ag como producto de la síntesis verde, confirmando que si es un método viable para la producción de nanopartículas metálicas, aunque en la microscopía electrónica de barrido se apreció que sin los lavados con los solventes inorgánicos las muestras si presentan residuos orgánicos del extracto de la planta. En la absorción de colorantes, se confirmó que las NP’sAg si alteran y favorecen las propiedades del borohidruro de sodio en el mecanismo de reducción del azul de metileno. Ya que al agregar más cantidad de NP’s Ag, la absorción es más rápida.  
Valdes Hurtado Valdes Hurtado Hector, Universidad Autónoma del Estado de México
Asesor: C. Katherine Isabel Hernández Rodriguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)

PROCESO DE RECICLAJE DEL POLíMERO PET PARA DISEñO Y CONSTRUCCIóN DE UNA CARCASA DE UN COMPUTADOR VISUALIZANDO UNA IDEA DE NEGOCIO.


PROCESO DE RECICLAJE DEL POLíMERO PET PARA DISEñO Y CONSTRUCCIóN DE UNA CARCASA DE UN COMPUTADOR VISUALIZANDO UNA IDEA DE NEGOCIO.

Limon Hernandez Martin Alejandro, Universidad de Guadalajara. Valdes Hurtado Valdes Hurtado Hector, Universidad Autónoma del Estado de México. Asesor: C. Katherine Isabel Hernández Rodriguez, Servicio Nacional de Aprendizaje SENA - Regional Atlántico (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Los residuos de aparatos eléctricos y electrónicos (R.A.E.E.) son cada vez más numerosos en nuestras vidas: electrodomésticos, equipos de informática y telecomunicaciones entre otros, que a pesar de los esfuerzos realizados por los gobiernos se mantienen las practicas inadecuados de recolección, disposición y reciclaje sobre todo en el sector industrial, o planteles educativos siendo estos los mayores consumidores de estos equipos generando residuos con gran impacto negativo al ambiente. En 2016, el mundo generó 44,7 millones de toneladas métricas (Mt) de RAEE, de los cuales:  Solo el 20% (8,9 Mt) se recicló a través de los canales apropiados.  El 4% (1,7 Mt) de desechos electrónicos en los países de mayores ingresos se recoge.  Pero se desconoce el destino del 76% (34,1 Mt) de los desechos electrónicos; es probable que vayan a vertederos, o bien sean comercializados o reciclados en condiciones inferiores. Se espera que la cantidad de desechos electrónicos aumente, a nivel global, a 52,2 millones de toneladas métricas, o 6,8 kg / habitante, para el año 2021, dicho por Alexandra Farbiarz Mas, Comunicóloga, especializada en Biotecnología y Medio Ambiente.  



METODOLOGÍA

A partir de los estudios mostrados en diversos artículos sobre reciclaje de platicos, tanto polímeros del petróleo como bioplásticos y plásticos biodegrádales, se analizó y buscó la mezcla del polímetro PET adicionado con aditivos metálicos con el objetivo de encontrar los porcentajes de masa de cada componente de la mezcla que fuera el de mayor eficiencia de sus propiedades mecánicas en el uso y fabricación de una carcasa para computador.  El diseño del proceso de reciclaje realizado desde de su recuperación, reducción, limpieza hasta la obtención de pellets óptimos para su extrusión, inyección en moldes o impresión 3D con ayuda de sistemas automáticos y sistemas CAD CAM, se realizo con el trabajo de modélalo de todos los elementos y ensambles necesarios para la fabricación de la maquinaria con cualidades de sencillez, versatilidad y economía para este proceso. Para crear una idea de negocios e implementarla en la carcasa para computador se investigaron varios pasos a seguir: Se inició con los requisitos que la carcasa debe cumplir para que sea viable y se tendió a analizar si las características de esta carcasa solucionaban un problema no resuelto o que impacto tenia, también se analizó la rentabilidad y también si la carcasa es innovadora. Se analizó la viabilidad y la puesta en marcha del producto, fue aquí donde se hizo una búsqueda de mercado, los posibles clientes y propuesta de valor. Por último, se analizó la competencia y fue ahí donde nos dimos cuenta que la carcasa para computadores es viable, se denotó que empresas tecnológicas han incursionado en el desarrollo de proyectos de reciclaje para portátiles nuevos, sin embargo, aún es una industria con baja competencia.  


CONCLUSIONES

Hector Valdes Hurtado: El diseño de producto y diseño de proceso de reciclaje tiene objetivos ambiciosos y es el deseo de los participantes continuar desarrollando el proyecto con el fin de encontrar los factores óptimos viables para su implementación al mercado como proyecto de innovación al terminar el periodo del programa de investigación Delfín 2019. La participación en el verano de investigación dentro del programa Delfín ha tenido una meta muy importante que es engrandecer la pasión e interés de nuevos investigadores y divulgadores que serán los futuros desarrolladores de conocimientos y técnicas. Este practica es una herramienta para generar oportunidades personales académicas y laborales profesionales con el objetivo en mente de realizar un posgrado en alguna institución extranjera.    Martin Alejando Limón Hernández: En el transcurso de esta investigación trabajé a la par con un ingeniero mecánico quien se encargó de estudiar las propiedades mecánicas del PET a partir de adición de aditivos para su mejoramiento, así mismo yo estuve analizando los posibles mercados y la competencia de la carcasa para computador y de esta forma crear una idea de negocios y posteriormente darle continuidad al producto. Es fundamental destacar la importancia que debe existir entre profesiones completamente diferentes compartiendo conocimientos para afinar y hacer viable una idea. Hoy en día trabajar en proyectos para la reducción de contaminantes es sumamente importante ya que es un problema global, lo importante es empezar antes de que sea demasiado tarde y este proyecto es una semilla factible porque su materia prima proviene de la basura y de esta forma sustenta una necesidad tecnológica que tiene que crecer y evolucionar para bien con la reducción de PET y creación de nuevos productos en el futuro.
Valdez López Marco Augusto, Instituto Tecnológico de Tepic
Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla

EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN


EVALUACIóN DEL PROCESO DE DEGRADACIóN DE CONTAMINANTES MEDIANTE FITORREMEDIACIóN

Aranda Vázquez Adriana Guadalupe, Instituto Tecnológico de Tepic. Ceras Flores Norma Paulina, Universidad de Guadalajara. Ortega Montes Ximena Guadalupe, Instituto Tecnológico de Tepic. Sánchez Cervantes Itzel Jocelyn, Instituto Tecnológico de Tepic. Valdez López Marco Augusto, Instituto Tecnológico de Tepic. Asesor: Dr. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

La fitorremediación es una tecnología que utiliza plantas, hongos y semillas para la remediación de agua y suelo contaminados. Consiste en la remoción, transferencia, estabilización y/o degradación y neutralización de compuestos orgánicos, inorgánicos y radioactivos. Es una tecnología de bajo costo, posee un impacto regenerativo en áreas donde se aplica y su capacidad extractiva se mantiene debido al crecimiento vegetal. Las emisiones de dióxido de azufre y óxidos de nitrógeno, que se emiten a la atmósfera mediante fuentes naturales y antropogénicas, originan la lluvia ácida (compuesta por ácido sulfúrico y nítrico), ésta cambia la composición del suelo y desplaza los metales pesados hacia las aguas subterráneas, aumentando su toxicidad e imposibilitando su consumo. Además, los ácidos disminuyen el PH de los acuíferos dulces lo que afecta al desarrollo de la fauna acuática. Según el Registro de Emisiones y Transferencia de Contaminantes (RETC) que se aplica en 17 países, México es el primer lugar (de los países en vías de desarrollo) en la utilización de ácido sulfúrico.  Otra gran problemática actual del ácido sulfúrico en nuestro paíes es el derrame de 3 mil litros de éste el pasado 9 de julio del 2019 en el Mar de Córtés, en la bahía de Guaymas.  Varios compuestos derivados del azufre son nocivos en el medio ambiente, tales como el sulfuro de hidrógeno, disulfuro de carbono o dióxido de azufre Durante el verano de investigación se estudian las capacidades de biorremediación de Crassula ovata en un sitio contaminado por ácido sulfúrico y una Zinnia elegante en un sitio contaminado por azufre.  



METODOLOGÍA

- Preparación de la tierra  Se usó tierra del lago de la BUAP, donde nuestra base fue 500 gramos para cada bolsa siendo las proporciones de esta 91% de tierra y 9% de aserrín, esta relación se usó para las plantas zinnia elegante, las cuales necesitaron de 17 bolsas en total, que contenían 2 blancos y 3 bolsas por cada concentración de contaminante usado los cuales fueron 5. Para la planta suculenta prepararon sólo 5 bolsas con una relación de 95 % tierra y 5% aserrín. - Contaminación de la tierra Se utilizó como contaminante para las plantas zinnia el azufre en forma sólida, teniendo diferentes concentraciones que variaban de 1 a 5%, teniendo cada una un triplicado. Después de realizada las concentraciones se procedió a verter cada una de las concentraciones a una bolsa distinta, dejando reposar una semana y utilizando métodos mecánicos para la agitación y mezclado de la tierra con el contaminante. Para las plantas suculentas se usó como contaminante ácido sulfurico, el cual también se realizaron diluciones que iban de 1 a 5%, cada una agregada a una bolsa distinta, dejando reposar un día y de igual manera usando métodos mécanicos para la agitación y mezclado del contaminante con la tierra. - Determinación de la estratigrafía de la tierra Para determinar el tipo de suelo usado, se pesaron 200 gramos de tierra en una balanza granataria y estos fueron agregados a una probeta de 1 litro, la cual fue aforada con agua por lo que provocó la sedimentación y separación de esta. Como resultado obtuvimos que nuestro suelo es de tipo arenoso y gravilloso. - Selección y germinación de las semillas Se utilizaron dos tipos de plantas, la primera fue conseguida en un supermercado local, la planta es llamada zinnia elegante conseguida en forma de semillas, con un tiempo de germinación corto. Se seleccionó otra planta llamada suculenta por ser típica de la región y tener muy pocos requerimientos para crecer, la cual fue conseguida en un vivero localizado en la ciudad de puebla. Para la germinación de las zinnias se utilizó algodón y agua, dejandolas germinar durante aproximadamente 1 semana en la cual adquirieron una altura de 5 cm. - Plantación en la tierra contaminada Se realizó un proceso de trasplante común, simplemente cubriendo las raíces de las plantas con la tierra previamente contaminada. - Mediciones de pH, densidad de la tierra y humedad Se realizaron mediciones de los parámetros de la tierra antes y después de contaminarla. Además de que se realizan dos mediciones de los parámetros cada semana. Los equipos usados son potenciometro para medir el pH, y la humedad esrealizada con una balanza analítica y una parrilla, dónde se calcula el % de humedad restando el peso húmedo menos el peso seco.  


CONCLUSIONES

- Elaboración de las curvas de calibración. - Determinación de la remoción de los contaminantes. - Analizar las capacidades de biorremediación de Crassula ovata y Zinnia elegante con el respecto al contaminante empleado.  
Valdovinos Lira Olga Viridiana, Universidad Autónoma de Baja California
Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional

REDISEÑO DE EEG EN EL CONTEXTO DE SISTEMAS BCI


REDISEÑO DE EEG EN EL CONTEXTO DE SISTEMAS BCI

Valdovinos Lira Olga Viridiana, Universidad Autónoma de Baja California. Asesor: Dr. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

  Las Interfaces Cerebro Computador (BCI) son una tecnología basada en la adquisición y procesamiento de señales cerebrales para el control de diversos dispositivos. Su objetivo principal es proporcionar un nuevo canal de salida al cerebro del usuario que requiere un control adaptativo voluntario. Usualmente las BCI se enfocan en reconocer eventos que son adquiridos por métodos como el Electroencefalograma (EEG). Una BCI puede monitorear variedad de señales del cerebro, como eléctricas, magnéticas y metabólicas. Se pueden medir las corrientes eléctricas, producidas por la sincronización de corrientes sinápticas, mediante Electroencéfalógrafo. El planteamiento del problema comienza con el sistema BCI que se desarrolló en el Laboratorio de Instrumentación y Procesamiento de Señales (LIPS), esta BCI es utilizada con ayuda de un EEG. Sin embargo, el rango de frecuencias para adquisición de señales EEG de este equipo, oscila entre los 8Hz a 30 Hz, que es donde se encuentran las ondas cerebrales asociadas a actividad senso-motora, solo abarcando las señales alfa, beta y mu, excluyendo las señales de onda gamma, delta y theta que se encuentran antes de 8Hz y después de 30 Hz.  Este equipo tiene dimensiones de 30cm x 30cm x 10cm. Debido a que se están explorando nuevas técnicas, esto se propone ampliar el rango de operación del sistema BCI que se desarrollado en LIPS, el cual requiere que se amplíe el rango de operación de 0.1 Hz hasta 100Hz, y una reducción de tamaño de la carcasa con facilidad de ensamblado y accesibilidad para mejorar la portabilidad y consumo de energía. El problema principal para este desarrollo es el ruido de línea que usualmente se encuentra alrededor de los 60 Hz, que es de magnitud de milivolts y es mucho mayor que la señal electroencefalográfica del orden de microvolts



METODOLOGÍA

Este trabajo se enfocó en el diseño, simulación e implementación de un filtro supresor de banda de 60 Hz dentro el sistema EEG. Este filtro supresor de banda fue diseñado en configuración ¨TWIN-T¨. La configuración twin-T tiene la ventaja de que el factor de calidad se puede variar con la ganancia interna sin modificar la frecuencia media. Se diseñó un filtro activo de 4to orden, con un factor de calidad 20, una amplificación de canal de 3.95 por unidad y una frecuencia media de 60 Hz con una banda de rechazo de 57 Hz a 61 Hz en el resultado simulado. Después de ajustar a los valores comerciales de los componentes pasivos y verificar el efecto de los cambios de cada componente, el diseño tiene un 1% de error que se considera adecuado, al simularlo en Multisim® el software que permite el diseño de circuitos y simulaciones, con esto se obtuvo la respuesta en frecuencia del filtro rechaza banda de manera gráfica. Al implementarse el circuito se observó la respuesta esperada con un ancho de banda de 56 Hz a 63 Hz y se procedió al diseño del circuito de montaje superficial utilizando EAGLE©. El módulo fue incluido en el diseño previo en una placa de doble capa, un circuito impreso de montaje superficial con una dimensión de 33mm x 27mm, el cual será integrado en un sistema de 8 canales de EEG con su respectiva carcasa que se diseñó en SolidWorks®. El diseño de la carcasa, se pretende realizar en acrílico y es de suma importancia considerar la maniobrabilidad para el mantenimiento y uso por parte del investigador, así como el cableado e inter-conexiones de todos los módulos. Al sistema también se le agregó una fuente de grado médico para su funcionamiento.


CONCLUSIONES

Como resultado se obtuvo sistema EEG en el contexto de BCI que puede medir señales desde 0.1Hz a 100Hz con una supresión de banda en 60Hz, diseñado en un circuito impreso de doble capa con montaje superficial de 33mmx27mm. Para obtener estos resultados se llevó a cabo una exhaustiva evaluación de los prototipos previos y repaso de los conceptos, que fueron llevados de la mano con cálculos y retroalimentaciones en grupo para decidir métodos adecuados para atacar las adversidades que se presentaron. El diseño de la carcasa, para la integración de 8 EEG se concluyó y permite alojar las 8 tarjetas de adquisición, se buscó lo mínimo de conexiones y considerando que se puedan retirar y colocar las tarjetas de manera rápida, independiente y segura dentro del equipo para su revisión. El equipo fue reducido de una dimensión de 30cm x 30 cm x10 cm a 11 cm x 46 cm x 8 cm, con una fuente de alimentación para evitar el uso de baterías recargables, descompensaciones por el deterioro y la descarga asimétrica de cada una de ellas. A lo largo de la estancia se tuvo la oportunidad de profundizar en aéreas como redacción de documentos científicos, programas de diseño tanto en electrónica, mecánico y de prototipado rápido, y como aportar en un grupo interdisciplinario. para llevar a cabo una investigación y concretar metas a corto plazo.
Valencia García César Augusto, Universidad de Colima
Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey

REVISIóN DE LA SEGURIDAD HIDROLóGICA DE LA PRESA VENUSTIANO CARRANZA


REVISIóN DE LA SEGURIDAD HIDROLóGICA DE LA PRESA VENUSTIANO CARRANZA

Valencia García César Augusto, Universidad de Colima. Asesor: Dr. Aldo Iván Ramírez Orozco, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La presa Venustiano Carranza (Don Martín), que consiste esencialmente en una cortina de tipo mixta, sección gravedad, vertedores de machones de cabeza redonda, provista de compuertas radiales y sección de tierra homogénea, con pantalla impermeable formada con una losa de concreto reforzadas aguas arriba. Su propósito es para el riego del distrito de riego Don Martín de 15000 a 30000 Ha. Se encuentra ubicada en el municipio de Juárez del estado de Coahuila. En la actualidad, se plantea la reducción de su capacidad de almacenamiento por parte de la Comisión Nacional del Agua (CONAGUA), para otorgar mayor seguridad hidrológica a la presa, debido a que solamente se cuenta con un nivel de seguridad de sólo 5 centímetros entre Nivel de Aguas Máximo Ordinarios (NAMO) y el Nivel de Agua Máximo Extraordinarios (NAME). Por lo tanto con este estudio, se analizará una propuesta que otorgue la seguridad hidrológica a la presa y no se comprometa el abastecimiento de agua potable.



METODOLOGÍA

La metodología aplicada dentro de nuestro proyecto fue esencialmente una metodología cuantitativa, porque se usaron datos proporcionados por la Comisión Nacional del Agua (CONAGUA), obtenidos del Banco Nacional de Datos de Aguas Superficiales (BANDAS), donde se obtuvieron los datos generales de la presa y los datos hidrométricos de la misma; para con eso poder realizar el tránsito de los cauces con ayuda del programa HEC-HMS que funciona para el modelado de proyectos hidrológicos. Finalmente, se buscaron las características generales de la operación de la presa y de esa forma con todos los datos ya recabados; se realizó el tránsito dentro del vaso de la presa. Con estos datos, se piensa realizar una propuesta para definir un nivel de seguridad hidrológico adecuado para la presa.


CONCLUSIONES

En primer lugar, un punto muy importante para la correcta realización de este proyecto es necesario que se cuenten con los datos correctos para poder realizar una propuesta realista para que el proyecto tenga las mejores condiciones posibles. Igualmente, un punto muy particular de la presa estudiada es la política de operación de la empresa, ya que las compuertas son automáticas que no se encuentran en control del humano. En cuanto a la problemática particular que se presenta también en esta presa, es el poco nivel de control de avenidas que existe en esta presa, ya que solamente existe un nivel de 5 cm entre el NAMO y el NAME, por lo cual es muy importante la correcta implementación de este modelo hidrológico, para de esa forma asegurar la seguridad hidrológica de la presa.
Valencia Gutiérrez María Fernanda, Universidad de La Salle Bajío
Asesor: Dr. Maricela Jiménez Rodríguez, Universidad de Guadalajara

SISTEMA PARA CODIFICAR IMáGENES APLICANDO CAOS.


SISTEMA PARA CODIFICAR IMáGENES APLICANDO CAOS.

Valencia Gutiérrez María Fernanda, Universidad de La Salle Bajío. Asesor: Dr. Maricela Jiménez Rodríguez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día las nuevas tecnologías de la información y comunicación permiten la transmisión de forma desmedida y sin ningún tipo de seguridad de imágenes, lo cual ocasiona una gran vulnerabilidad ya que personas malintencionadas pueden utilizar sniffers para detectar la información que viaja a través de la red sin ningún tipo de cifrado. Por tal razón es necesario realizar algoritmos para codificar las imágenes que eviten que terceros puedan apoderarse de ellas



METODOLOGÍA

Se aprovecharon las propiedades de los sistemas caóticos para codificar imágenes, usando las técnicas de: difusión para mezclar los pixeles y confusión para cambiar cada valor por otro diferente. Se resolvió el modelo matemático caótico llamado mapa Logístico para generar una órbita que se utilizó para mezclar los valores de los pixeles de la imagen original y se almacenaron en el vector DM del doble del tamaño de la imagen original. Se resolvió nuevamente el mapa Logístico para calcular una nueva órbita que se utiliza para rellenar los lugares vacíos de DM. Se generó una tercera órbita para aplicar confusión a cada elemento del vector DM.       El algoritmo fue realizado en el lenguaje Python y toma como entrada la imagen original para generar una imagen cifrada de mayor tamaño. También se realizó el algoritmo para descifrar las imágenes el cual necesita las llaves, es decir la condición inicial y parámetro de cada mapa logístico que se usaron al momento de cifrar.


CONCLUSIONES

El algoritmo emplea el mapa logístico para generar 3 diferentes órbitas caóticas, lo cual aumenta la seguridad porque se usan 6 claves, una condición inicial y un parámetro por cada órbita, esto hace más robusto al sistema y genera mayor dificultad para que un atacante pueda descifrar la imagen. Además, como el sistema discreto mapa Logístico es muy sencillo al resolverse se obtiene una buena velocidad.
Valencia Pérez Julio Cesar, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan

SIMULACIóN DE PROCESOS TERMOMECáNICOS UTILIZANDO EL MóDULO DE EXPLICIT DYNAMICS DE ANSYS


SIMULACIóN DE PROCESOS TERMOMECáNICOS UTILIZANDO EL MóDULO DE EXPLICIT DYNAMICS DE ANSYS

Valencia Pérez Julio Cesar, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

El Método de Elemento Finito permite obtener una solución numérica aproximada sobre un cuerpo, estructura o dominio (medio continuo) dividiéndolo en un número elevado de subdominios no-intersectantes entre sí denominados elementos finitos. El conjunto de elementos finitos forma una partición del dominio también denominada discretización. Dentro de cada elemento se distinguen una serie de puntos representativos llamados nodos. El conjunto de nodos considerando sus relaciones de adyacencia se llama malla. El conjunto de relaciones entre el valor de una determinada variable entre los nodos se puede escribir en forma de sistema de ecuaciones lineales (o linealizadas). La matriz de dicho sistema de ecuaciones se llama matriz de rigidez del sistema. El número de ecuaciones de dicho sistema es proporcional al número de nodos. Típicamente el análisis de los elementos finitos se programa computacionalmente para calcular el campo de desplazamientos y, posteriormente, a través de relaciones cinemáticas y constitutivas las deformaciones y tensiones respectivamente, cuando se trata de un problema de mecánica de sólidos deformables o más generalmente un problema de mecánica de medios continuos. El método de los elementos finitos es muy usado debido a su generalidad y a la facilidad de introducir dominios de cálculo complejos (en dos o tres dimensiones). En problemas dinámicos, donde las magnitudes cambian a lo largo del tiempo, existen diversos métodos para integrar en el tiempo. En ambos métodos se discretiza el tiempo, por lo que se considera la solución sólo para un cierto número de instantes (para el resto de valores del tiempo se puede interpolar la solución por intervalos). La diferencia entre un instante en el que se busca la solución y el siguiente se denomina, paso de tiempo. Las dos principales variantes del cálculo por FEM son: Método implícito, que requieren resolver a cada paso de tiempo un sistema de ecuaciones, aunque pueden usarse pasos de tiempo más largos. Método explícito, que no requieren resolver un sistema de ecuaciones a cada paso de tiempo, aunque debido a que la convergencia no siempre está asegurada el paso de tiempo debe escogerse convenientemente pequeño. El objetivo de este trabajo consiste en determinar las opciones, condiciones y procedimiento para determinar las condiciones adecuadas para lograr el equilibrio entre la cantidad de nodos y la precisión de los resultados en la simulación de eventos dinámicos que ocurren a altas velocidades, como es el caso de choque de modelos sólidos, impacto de proyectiles, etc.



METODOLOGÍA

Para comprender los parámetros, condiciones y opciones que se requieren para la simulación de sistemas dinámicos fue necesario trabajar previamente con otros módulos del software ANSYS. Durante las primeras semanas se utilizaron los módulos más utilizados para simulación estructural, comenzando con el módulo de Geometry. Se realizaron diferentes modelos CAD que permitieron manejar algunas de las opciones con que cuenta el programa. Una vez familiarizado con el módulo Geometry, se realizaron diversas simulaciones para análisis estructural estático con el módulo Static Structural, utilizando diversos tipos de apoyo, carga y materiales, haciendo énfasis en la importancia del mallado o discretización del modelo CAD. Para el análisis de sistemas dinámicos se utilizaron diversos módulos. El primero y más sencillo fue el módulo Rigid Dynamics, que permite un análisis de posición, velocidad y aceleración, pero sin tomar en cuenta la masa de los elementos. Para realizar un análisis de fuerzas, esfuerzos y deformaciones generadas en mecanismos que trabajan a velocidades relativamente bajas se utilizó el módulo Transient Structural. Finalmente, el tipo de análisis de interés, son los sistemas dinámicos que se realizan a altas velocidades, el análisis de este tipo de sistemas se realiza con el módulo Explicit Dynamics. Fue necesario realizar simulaciones con diferentes condiciones, materiales y velocidades para establecer las opciones más adecuadas que permitan un equilibrio entre la cantidad de nodos y la precisión de los resultados. Una simulación típica consiste en configurar el modelo geométrico, establecer las interacciones y cargas aplicadas, resolviendo para encontrar la respuesta dinámica no lineal de dicho modelo respecto al tiempo para las cargas e interacciones establecidas, permitiendo evaluar el comportamiento o respuesta de dicho sistema.


CONCLUSIONES

En esta estancia se colaboró en la línea de Investigación Mecánica Computacional y Diseño que dirige el Dr. Roberto Briones Flores mediante el proyecto llamado Simulación dinámica utilizando el módulo Explicit Dynamics de ANSYS, se logró adquirir conocimientos prácticos básicos para analizar diversos tipos de problemas estructurales de ingeniería, especialmente el modelado de sistemas dinámicos. Uno de los modelos de prueba fue la simulación de impacto balístico, utilizando un proyectil dirigido contra una placa de aluminio. Este modelo, permitió la realización de pruebas con el módulo Explicit Dynamics, verificando el efecto de algunas de las opciones de dicho módulo, también se establecieron los parámetros y condiciones óptimas para realizar la simulación, así como la interpretación de resultados. El modelo de prueba permitió, la elaboración de un modelo más elaborado. El modelo final de la estancia consiste en la simulación del impacto de un modelo simplificado de un vehículo, lo cual permitió interpretar de manera gráfica la influencia de la velocidad, geometría y materiales en este tipo de simulaciones. Durante la estancia se comprendió la importancia de la simulación en el diseño de diversos sistemas mecánicos y estructurales. Este tipo de pruebas permite la mejora o rediseño de mecanismos, dispositivos o productos aún antes de que se realice un prototipo en físico.
Valentin Rivera Emmanuel, Instituto Tecnológico Superior de Uruapan
Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan

SOCAVACIóN EN PILAS Y ESTRIBOS DEL PUENTE PASO DE LA VIRGEN.


SOCAVACIóN EN PILAS Y ESTRIBOS DEL PUENTE PASO DE LA VIRGEN.

Valentin Rivera Emmanuel, Instituto Tecnológico Superior de Uruapan. Asesor: M.C. Cristhian Amador Heredia Rodriguez, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Se define como puente a la construcción que permite salvar un accidente geográfico como un rio, un cañón, un valle, una carretera, un camino, una vía férrea, un cuerpo de agua o cualquier otro obstáculo físico. Es importante tener claridad que el modelo debe ajustarse a las realidades y características propias de cada entidad territorial, y a los resultados de los estudios preliminares que deben realizarse para el adecuado uso de los diseños aquí presentados.Este incluye un procedimiento para ejecutar este tipo de proyectos y el presupuesto estimado y se indican cuáles son los gastos asociados a su operación y mantenimiento. Asimismo, las recomendaciones mínimas que se deben llevar a cabo antes, durante y después de la ejecución del proyecto, donde se tiene: Se conoce que el problema más común encontrado en la falla de puentes proviene del comportamiento hidráulico de ríos y quebradas; por tal motivo el diseño hidráulico debe merecer mayor atención e importancia. la infraestructura de un puente (pilares y estribos) son elementos extraños dentro de la corriente lo cual produce una interacción entre el puente y el río. Durante esta interacción puente-río, el río buscará sacar al puente, mientras que el puente buscará su estabilidad.



METODOLOGÍA

Para poder determinar la problemática del puente sobre el río, se actualizó la información existente. Una vez observadas las fallas que ha presentado el puente durante los últimos años, se analizaron modelos matemáticos  ya existentes que se han empleado en otros lugares, y que presentan fallas similares. Se realizó el modelo físico del río así como los diseños de los estribos que soportan el tablero en los extremo del puente, para los modelos de las pilas que soportan los puntos intermedios del puente se está trabajando con el software  ANSYS, para poder realizar las simulaciones de los modelos se debe comenzar por: dibujar las pilas por secciones, asignar las características y propiedades de cada sección, y establecer los límites de frontera.


CONCLUSIONES

Aún se está trabajando con el software ANSYS  para poder determinar que los modelos existentes y los modelos del software tienen similitud, para corroborar que son confiables. Las expectativas que se esperan obtener deberán satisfacer la curiosidad por indagar en este concepto.
Valenzuela Barrientos Carlos Jair, Instituto Tecnológico de Acapulco
Asesor: Mtro. César Primero Huerta, Tecnológico de Estudios Superiores de Valle de Bravo

MóDULOS DE ACCESO AL SISTEMA ELECTRóNICO DEL TECNOLóGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO (TESVB)


MóDULOS DE ACCESO AL SISTEMA ELECTRóNICO DEL TECNOLóGICO DE ESTUDIOS SUPERIORES DE VALLE DE BRAVO (TESVB)

Valenzuela Barrientos Carlos Jair, Instituto Tecnológico de Acapulco. Asesor: Mtro. César Primero Huerta, Tecnológico de Estudios Superiores de Valle de Bravo



PLANTEAMIENTO DEL PROBLEMA

El Tecnológico de Estudios Superiores de Valle de Bravo, cuenta con un sistema de información en el cual, tanto alumnos como personal docente y administrativo puede consultar, mediante una intranet, la información de cada uno de los usuarios registrados, así como realizar diversos trámites, como puede ser, en caso de los alumnos, la consulta de sus calificaciones finales, el registro de una o más actividades complementarias para su ciclo escolar en curso, o en el caso de docentes y directivos, consultar sus plantillas de trabajo, planes de estudio, realizar horarios de actividades, etc. Actualmente, el sistema del TESVB sufre de algunos defectos, debido al tamaño de su base de datos y a su historial de programación. Uno de ellos, consiste en la asignación de privilegios al personal docente, administrativo, y alumnos, de acuerdo tipo de usuario, sin embargo, se requiere privilegios adicionales que no se encuentran dentro un grupo establecido, específicamente el personal de la institución. Debido a esto, algunos trabajadores que cuentan con funciones adicionales a las de su perfil, no pueden hacer uso de módulos fuera de su grupo establecido.



METODOLOGÍA

Debido a la problemática descrita anteriormente, se realizó un proceso de análisis del funcionamiento del sistema de información del Tecnológico de Estudios Superiores de Valle de Bravo, sobre todo en la estructura de la base de datos. Una vez finalizada la fase de análisis, se ha llegado a la conclusión de proponer la siguiente solución: realizar un catálogo de privilegios para ser asignados a los usuarios al momento de su registro, en el cual estén contenidos los diversos permisos o funcionalidades a los que pueden acceder los empleados cuando estos le son asignados, de esta manera, se busca que, lejos de usar plantillas predefinidas de permisos (roles), dichos privilegios sean asignados de acuerdo a la necesidad de cada usuario, propiciando un funcionamiento óptimo del sistema. Se espera lograr dicha solución, relacionando la nueva tabla de privilegios con la tabla de usuarios, para que, de esta manera, se identifiquen los permisos con que cuenta cada uno de ellos, y de ser necesario, posteriormente agregar más permisos a los mismos, los cuales se almacenarían en la base de datos. Se tiene contemplado que, a partir de estos permisos registrados para cada usuario en la base de datos, se muestre un menú para hacer uso de las diversas funcionalidades que tendrá permitidas, descartando la creación de múltiples menús para los usuarios, debido a la poca factibilidad que estos representan en cuanto a la optimización del sistema, incorporando así, un menú dinámico, que este en función de los permisos que tenga cada usuario. Es importante mencionar que, se busca realizar las actividades ya mencionadas, con la base de datos proporcionada por los asesores de investigación, lo cual implica una reducción de tiempo en cuanto al desarrollo, puesto que, solo se tendrían que agregar las tablas pertinentes. Aunado a ello, esta solución se desarrollará, en el framework de Laravel, un entorno que optimiza el trabajo en gran medida, gracias a los beneficios que este brinda.


CONCLUSIONES

Se espera que la solución propuesta durante el verano de investigación logre resolver el gran problema que actualmente tiene el sistema del TESVB, asimismo, dicha solución pretende ser duradera, para evitar futuros problemas de funcionamiento. Además, a lo largo de la estancia, se adquirió el conocimiento de diversas herramientas, en especial para desarrollo web, que fueron de ayuda para la implementación de los módulos de acceso en el sistema del TESVB. Dichas herramientas no solo son beneficiosas para el trabajo de investigación del Programa Delfín, también lo son para la formación profesional, para ser utilizados en el ámbito laboral.
Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme
Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara

SISTEMA DE MONITOREO AMBIENTAL


SISTEMA DE MONITOREO AMBIENTAL

Figueroa Peña Moisés, Instituto Tecnológico Superior de Cajeme. León Morales Valeria, Universidad Veracruzana. Mendoza Ruiz Iran Enrique, Instituto Tecnológico Superior de Cajeme. Téllez Cárdenas Missael, Instituto Tecnológico de Pachuca. Urbina Alvarado Francisco Alonso, Instituto Tecnológico Superior de Cajeme. Valenzuela Cabral José Gabriel, Instituto Tecnológico Superior de Cajeme. Asesor: Dr. Rodolfo Omar Domínguez García, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El Centro Universitario de los Valles ubicado en el municipio de Ameca, Jalisco ha tenido la iniciativa de llevar al instituto a un centro educativo 4.0 a través de la aplicación de conceptos y tecnologías relacionadas con el Internet de las Cosas y el Cloud Computing. Debido a la modernización de las escuelas a nivel nacional el personal de TI de la mano con el personal administrativo se ha enfocado en buscar la innovación dentro de sus instalaciones para poder cumplir de manera eficaz el objetivo de formar a jóvenes competentes de diversas áreas como lo son los relacionados con la electrónica, mecatrónica, tecnologías de la información, derecho, entre otras. Así como realizar todo este proceso de aprendizaje de manera eficiente optando por el uso de componentes tecnológicos modernos y fuentes alternas de energía como la solar para utilizar el menor número de recursos posibles y poder reducir el consumo energético, de agua y desgaste de otros. Actualmente, debido al proceso de implementación de nuevas tecnologías se encuentran diversos proyectos de gran impacto sin finalizar debido a la falta de personal de TI y gran demanda de actividades, comprometiendo de esta manera la eficiencia de áreas indispensables para el instituto como lo son: SITE’s (Centros de Servidores y Equipo de Redes de Comunicación), estaciones de testeo de medio ambiente y control de acceso de diversas aulas para el alumnado; lo cual ha llevado a la siguiente interrogante por parte de la escuela ¿el cambio hacia un centro educativo 4.0 debe ser tan radical?.



METODOLOGÍA

Para dar respuesta a la pregunta antes planeada y ofrecer una solución a una parte de la problemática, el equipo de TI y electrónicos llevaron a cabo una serie de actividades como análisis e implementación de tecnologías de baja costo y con alto rendimiento para desarrollar un sistema embebido para tener una estación de monitoreo ambiental interno y externo de un área específica con sensores y la interpretación de los mismos a través de una interfaz gráfica que presenta tablas de datos, gráficas y ubicación de la misma. Todo lo anterior fue realizado con herramientas de investigación y aplicación apoyadas en sitios web, libros de texto electrónicos y apoyo por parte del personal del instituto. En cuanto a términos técnicos: Del lado de la parte física de la electrónica se implementaron tecnologías modernas como lo son las placas Raspberry PI 3 Modelo B+, placas Arduino Nano, sensores analógicos y digitales para la medición de temperatura, nivel de luz, humedad, humedad de la tierra, calidad del aire, nivel de CO2 y tecnologías inalámbricas WI-Fi; que para su interacción se utilizó el sistema operativo Raspbian, que es una versión modificada de Debian y este a su vez es una distribución de Linux y el lenguaje de programación dinámico llamado Python en su versión 3 para el enlace de componentes con la placa Raspberry. Para la alimentación del sistema de diseñó una fuente la cual provee de 5 y 6 volts, dependiendo de la necesidad de cada sensor. Del lado de la aplicación web intermediaria llamada REST API, usada para el almacenamiento y acceso de información a la base de datos a través de peticiones HTTP desde la parte física del proyecto que se realizó (estaciones de medio), se empleó el framework basado en modelo MVC (Modelo-Vista-Controlador) Laravel (PHP 7) para el desarrollo de la REST API. Del lado de las interfaces gráficas usadas para la interpretación de datos se empleó el lenguaje de programación PHP 7, JavaScript, Jquery y para el diseño amigable se usaron hojas de estilo CSS 3, HTML 5 y el framework de estilos Bootstrap 4.


CONCLUSIONES

El sistema de monitoreo ambiental implementado en la Universidad de Guadalajara Centro Universitario de los Valles utiliza tecnologías Open Source, por lo que resulta sencillo de implementar nuevas tecnologías y se puede llevar a cabo a un bajo costo, además de que se utilizan fuentes alternas de energía como la solar y a un bajo consumo energético. La principal ventaja de utilizar este sistema de monitoreo radica en alertar a los estudiantes y trabajadores del instituto sobre las condiciones del ambiente en tiempo histórico vía una aplicación web accesible desde PC’s, tablets o smartphones, para que puedan tomar medidas de prevención dependiendo de las condiciones del clima, así como una futura implementación de actuadores para la automatización del plantel reduciendo la asignación de tareas del personal y tiempos de ejecución. Todo esto con el fin de beneficiar la innovación en la escuela en el proceso de transformación a un centro educativo 4.0.
Valenzuela Cota Dulce Maria, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

ESTUDIO ÓPTICO DE UN CALENTADOR SOLAR DE AIRE


ESTUDIO ÓPTICO DE UN CALENTADOR SOLAR DE AIRE

Valenzuela Cota Dulce Maria, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

La demanda de energía ha aumentado en estos años por los niveles de crecimiento acelerado de la población, por eso es importante aprovechar energías de otra manera, en el estado de Sonora se encuentran los niveles mas altos de radiación, tal por eso se debe de aprovechar y explotar al máximo, además de ser una energía limpia. Un calentador solar es un sistema que aprovecha la radiación del sol para calentar aire.  El objetivo de este estudio óptico de un calentador solar de aire será analizar la distribución de la radiación solar incidente sobre la superficie receptora, con esta la información se estimará la potencia incidente en el solsticio de verano.



METODOLOGÍA

Se realizó una simulación de trazado de rayos donde se define  la luz del sol, como líneas rectas que mantienen su dirección hasta impactar con una superficie receptora, en este caso los tubos y el espejo.  Se debe definir la densidad de flujo luminoso (W/m2). Se uso como material un espejo de 160 cm de largo por 90 cm de ancho, cinco tubos solares evacuados con un diámetro de 5.8 cm y una inclinación de 20 grados. Se utilizó el programa Tonatiuh donde se obtienen los resultados de irradiación en el receptor, este siendo representados por los rayos incidentes trazados.  


CONCLUSIONES

Se realizó una práctica con espejo reflector a las 9 de la mañana el día 21 de junio del 2019, para que el sol pudiera mandar los rayos de sol hacia el receptor, dándonos como resultado 77.46 de watts de potencia. Tambien lo aplique sin espejo el mismo día y a la misma hora,  y en el resultado de la simulación me dio 76.9 watts de potencia. Con esto se comprueba que existe una diferencia entre cada una de las simulaciones y es recomendable que el sistema se use con espejo reflectivo debido a que nos ayuda más a aprovechar de la mejor manera la energía para este calentador de aire.
Valenzuela Soto Maria Alejandra, Universidad de Sonora
Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora

RESIDUOS SóLIDOS DE LA INDUSTRIA ESPARRAGUERA


RESIDUOS SóLIDOS DE LA INDUSTRIA ESPARRAGUERA

Valenzuela Soto Maria Alejandra, Universidad de Sonora. Asesor: Dr. Juana Alvarado Ibarra, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

En la ciudad de Caborca, Sonora se tiene como fuente económica al sector de la industria esparraguera, sin embargo, genera grandes cantidades de residuos sólidos en todo su proceso, Para este trabajo se presentan propuestas para la minimización de los residuos sólidos tales como: composta, elaboración de gomitas y alimento bovino.



METODOLOGÍA

Es una investigación bibliográfica del tipo transversal correlacional argumentativa (deductiva), ya que se consideró causas, consecuencias y soluciones posibles a la problemática planteada. Consistió en las siguientes fases: -indagacion -interpretacion -reflexion -analisis -sisntesis -Deduccion


CONCLUSIONES

Con los resultados obtenidos podemos observar que son grandes las cantidades de residuos sólidos que la industria esparraguera deja, por lo que al estudiar las aportaciones nutricionales del esparrago se observa que tiene una gran cantidad de vitamina C, de tal manera que se puede utilizar el esparrago para la creación de gomitas ricas en vitamina C. A través de una revisión bibliográfica no se encontró en la ciudad de Caborca, Sonora la utilización de gomitas como solución al problema de residuos sólidos.
Valladares Rivera Miguel Angel, Instituto Tecnológico de Iguala
Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala

CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA


CALCULO DE SEIS SIGMA EN CORTADORA DE PIEDRA DE CANTERA

Calderón Lara Isabel, Instituto Tecnológico de Iguala. Lara Tolentino Jahir Othoniel, Instituto Tecnológico de Iguala. Valladares Rivera Miguel Angel, Instituto Tecnológico de Iguala. Asesor: M.C. Pascual Felipe Pérez Cabrera, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

La empresa "VIVA STONE" es una empresa que actualmente trabaja con muchos tipos de piedras para fachada, analizando todos los procesos que se realizan en dicha empresa encontramos que la gran problematica es el gran desperdicio que se produce en el corte de piedra de cantera para fachada.  



METODOLOGÍA

Six Sigma es un método basado en datos que examina los procesos repetitivos de las empresas y tiene por objetivo llevar la calidad hasta niveles cercanos a la perfección. Es más, se propone una cifra: 3.4 errores o defectos por millón de oportunidades. Y se distingue de otros métodos en el hecho de que corrige los problemas antes que se presenten. Six Sigma constituye un modelo de gestión de calidad que también se conoce como DMAIC, siglas de las palabras en inglés: define (definir), measure (medir), analyze (analizar), improve (mejorar) y control (controlar). Estas son las cinco fases que se han de aplicar en cada proceso.  En las primeras semanas identificamos la causa raiz de la problematica que citamos con anterioridad midiendo todo el despedicio que generaba un operario al dia y midiendo tambien todo el producto bueno que se sacaba.  Mediante las herramientas estadisticas de la metodologia "SEIS SIGMA" es como pudimos analizar que los datos que nos arrojaban los procesos de corte generaban mas desperdicio que producto bueno.  Por consiguiente en las ultimas semanas nos dedicamos a mejorar y controlar la cauza raiz, buscando alternativas que nos ayudaran a solucionar dicho problema.


CONCLUSIONES

Con los datos arrojados mediante la metodologia "SEIS SIGMA" encontramos que la causa raiz que debemos atacar principalmente es contar con un estandar de calidad a la hora de recibir el lote de piedras en almacen ya que se encontro que la piedra llega muy fracturada o dañada lo cual tiende a desmoronarse y empezar a generar todo ese desperdicio que intentamos disminuir. 
Valladares Romero Hugo, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)

TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE


TRANSFERENCIA TECNOLÓGICA Y VIVIENDAS SOCIALES EN AMÉRICA LATINA Y EL CARIBE

Montis Mackenson, Instituto Tecnológico de Zitácuaro. Sierra Alvarado Maria Fernanda, Universidad Estatal de Sonora. Valladares Romero Hugo, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Rolando Arturo Cubillos González, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El crecimiento exponencial de la población y el aumento de la pobreza en diferentes ciudades del mundo, ha provocado un impacto considerable en el sector construcción. En América Latina y el Caribe, los gobiernos han incorporado en sus planes de desarrollo, varios programas de construcción de viviendas sociales para satisfacer la demanda de alojamiento. Sin embargo, estos programas generalmente no toman en cuenta la implementación de las tecnologías limpias en el proceso de diseño de las mismas. Además, no se presenta una sólida difusión de esas tecnologías y de los beneficios humanos, ambientales y económicos que conllevan. Debido al lento proceso de adopción de las tecnologías limpias y a las limitadas especificaciones de las políticas ambientales para su correcta aplicación, no se destina una financiación suficiente para la implementación de esas tecnologías en las viviendas sociales.



METODOLOGÍA

El proceso de realización de este trabajo se orientó en cuatro puntos: delimitación del área de estudio, búsqueda de información, revisión bibliográfica y análisis de la información obtenida. El trabajo se enfocó específicamente en América Latina y el Caribe, tomando como referencia países como México, Colombia y Haití. La búsqueda de información se realizó exclusivamente en la plataforma SCOPUS, que es una de las bases de datos científicas más importantes de citas y resúmenes de literatura arbitrada a nivel mundial. Para el análisis de información, se usó la herramienta VOSviewer para obtener la relación entre los autores, temas, países y año de publicación de los diferentes artículos obtenidos en cada búsqueda. Se complementó el ejercicio con Zotero que permitió obtener la línea de tiempo de los artículos seleccionados para delimitarlos, considerando los más recientes. Después de obtener los artículos necesarios para el trabajo, se realizó un análisis profundo de los mismos. A través de este análisis se compararon las ideas generales y así confrontarlas para sacar las conclusiones apropiadas y presentar algunas propuestas.


CONCLUSIONES

La obligación de los gobiernos es destinar suficientes recursos públicos o privados para implementar las tecnologías limpias en la vivienda social. También, los programas existentes para la producción de viviendas sociales en América Latina y el Caribe requieren de capacitación dirigida tanto al usuario como al constructor. Además, se debe tomar en cuenta estrategias de diseño pasivo y urbanismo sostenible en el diseño de las mimas, de esta manera se logrará un mercado de amplia difusión y una cultura de adopción en los procesos constructivos desde la perspectiva privada, pública o mixta.
Valladares Salinas Gloria, Instituto Tecnológico de Acapulco
Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo

ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.


ANáLISIS Y REGRESIóN DE DATOS UTILIZANDO TéCNICAS DE INTELIGENCIA ARTIFICIAL.

Martínez Ortiz Fernando, Instituto Tecnológico de Acapulco. Ramirez Vargas Carlos David, Instituto Tecnológico Superior de Puruándiro. Valladares Salinas Gloria, Instituto Tecnológico de Acapulco. Asesor: Dr. Juan José Flores Romero, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

Encontrar el modelo de regresión más eficiente para un conjunto de datos, tomando como referencia el índice de error producido para esos datos.



METODOLOGÍA

Para desarrollar el modelo de regresión, se emplean técnicas de aprendizaje de máquina como árboles de decisión, bosques aleatorios, regresión lineal, redes neuronales, entre otras. Una vez alcanzada la comprensión conceptual de las técnicas a aplicar, se define un modelo de predicción usando cada una de estas, ajustando los parámetros de construcción, tanto como sea posible, para obtener los mejores resultados, y se compara la eficiencia de cada uno de ellos en función de los errores obtenidos (MAPE, MSE, MAD). Como siguiente técnica, se utiliza una herramienta gráfica de análisis de datos llamada Weka, la cual cuenta con distintos algoritmos para generar modelos de clasificación y regresión, generando modelos con las técnicas antes mencionadas. Finalmente, se tratan de replicar los modelos generados por la herramienta Weka en código python, ajustando los parámetros con el fin de obtener los resultados esperados.


CONCLUSIONES

Una vez que se han probado cada una de las técnicas antes mencionadas en el software Weka, se selecciona la técnica que arroje un menor porcentaje de error para determinado conjunto de datos; esa técnica es la que se empleará para el manejo y regresión de los datos.
Vargas Batalla Estefanía, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla

AEROESPACIAL


AEROESPACIAL

Vargas Batalla Estefanía, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Aurelio Horacio Heredia Jimenez, Universidad Popular Autónoma del Estado de Puebla



PLANTEAMIENTO DEL PROBLEMA

Aeroespacial. (PongSat, Estación Meteorológica, sismógrafo, Drone)   El avance tecnológico es la creación de nuevas técnicas para facilitar y/o disminuir los riesgos en el trabajo. Es por ello que los Doctores e Ingenieros de la Universidad Popular Autónoma del Estado de Puebla (UPAEP) llevaron a cabo un proyecto con el fin de tener un monitoreo en tiempo real de los volcanes.



METODOLOGÍA

Se realizó un análisis de los componentes que se necesitan controlar y la forma más efectiva de control dando como resultado la creación y desarrollo de un proyecto que lleva por nombre Aeroespacial.   Una de las actividades es la creación de un PongSat es un experimento que cabe dentro de una pelota de ping pong, el objetivo de esto es que por medio de un PongSat se obtenga un monitoreo de la zona donde se encuentran los volcanes en tiempo real tal como: humedad, temperatura, precisión, altitud, tiempo, entre otros. Junto a esto también se hace la estación meteorológica ya que es un complemento para las PongSat.   El sismógrafo es utilizado para medir movimientos en la Tierra. Puede detectar la erupción de un volcán, basándose en terremotos o temblores pequeños, ya que el ascenso del magma puede provocar terremotos, y el lento ascenso de este produce un aumento progresivo de la intensidad y la frecuencia de estos temblores, este proceso puede comenzar meses antes de la erupción.   El drone es utilizado para captar imágenes, o videos, y el objetivo es que midan la temperatura, la humedad, y los datos térmicos de las nubes volcánicas desde el interior, y que capte imágenes de múltiples erupciones en tiempo real gracias a los sensores que tendrán de bajo peso que serán incorporados a ellos.  


CONCLUSIONES

En estas actividades tuve la oportunidad de participar en el diseño de la carcasa de la estación meteorológica y el sismógrafo, y aprendizaje de herramientas CAD tal como es: (solid works), también en la progración de los mismos, al igual que llevé a cabo el apoyo de ensamble de los mismos con colaboración del equipo.   En la estancia he aprendido el trabajo en equipo, ser responsable y trabajar en tiempo y forma. Así mismo pude poner en práctica los conocimientos que he adquirido en todo este transcurso que llevo estudiando en mi carrera. De igual manera aprendí a manipular lo que es un dron y ver como esta controlado y con qué fin se hace.   Puedo concluir que, con este proyecto se espera disminuir perdidas y estar alertas a cualquier tipo de eventos que generen los volcanes, y de este modo no se generen riesgos a las personas que habitan cerca de los volcanes.
Vargas Bonilla José Abraham, Universidad Tecnológica de Xicotepec de Juárez
Asesor: Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato

DISEñO DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA BIODIGESTORES PREFABRICADOS


DISEñO DE UN SISTEMA DE ADQUISICIóN DE DATOS PARA BIODIGESTORES PREFABRICADOS

Vargas Bonilla José Abraham, Universidad Tecnológica de Xicotepec de Juárez. Asesor: Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el 85% del suministro de energía se obtiene de fuentes de combustibles fósiles no renovables, pero éste tipo de combustibles genera altas cantidades de emisiones de gases de efecto invernadero. Este tipo de situaciones hace que se necesite de una fuente de energía limpia y renovable. El biogás es una fuente alterna que se produce a partir de la descomposición de compuesto orgánico (biomasa), donde se utilizan microorganismos y bajo variables controladas se encargan de esta tarea (Matheri et al, 2018). Los beneficios del biogás hacen que sea ampliamente viable como una fuente renovable. Pero este proceso es sensible a variaciones de las condiciones externas, por lo que si el proceso no se realiza adecuadamente la producción de biogás podría verse reducida (Ramírez et al, 2017). En este proyecto se buscó implementar un sistema que fuera capaz de monitorear en tiempo real las variables para la generación de biogás en un digestor; temperatura, presión, humedad y pH, con el objetivo de lograr una mejor eficiencia y control en las variables antes mencionadas.



METODOLOGÍA

Se usó Arduino UNO, una plataforma de desarrollo que se basó en una placa electrónica de hardware libre, que incorporo un microcontrolador re-programable y una serie de pines hembra que permitieron hacer conexiones de una manera muy sencilla entre el microcontrolador y sensores. Se ocuparon 4 tipos de sensores; temperatura, humedad, presión y pH, cada sensor detectó y generó una diferencia de potencial en una seña eléctrica y así pudo ser procesada por el microcontrolador. Se ocupó un sensor de temperatura LM35, el cual presentó una salida analógica con un rango de medición de -55°C a 150°C, este tipo de sensores ha sido uno de los más populares debido a la facilidad con la que puede medir la temperatura. Paralelamente se empleó un sensor de Humedad y Temperatura DHT11, es un tipo de sensor digital que midió la humedad y temperatura por un bajo costo y fácil uso. Este sensor al ser un sensor integrado por un sensor capacitivo de humedad y un termistor para medir el aire circundante, mostró los datos mediante una señal digital en el pin de datos de Arduino. Este fue sencillo de ocupar, incluye librerías ya establecidas en Arduino, lo que hizo una programación más rápida. En cuestión de conexiones fueron muy claras, se pudieron identificar sin problemas en su hoja de datos. Se ocupó un sensor de Presión RFN modelo SPRESS, tiene un elemento de detección de presión que puede ser una membrana, y con este diseño tiene mayor rigidez y la capacidad de medir presiones altas hasta de 15 bares. Para medir el pH se ocupó un módulo Arduino modelo DIY MORE PH-4502C. El sensor de pH midió la acidez o alcalinidad de una solución, es decir, el pH indicó la concentración de iones de hidrógeno presente en determinadas soluciones. Este sensor funcionó midiendo la actividad de los iones de hidrógeno mediante un proceso en la que generó una pequeña cantidad de tensión. La tensión se midió como una corriente eléctrica y el voltaje generado en esta corriente se convirtió en un valor de pH. Se hizo la programación de cada uno de los sensores en el ID de Arduino, después se hicieron pruebas con cada uno de los sensores para comprobar su funcionamiento. Finalmente se hizo la unión de todas las programaciones en uno solo y así todos los sensores funcionaron en conjunto para el monitoreo en el biodigestor y se puedo visualizar en una pantalla LCD cada una de las variables al presionar un botón. El resultado final fue el menú de un programa para seleccionar la variable del biodigestor que se desea mostrar, se presionó un botón por aproximadamente 2 segundos y en la pantalla LCD se visualizó la variable seleccionada; temperatura, humedad, presión o pH. Cada uno de los sensores adquiridos fueron capaces de medir las diferentes variables que se deseaban al mismo tiempo. Las señales obtenidas tenían variaciones de medición, a pesar que los rangos establecidos se acercaban bastante a las mediciones reales (Termómetro de mercurio, manómetro y pH -metro de laboratorio). Durante la experimentación se tuvo que hacer un ajuste constante de los rangos previamente establecidos para una lectura más cercana a la real; calibración. Se observó que se debe tener cuidado con la manipulación de los sensores debido a su sensibilidad y funcionamiento depende de la manipulación durante la fabricación. Los sensores no deben entrar contacto con agua directamente, al menos que estén diseñados para ello. El sensor de temperatura LM35 no está diseñado para ser sumergido en fluidos, para hacerlo se necesita aislar los pines del sensor y cables de conexión, de lo contrario en el peor de los casos se puede generar un corto circuito estropeando todo lo que esté conectando.   


CONCLUSIONES

Se logró implementar un programa en Arduino con los 4 sensores para el monitoreo de las variables en un biodigestor a un bajo costo económico; se logró visualizar en una pantalla de una manera clara y sencilla las variables de un proceso de digestión anaerobia.
Vargas Bustillos Miguel Alonso, Universidad de Sonora
Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional

OBTENCIóN DE NANOPARTíCULAS A TRAVéS DE MEMBRANA PRESURIZADA DE ZEOLITA Y/O NANOFILTRACIóN.


OBTENCIóN DE NANOPARTíCULAS A TRAVéS DE MEMBRANA PRESURIZADA DE ZEOLITA Y/O NANOFILTRACIóN.

Vargas Bustillos Miguel Alonso, Universidad de Sonora. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Las filtraciones a pequeña escala son cada vez más conocidas y más investigadas a causa de la contaminación de los mares, mantos acuíferos y ríos. Se practica más y más día con día.             Existen muchos tipos de filtraciones, la más efectiva es la ósmosis inversa, que filtra mejor aún que el nanofiltro y suele usarse para la purificación de agua. Lo grave de esta situación es que la ósmosis inversa tiene diversos efectos en la salud. Hay muchas enfermedades que se asocian a causa de este tipo de filtración. Uno de ellos es la deshidratación por pérdida de agua y sales minerales, también podemos contar con la insuficiencia de transporte de oxígeno, volumen de orina desmesurado, etc.             Otro aspecto negativo de la ósmosis inversa es el notable gasto de agua residual que ocurre al obtener agua por ósmosis. Al obtener el agua pura producto de poner el agua residual a gran presión contra una membrana semipermeable, solo parte de esa agua logra pasar la membrana; mientras que el resto, se pierde. Se considera que se pierde hasta un litro por cada litro puro obtenido.



METODOLOGÍA

A. Selección de muestras para el proceso de nanofiltración y/o paso a través de la membrana presurizada. Se eligieron dos solutos primeramente para comenzar a probar después en la membrana (ya en solución). Se optó por almidón, ya que posee un peso molecular muy grande, por lo tanto, la molécula es muy grande y se espera que no logre pasar la membrana.             Por otra parte, tenemos el cloruro de aluminio, una sal que posee como anión al cloro y como catión al aluminio. Este último metal se encuentra en muchas ocasiones en el agua que nosotros ingerimos y, no resulta ser tan letal para nosotros, pero, si fuese un metal pesado, sería difícil de consumir. B. Preparación de la membrana y/o nanofiltro. La membrana ya obtenida, hecha de zeolita y zirconio, se cortó en un esmeril para tener un largo de 10 cm y que pudiera entrar en el dispositivo hecho para realizar el experimento.             El sistema fue ideado para la membrana tubular de zeolita, única y exclusivamente para su medida. C. Preparación de la muestra (introducción a un medio acuoso). Se eligió preparar la solución de  (cloruro de aluminio) 1 N en 100 mL y otra de 100 mL de almidón saturado, al final se mezclaron ambas para obtener una solución final de 200 mL. Se conoce que el almidón posee un peso molecular mayor al del cloruro de aluminio y no es soluble en agua debido a que es una molécula muy grande. Por otro lado, el aluminio al ser disipado en agua queda suspendido y disuelto en agua. D. Caracterización de la membrana presurizada y/o nanofiltro. 1) Espectroscopía FTIR (Espectroscopía Infrarrojo por la Transformada de Fourier). Pertenenciente al IPN (Instituto Politécnico Nacional). 2) SEM (Microscopía Electrónica de Barrido). Perteneciente a la universidad Iberoamericana. 3) AFM (Microscopía de Fuerza Atómica). Perteneciente al IPN. 4) Espectroscopía UV (Ultra Violeta). Perteneciente al IPN. 5) TEM (Microscopio Electrónico de Transmisión en Modo Criogénico). Perteneciente al Centro de Nanociencias y Micro y Nanotecnologías - IPN. E. Paso de la muestra por la membrana y/o nanofiltro. Para ello es necesario calentar la solución de 2 a 3 horas a no menos de 60 °C, y con calentamiento de agitación magnético, para que, se pueda quedar suspendido el almidón y no vaya a sedimentar (se desea una mezcla homogénea). F. Obtención de la muestra por nanofiltración y/o por el uso de membranas presurizadas. Al pasar la muestra por el filtro, se espera que se retengan las partículas de almidón y se logre el paso a las partículas que sean más pequeñas que los poros. G. Caracterización de las nanopartículas. 1) Mastersizer 300 ©, caracterización autorizada por el Instituto Politécnico Nacional. 2) UV-VIS. Caracterización autorizada por el Instituto Politécnico Nacional.


CONCLUSIONES

El hecho de haber realizado esta estancia de investigación sirvió para alcanzar conocimientos prácticos y teóricos sobre la síntesis y caracterización de distintas partículas obtenidas a partir de una membrana de zeolita, así como la correcta caracterización de dicha membrana. Se espera la obtención exitosa de nanopartículas en estado acuoso, resultado del filtrado de una solución compuesta de cualquier tipo de elementos, no nocivos para el uso diario (agua potabilizada o preparada para una nueva filtración).
Vargas Gutierrez Enrique, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Héctor Antonio Villa Martínez, Universidad de Sonora

DESARROLLO DE UNA APLICACIóN MóVIL PARA REALIZAR ANáLISIS DE VARIANZA DE UN ARREGLO EXPERIMENTAL DOBLE


DESARROLLO DE UNA APLICACIóN MóVIL PARA REALIZAR ANáLISIS DE VARIANZA DE UN ARREGLO EXPERIMENTAL DOBLE

Dominguez Cruz Antonio, Instituto Tecnológico Superior de Huauchinango. Vargas Gutierrez Enrique, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Héctor Antonio Villa Martínez, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

El análisis de varianza es un método estadístico que se utiliza para analizar las diferencias entre medias de distintos grupos en una muestra y que se estudia en varios cursos de estadística que se imparten en la Universidad de Sonora. Por otro lado, la prevalencia de los ordenadores portátiles, inteligentes entre los estudiantes, permite que estos dispositivos se puedan usar como herramientas para efectuar cálculos.



METODOLOGÍA

Para el desarrollo de la aplicación de Anova “Arreglo doble” se basó con la metodología Scrum, ya que este mismo método ágil permite trabajar en Equipos con el fin de entregar aplicación de calidad, para tener un buen funcionamiento se debe de seguir los siguientes pasos: Análisis de requerimientos Recaudar todos los requerimientos de la aplicación y son: campos de texto, Diseño de pantalla que permite visualizar el teléfono real, y funciones principales de la aplicación, manual de la aplicación. Actividades Una vez definida los requerimientos se dispersan en diferentes fechas de actividades con un mes de límite para concluir el proyecto de anova, con las diferentes fechas para dar avances del proyecto y puede ser entrega antes de lo acordado. Lista de actividades: Suma por renglones Suma por filas Suma total Decisión Ciclo de vida Aquí se involucra todas las actividades traspasando al editor de código de Android studio, verificando todos los eventos de codificación, al mismo tiempo realizando todas pruebas necesarias para la aplicación de que no exista fallos. Aplicación completa Se crea una APK para la instalación de la aplicación para dispositivos móviles quienes los requieren puedan compartírselo.


CONCLUSIONES

La tecnología sigue evolucionando que mejor automatizar este proceso aprovechando a lo máximo la tecnología de la información. A medida que el paso del tiempo fue una necesidad, como ejemplo la aplicación “Anova” que permite analizar las diferencias entre medias grupales de una muestra. Esta app también puede servir para mejorar el aprendizaje tanto el estudiante y el profesor comprobando resultados de esta calculadora dando la hipótesis nula y alternativa encontrando la efectividad del experimento que se desea evaluar.
Vargas Orozco Christian Salvador, Universidad de Guadalajara
Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional

PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.


PROYECTO 1: PREDICTOR DE PRECIPITACIóN PLUVIAL E INCIDENTES VIALES.

Hernández Beltrán Javier Enrique, Instituto Politécnico Nacional. Olvera Flores Bryan Alberto, Instituto Politécnico Nacional. Rosas Gómez Catherine, Instituto Politécnico Nacional. Vargas Orozco Christian Salvador, Universidad de Guadalajara. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Dentro de la ciudad de México se suele contar con un problema referente a la vialidad, esto es de gran notoriedad al visitarla ya que, a pesar de no contar con un espacio geográfico tan grande, la cantidad de vehículos que circulan por las calles es muy alta. Por esto mismo, suele ser algo común que se lleguen a presentar diversos accidentes viales. Gran parte de estos accidentes pueden a llegar a generar cambios o concentraciones de ciertos agentes contaminantes en el medio ambiente de la zona en la que se encuentren, por lo que, resulta interesante la revisión de los datos que se muestren de la recolección de dicha información ambiental. Con esta información, podríamos llegar a ser capaces de encontrar un patrón en cuanto a las zonas y fechas que nos podrían ayudar a predecir en qué fechas, días y zonas aproximadas se pueden llegar a presentar más accidentes viales. Asimismo, con la ayuda del patrón encontrado, se podría encontrar una relación entre la cantidad de accidentes viales que se registran los días en los que hay un mayor índice de precipitación pluvial y, de este modo, predecir con mayor exactitud los accidentes viales que podrían generarse y tomar medidas para prevenirlo como tomar rutas alternas y así evitar el tráfico. 



METODOLOGÍA

Tras dar por terminada la introducción teórica a los conceptos básicos de ciencia de datos y machine learning, hemos realizado diferentes ejercicios prácticos en los que hemos analizado el funcionamiento de diferentes algoritmos de clasificación o predicción. Al finalizar estos ejercicios prácticos se nos dio a elegir el tema de enfoque de nuestro proyecto final dentro del programa delfín.  En colaboración con tres compañeros más del programa, hemos seleccionado como nuestro proyecto final el siguiente tema; Predictor de precipitación pluvial e incidentes viales el cual tiene como objetivo, demostrar que es posible realizar predicciones con un alto rango de exactitud acerca de los días y zonas donde lloverá dentro de la Ciudad de México, así como determinar si existe una correlación entre el fenómeno natural de la lluvia y la incidencia de accidentes viales dentro de la Ciudad de México y de ser así, modelar dicha correlación.  El proyecto da inicio en nuestras manos desde un punto en el que ya contamos con dos conjuntos de datos no procesados, una de registros oficiales de accidentes viales y la otra acerca de registros, también oficiales, de las precipitaciones pluviales, ambas bases delimitadas a registros en la Ciudad de México.  El primer paso del proyecto, consistirá en la manipulación de los conjuntos de datos a modo de poder modificar estos hasta tenerlos en un formato en el que sea posible leerlos con cualquier software para su manipulación. Este paso resulta necesario ya que, al no estar procesados, estos no se encuentran generadas correctamente y esta construcción, que cuenta con algunos errores, afectan su accesibilidad.  Posterior al proceso de limpieza de los conjuntos de datos, se procederá a seleccionar para cada uno de estos, las columnas de datos que se utilizarán para la predicción de eventos.  Después de esto, estos datos serán separados en dos grupos, siendo uno el utilizado para entrenar los algoritmos de predicción y el segundo, para hacer pruebas sobre la efectividad de dichos algoritmos.  Tras analizar los resultados de ambas predicciones, buscaremos las columnas de datos (enfocándonos especialmente en la zona y fecha) que nos permitan unir ambos conjuntos de datos en uno solo a fin de localizar de esta manera la posible existencia de una correlación entre ambos fenómenos de estudio, los accidentes viales y las lluvias.  Una vez concluido este proceso, se procede a, finalmente, trabajar con el producto que se recibe del análisis y procesos de Machine learning, se puede empezar a utilizar herramientas que nos permitan ilustrar dichos datos logrando de esta forma, que sea mucho más fácil la interpretación de los resultados que hemos encontrado. 


CONCLUSIONES

A lo largo de la estancia de verano, se adquirieron conocimientos de las 3 etapas con las que cuenta un proyecto de Data Science, que son la minería y limpieza de datos (etapa relevante y sumamente laboriosa), aplicación de los diferentes algoritmos de Machine Learning (siendo esta con mayor peso, con el fin de saber su funcionamiento para identificar en qué circunstancias aplicarlos), y finalmente se obtiene la interfaz, con la que el usuario podrá interactuar. En las 3, se obtuvieron conocimientos teóricos que se aplicaron en el proyecto final.  Por parte del proyecto, fue algo interesante de trabajar debido a las diversas formas en que podíamos dar pie al procedimiento, sin embargo, teníamos que ir poco a poco para saber hasta qué punto podríamos llegar en este corto tiempo. Finalmente, tuvimos que detenernos en un punto medio, debido a que, por los datos que se proporcionaban en una de nuestras muestras, no podríamos realizar las correspondientes predicciones ya que no contábamos con la información suficiente, además de que hacer transformaciones de otros tipos de datos a numérico (el cual necesitábamos) llegaría a ser mucho más tardado y complicado de realizar. 
Vargas Ortiz Fernando, Universidad Autónoma del Estado de México
Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa

TECNOLOGíA RFID


TECNOLOGíA RFID

Pioquinto Perez Gustavo Angel, Universidad Autónoma del Estado de México. Vargas Ortiz Fernando, Universidad Autónoma del Estado de México. Asesor: M.C. Roberto Antonio Martínez Thompson, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La tecnología RFID (Radio Frequency Identification) es una forma de comunicación inalámbrica que incorpora el uso de acoplamiento electromagnético o electroestático en una frecuencia determinada del espectro electromagnético, para identificar únicamente un objeto, animal o persona. Esta tecnología tiene la característica de ser de lectura rápida y de bajo costo. Es ampliamente utilizada con fines de control de inventario y control de personal. En la Universidad Politécnica de Sinaloa (UPSIN) se cuenta con la necesidad de desarrollar un sistema el cual permita llevar el control de los equipos de cómputo en los diferentes laboratorios con los que cuenta el plantel.



METODOLOGÍA

Un sistema RFID ésta compuesto de 2 elementos principales: Tarjeta RFID, la cual contiene la información en una memoria gobernada por un microchip. Un escáner o lector el cual se encarga de extraer la información de las tarjetas. Estas tarjetas operan bajo cuatro principales ondas de frecuencia, siendo estas: Baja frecuencia (Low Frequency):  Utilizan una frecuencia comprendida desde 120 a 140 kHz, por lo cual pueden ser aplicados en lecturas de pequeñas cantidades de datos y a distancias pequeñas, ya que sólo pueden ser leídos a una distancia máxima de 0.5 metros; esta distancia es recomendable para aplicaciones usuales, tales como control de acceso, identificación de animales, o incluso control antirrobo en vehículos. Alta frecuencia (High Frequency): Trabaja con una frecuencia de 13.56 MHz, teniendo un rango de lectura menor a un metro de distancia, y a igual que las tarjetas de baja frecuencia, son utilizadas para una lectura de datos pequeña, por lo cual, las aplicaciones más comunes de este tipo de frecuencia van desde control de bibliotecas, servicios de alquiler, hasta seguimiento de paquetes y gestión de maletas en aeropuertos. Ultra alta frecuencia (Ultra High Frequency): Tiene un rango de trabajo, siendo de 860 a 960 MHz, esta frecuencia tiene una zona de cobertura que llega a alcanzar los 4 metros de distancia, aunque algunas tarjetas pueden legar a tener un rango de lectura de hasta 10 metros. Un inconveniente con esta frecuencia es que depende del lugar de uso, existen regulaciones para el uso de algunas frecuencias. Esta radio frecuencia abarca ciertas aplicaciones tales como pago de peaje en autopistas, y trazabilidad de bienes y artículos, así como logística de cadena de suministros. Microondas: Actúa en frecuencias de 2.4 GHz hasta 5.8GHz, alcanzando distancias de lectura que van desde 1 metro hasta los 15 metros. Algunas aplicaciones relevantes para esta frecuencia son la automatización de procesos en la fabricación, pago de peaje en carreteras, entre otras. Otra característica de las tarjetas RFID es la forma en que estas son alimentadas para su posterior lectura por medio de un lector RFID, estos medios son: Tarjetas pasivas: Cuando el lector RFID está cerca de la tarjeta, alimenta los circuitos de la tarjeta, iniciando la transmisión de los datos inmersos dentro del chip Tarjetas activas: Necesitan de una batería externa para poder transmitir la información contenidas en estas, pero una ventaja con este modo de alimentación es que puede aumentar la señar de transmisión de los datos. El lector RFID, el cual es un dispositivo conectado a una red, el cual puede estar conectado permanentemente o ser portable. Utiliza ondas de radiofrecuencia que activan la tarjeta. Una vez la tarjeta está activada emite una onda de regreso al lector, posteriormente dicha onda es traducida en información. El modo de operación de un lector puede llevarse a cabo de tres formas distintas: Buscando dentro de su zona de cobertura de forma continua, en espera de leer varias tarjetas a la vez Examinando periódicamente en busca de nuevas etiquetas que quieran comunicarse con el lector Actuando inmediatamente después de haber detectado una nueva señal


CONCLUSIONES

Las frecuencias de la tecnología RFID trabajan bajo ciertas restricciones de los materiales a los cuales son adheridos, tal es el caso de LF, ya que no funciona correctamente con materiales conductores, ya que son susceptibles a interferencias. Incluso algunas frecuencias, como UHF y microondas son absorbidas estando en contacto con agua, o HF, que presenta problemas con materiales metálicos, ya que reflejan la señal. Las tarjetas RFID son capaces de guardar información respecto a varios factores de un producto, tales como fecha de producción, fecha de caducidad, dirección de entrega, a diferencia de otras tecnologías, como el código de barras, que sólo guardan una asociación a la base de datos de los productos. Un punto en contra de las tarjetas RFID es la unión del chip a la antena de datos, ya que, de tener un daño, por mínimo que sea, le será imposible seguir emitiendo datos al lector.
Vargas Pérez Luis Antonio, Instituto Tecnológico de Pachuca
Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar

PROGRAMACIóN DE VIDEOJUEGOS: OTRA MANERA PARA APRENDER A PROGRAMAR


PROGRAMACIóN DE VIDEOJUEGOS: OTRA MANERA PARA APRENDER A PROGRAMAR

Vargas Pérez Luis Antonio, Instituto Tecnológico de Pachuca. Asesor: M.C. Manuel Alejandro Valdes Marrero, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

La programación desde hace tiempo ha sido tomada como algo complicado para aprender. Recientemente se ha hecho más popular la idea de aprender a programar, sin embargo, ya sea por razones de complejidad, por el hecho de que resulta aburrido aprender la teoría sin un propósito en específico o porque no se ven resultados inmediatos cuando se desarrollan sistemas de información, sigue siendo difícil que las personas se motiven a entrar en el mundo de la programación. Aprender programación desarrollando videojuegos es una solución a este problema, ya que los conocimientos teóricos se pueden aplicar de inmediato y se ven reflejados en un entorno gráfico que resulta divertido, lo que estimula la curiosidad y el autoaprendizaje porque el estudiante busca hacer juegos más completos y entretenidos. Uno de los paradigmas de programación que más se utilizan actualmente es la programación orientada a objetos (POO). En los videojuegos no es la excepción, ya que la POO sirve para representar a cada elemento del videojuego como un objeto, que tiene propiedades y un comportamiento definido. Uno de los lenguajes de POO más populares y representativos es Java. Por tal motivo, para desarrollar el videojuego se decidió utilizar Java con el IDE Greenfoot, ya que es una plataforma creada específicamente para aprender a programar en Java mediante videojuegos y animaciones en 2D. Aparte de aprender a programar, se buscó que el videojuego en sí fuera útil, así que se optó por desarrollar un videojuego académico que pueda ser una alternativa a los métodos de evaluación formales (exámenes), los cuales son poco interactivos y los alumnos no siempre los presentan de una manera relajada.



METODOLOGÍA

El proyecto dio inicio con una lluvia de ideas, en donde se seleccionó hacer un videojuego tipo juego de mesa, en donde cada casilla significa una pregunta y puedan competir varios jugadores. Las bases para elegir la mecánica, fueron principalmente dos: que pudiera tener un sistema de preguntas y que fuera entretenido. Posteriormente se elaboró un storyboard, plasmando así el bosquejo general del juego que incluye el bosquejo de la mecánica del juego, los personajes, los mapas y los respectivos aditamentos además de las pantallas de configuración del juego. Se hizo un análisis de requerimientos del videojuego, definiendo los elementos que se iban a necesitar, de dónde se iban a cargar las preguntas para que no fueran fijas (archivo CSV), qué ventajas tendría el jugador, las animaciones de los personajes y el contenido de cada pantalla. Además de los distintos elementos en donde se mostraría el estatus actual de la partida. Mediante un sistema de turnos, los jugadores competirán entre sí por alcanzar un determinado número de vueltas en un tablero, incluyendo también tiempo o número de turnos por jugador. Al incluir un total de 10 personajes, el jugador es capaz de elegir con el que más se identifique. La mecánica consiste en un juego de tablero en el que cada casilla puede tener cierta función, dependiendo del color, puede ser preguntas de dificultad baja, intermedia o alta, así como pequeñas ventajas que se van dejando de manera aleatoria. Se colocó la opción de jugar en tres diferentes entornos para hacer más dinámica la manera de jugar, y cada uno con su respectiva dificultad: playa (fácil), selva (intermedio) y desierto (difícil). Estos grados de dificultad afectan a las preguntas, esto es, entre mayor dificultad tenga un mapa, será más probable que aparezcan preguntas difíciles, así como menos probable las ventajas para el jugador. Después de la etapa de análisis se continuó con la de diseño. Se elaboraron todos los elementos gráficos establecidos en el storyboard, así como la grabación de sonidos que forman parte del videojuego, utilizando la herramienta Photoshop para las imágenes y DAW Reaper para grabar sonidos. Se diseñó un archivo CSV para las preguntas que aparecerán en el videojuego. Después se continuó con el diseño orientado a objetos, donde se detallan las clases que se van a ocupar, las relaciones que existen entre ellas, así como los atributos y métodos de cada clase. Dentro de las clases gráficas existen las clases de tipo World, como los mapas en donde se desarrolla el juego y las pantallas de configuración; y las clases tipo Actor, que representan los objetos que estarán interactuando en el mundo, como los personajes, botones y números. Existen clases no gráficas que se encargan de tareas que no se muestran en pantalla, por ejemplo: las enumeraciones, en donde se encuentran constantes del sistema; la clase de configuración, en donde se guarda el estado de la partida actual; y las clases de carga de recursos, responsables de recuperar las preguntas del archivo CSV al iniciar el videojuego. Una vez terminado el diseño, se programaron los menús de selección (personajes, modo de juego y mapa) y el sistema de turnos, además de las animaciones principales de los avatares, las clases de carga y almacenaje de preguntas, la clase configuración y las enumeraciones. Habiendo terminado el sistema de turnos se elaboró el generador aleatorio de casillas, la pantalla de ventajas y la pantalla en donde se contestarán las preguntas. Después, se desarrolló la pantalla que se mostrará cuando el juego finalice, así como los menús de ayuda y créditos. Finalmente, el videojuego se tuvo que someter a pruebas para encontrar y luego depurar algún error. También se realizó la documentación del código con Javadoc.


CONCLUSIONES

Durante la estancia en el verano, a través de adquirir conocimientos acerca del lenguaje de programación Java, así como el uso del IDE Greenfoot, fue posible sugerir un método de evaluación más entretenido por medio de un videojuego, con el cuál se podría medir el conocimiento de los estudiantes y divertirse durante el proceso. Así mismo, se adquirieron conocimientos nuevos de la programación orientada a objetos en el lenguaje Java, dándole un propósito a esta mientras se cumple un objetivo propio.
Vargas Ramirez Carlos Eduardo, Instituto Politécnico Nacional
Asesor: Dr. Daniel Sánchez Martínez, Universidad Autónoma de Nuevo León

DESARROLLO DE MATERIALES FOTOCATALíTICOS PARA LA DEGRADACIóN DE ACETAMINOFéN


DESARROLLO DE MATERIALES FOTOCATALíTICOS PARA LA DEGRADACIóN DE ACETAMINOFéN

Vargas Ramirez Carlos Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Daniel Sánchez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

La contaminación ambiental es uno de los problemas más preocupantes en la actualidad, la cual surge debido a diferentes medios, como emisiones de cualquier sustancia al medioambiente y en el mayor de los casos resulta ser nocivo para la salud de la población y puede perjudicar de forma adversa en el ser humano, la vida animal y vegetal. La contaminación surge a través del hombre, mediante procesos productivos que forman parte de la vida diaria y afectan directa e indirectamente la calidad del agua la calidad del agua, aire, suelo y la mayoría de los ecosistemas. Con respecto al agua, la cual es gran responsable para el desarrollo de vida en todo ser vivo, es importante destacar que los problemas de contaminación han aumentado en los últimos años, debido al crecimiento industrial y de la población. Hay muchas fuentes de contaminación debido a la actividad humana, las cuales son generadas por los sectores industrial y agrícola, que son exigidos por el alto consumo de la sociedad para satisfacer diferentes necesidades. Actualmente existe un interés creciente por los contaminantes emergentes, entre los cuales se encuentran los fármacos, surfactantes, aditivos industriales, esteroides y hormonas. Debido al amplio consumo de productos farmacéuticos en la sociedad moderna, los podemos encontrar en las aguas residuales de las industrias, hospitales y efluentes sanitarios. No todos los productos farmacéuticos son removidos con el tratamiento de aguas actual, por lo que pueden estar presentes en distintos cuerpos de agua e incluso en el agua potable a bajas concentraciones. El paracetamol es uno de los medicamentos más comunes en la actualidad, es un analgésico seguro y eficaz, está ampliamente disponible y es un medicamento que es usado frecuentemente, sin receta. La eliminación de estos fármacos es importante, ya que a largo plazo nos volvemos más inmunes a ellos, la degradación de este contaminante puede llevarse a cabo por el proceso de fotocatálisis, en el cual se lleva a cabo una fotorreacción en presencia de un catalizador, que involucra la absorción de la luz.



METODOLOGÍA

Bismutato de estroncio (Sr2bBi2O5) Se utilizaron 0.35 g de óxido de bismuto (Bi2O3) y 0.22 g de carbonato de estroncio (SrCO3), lo cual se determinó por medio estequiometría, después de pesar se mezclaron con ayuda de un mortero de ágata y se añadió acetona para conseguir una mezcla más homogénea, la mezcla se realizó durante aproximadamente 40 min. Una vez realizada la mezcla se colocó en crisol de porcelana de 30 ml y se calcinó en una mufla durante 24 h, a 800 °C durante 24 h, una vez finalizado el tiempo se retiró el crisol y se homogenizo el material, después se volvió a colocar a 800 °C otras 24 h y se dejó enfriar durante 4 h. Luego de terminar el proceso de elaboración, la muestra se envió a DRX en condiciones de 10-70° y el material fue identificado con la tarjeta JCPDS 01-081-0516. Nitruro de Carbono (g - C3N4) Para obtener el nitruro de carbono, se calcinó melamina (C3H6N6) a 550 °C durante 4.5 h, y se peso para ver la cantidad recuperada, que es aproximadamente el 40%. Ultrasonido - Nitruro de Carbono (g - C3N4) Para preparar los nanomateriales de g - C3N4 por ultrasonido, se diluyo la cantidad de 0.5 g de nitruro con 40 ml en un tubo de ensayo, con ayuda de una probeta graduada. Se ajusto en el equipo de ultrasonido UP200Ht, durante 10, 30 y 60 minutos a 130 W, después a 150 y 170 w respectivamente. Una vez finalizado el tiempo en la sonda, se vierte la solución en un vaso de precipitado y se pone en una plancha a 80° hasta evaporar el agua y recuperar el polvo, para posteriormente enviar el material a DRX. Prueba fotocatalítica Se realiza la solución de 0.01 g de acetaminofén en 100 ml, después se toman 15 ml y se diluye en 100 ml dentro de un matraz aforado, en ese momento se toma la muestra estándar, luego se pesa 0.1 g del catalizador que se utilizara para la reacción, con un vaso de precipitado y la solución, se mezcla con ayuda de un sonicador y se vierte en un reactor, que esta ventilado por una corriente de agua y tiene un espacio para una lampara con luz de 35 W de Xenón y un flujo luminoso de 35000 lux, que simula la luz del sol. El reactor se coloca en una plancha con un agitador y se pone en el nivel 6 del agitador magnético, se deja en obscuridad por 1 h y se toma muestra, después se enciende la lampara, tomando muestras cada 30 min por 4h. Al concluir la reacción, se colocan en una centrifuga las muestras para retirar el catalizador con ayuda de una pipeta. Las muestras se llevan a un espectrofotómetro UV-Vis para medir la concentración del contaminante y determinar la degradación.


CONCLUSIONES

Del presente trabajo de investigación se logró recabar información sobre las propiedades del nitruro de carbono para la degradación de acetaminofén, con distintos parámetros de preparación, además de obtener morfología estructural de las nanopartículas fabricadas. Además, se logró obtener por el método de estado el Sr2Bi2O5 de manera pura, el cual fue posteriormente evaluado en la degradación de acetaminofén mostrando buenas propiedades fotocatalíticas.
Vargas Torres Edgar, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara

INVERSOR DE CORRIENTE


INVERSOR DE CORRIENTE

Esquitin Mejia Fernando, Instituto Tecnológico Superior de Huauchinango. Mancilla Torres Maximiliano, Instituto Tecnológico de Colima. Vargas Torres Edgar, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Para poner en función el inversor y saber su correcto funcionamiento es necesario medir la corriente y el voltaje que está fluyendo dentro de éste, para conocer esos datos es necesario utilizar sensores de medición tanto en AC y DC, pero los sensores no funcionan por sí solos, estos requieren estar acoplados a un circuito que les permita realizar las mediciones correctamente, usando como referencia la ley de Ohm se deben utilizar resistores para medir en la corriente. Todos estos circuitos deben de ser alimentados con DC, por lo cual se deben de realizar fuentes de alimentación simétricas, así como fuentes de 5V, 24V y una placa de distribución de voltaje.



METODOLOGÍA

Para realizar el esquemático de los circuitos utilizamos el software libre “Eagle” el cual nos permite realizar también las PCB obteniendo los “Gerber” para poder maquinar las placas fenólicas en una maquina CNC. Se requería de dos fuentes de 25V y una de 5V para poder alimentar la sección de control que va conectada a un módulo inversor IGBT (PM50CLA060) y una fuente simétrica para alimentar los circuitos de medición de voltaje y amperaje, para lo cual fue necesario utilizar: Un transformador de 18V y tres de 32V Puentes rectificadores W02G Capacitores cerámicos 2A104J Capacitores electrolíticos 35V 2200uF Diodo led Resistores de 330 Ω y 0.25 W Reguladores de voltaje LM7805 y LM7824 Borneras de conexión Primero se realizaron los esquemáticos, una vez revisados se realizaron los PCB y se mandaron a maquinar al centro de CNC, una vez maquinadas colocamos los componentes y se soldaron a las placas. Una vez todo colocado y soldado a las placas, se realizaron pruebas, comprobando que nos dieran los voltajes de salida CD deseados. Se repitió el mismo procedimiento para las otras fuentes de alimentación. Para realizar los circuitos de medición fue necesario utilizar: Sensores LV25-P Sensores LA55-P Resistores de medición 0.25W Reguladores LM7815 y LM7915 Capacitores cerámicos (104, 105 y 470) Conectores BNC Borneras de conexión. Para realizar este circuito de igual mamera que las fuentes se realizaron los circuitos esquemáticos, y una vez revisados se realizaron los PCB, donde después se mandaron al centro de maquinado CNC. Cuando nos las entregaron procedimos a soldar los componentes a la placa. En este circuito se utilizaron 2 reguladores de 15 V, uno negativo y uno positivo, estos alimentaran a los sensores LA55-P y LV25-P. De igual manera se utilizaron resistencias de medición para poder obtener los valores de voltaje y corriente DC, estas señales se mandaron a los BCN para poder realizar las mediciones con el osciloscopio y obtener mediciones más precisas y poder ver la forma de onda. Para realizar las pruebas de medición de voltaje y amperaje en la parte de AC, fue necesario identificar las fases A, B y C las cuales se identificaron a través del osciloscopio viendo el desfase que existe entre ellas. Una vez identificadas fueron conectadas a los sensores de medición para verificar que cada uno de ellos funcionaran correctamente midiendo el voltaje que hay entre las fases AB, BC y CA observando que la onda senoidal coincidiera en con cada fase. Para verificar que los sensores de corriente funcionaran correctamente fue necesario utilizar una carga a la salida de los sensores, y repitiendo el proceso de los sensores de voltaje, identificamos el amperaje en las fases A, B y C comparando con la onda senoidal de cada sensor.


CONCLUSIONES

Durante la estancia en este verano, se lograron realizar las pruebas requeridas, obteniendo como resultado la función correcta de cada sensor de medición, así como el correcto funcionamiento de cada fuente de voltaje, obteniendo así una mejora para el inversor de corriente.
Vásquez Palestino Antonio, Instituto Tecnológico Superior de Ciudad Serdán
Asesor: Dr. Irma Magaña Carrillo, Universidad de Colima

LíNEA DE SERVUCCIR EN LA DIMENSIóN INTANGIBLE-CUALITATIVA PARA HACER CALIDAD TOTAL EN LA EDUCACIóN SUPERIOR.


LíNEA DE SERVUCCIR EN LA DIMENSIóN INTANGIBLE-CUALITATIVA PARA HACER CALIDAD TOTAL EN LA EDUCACIóN SUPERIOR.

Vásquez Palestino Antonio, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Irma Magaña Carrillo, Universidad de Colima



PLANTEAMIENTO DEL PROBLEMA

La educación Superior es aquella que contempla la última fase del proceso del aprendizaje académico impartido en las Universidades o Institutos Superiores, es el tronco común para todos los profesionistas  y es de vital importancia  sostener,  mejorar e impartir durante su trayectoria para absorber, desarrollar, cultivar, fortalecer conocimientos, técnicas, estrategias o saberes.  La Facultad de Turismo de la Universidad de Colima imparte la asignatura de Administración para la Gestión de la Calidad, se enfrentó a la necesidad de llevar a cabo el seguimiento de la Calidad Intangible-Cualitativa de los estudiantes, asimismo, el estado actual en que se encuentran ubicados debe responder al método de Mejora Continua para trabajar con el Yo. Según las listas de acuerdos facilitadas por el docente: Irma Magaña Carrillo, se hicieron cinco equipos para realizar  los trabajos asignados durante el primer y segundo parcial. La mayor problemática que se presenta en este tipo de estrategias para realizar actividades es que los estudiantes presentan dificultad al transitar por la dimensión Intangible-Cualitativa, una de las razones por las que no se ha llegado a la Calidad Total es por la cultura de la educación en México. Por una parte el Procedimiento Critico-Flexible define la línea de Servuccir que es sustancial para encaminar los estudiantes hacia un nuevo horizonte de productividad y competitividad, es por eso que se va a mejorar la calidad de la educación desde la dimensión Cualitativa- Intangible con ayuda de valores, principios y códigos de ética Magaña (2018, pp. 33-53).



METODOLOGÍA

Se utilizó la información de los libros Iruma Desu, Servir con Calidad Total, Hitoshi Kume y el Artículo Periplo Sustentable para respaldar la línea de Servuccir en las dimensiones el qué y el cómo en la que se decidió trabajar durante el semestre, se utilizó el análisis  hermenéutico para interpretar la lista de acuerdos que cada equipo realizó en base a la actividad que se les asignó, ya que, la Dimensión Cualitativa-Intangible consta de cinco elementos y tres  componentes por elemento,  fueron  utilizados para fortalecer la educación del estudiante comprometiéndose a caminar sobre el bien ser y el bien hacer explicado en la investigación realizada, tomando en cuenta la diferencia de la religión entre México y Japón que son dos culturas muy diferentes con una gran diferencia de calidad y competitividad laboral Kazuga, (2015 citado por Guido, P., Fátima C., Adriana, V., et. al.), A continuación se dan a conocer los elementos y componentes que conforman la Línea de Servuccir  en la Dimensión Cualitativa-Intangible. Elementos y componentes para la Línea de Servuccir 1.- Equipo de trabajo Sinergia, Innovación, Compromiso. 2.- Documentación Planear, Método, Sistematizar. 3.-Auto-liderazgo Ser estratégico, Filosofía propia, Pasión. 4.-Medición Satisfacción del Cliente Turista, Herramientas de Calidad, Proceso Critico Flexible. 5.-Integral Desaprender-Aprender, Análisis, Ser efectivo    Mediante la información expuesta los alumnos deben adaptarse a los cambios tomando en cuenta como base son Valores Morales, Principios y Códigos de ética; todo comenzando por educar el YO que es un proceso laborioso donde se adquieren conocimientos, habilidades, creencias o hábitos, que otras personas les han transmitido, utilizando distintos métodos de enseñanza (Sánchez, 2019) para llegar al bien estar de la Calidad Total.   Aún más se utilizaron herramientas de calidad como Hoja de chequeo, Diagrama de Pareto y Diagrama Causa-Efecto,  haciendo uso de cada una de sus propiedades para hacer un mejor análisis para dar solución al problema, para ello, poder saber si los alumnos aplicaron los elementos y componentes durante el periodo Febrero-Agosto 2019 o no. Con los datos de la hoja de chequeo se van a meter al Diagrama de Pareto para identificar prioridades y causas generando la mayor parte de efecto.   Una vez realizado dicho diagrama se tomará la clase con más frecuencia de fallas y se atacará mediante el Diagrama Causa-Efecto para obtener el factor que lo genera. Examinado dicho  problema se eliminará y se estará en constante monitoreo para obtener la Calidad Total en la Educación Superior.        


CONCLUSIONES

Con la investigación realizada se pretende dar respaldo al nuevo método conocido como Línea de Servuccir que fue desarrollado en la Universidad de Colima para mejorar la satisfacción del Cliente Turista pero se utilizó para analizar e interpretar  el estado actual de la transición  del estudiante por las dimensiones intangibles del qué y el cómo para la satisfacción personal, con este método se puede llegar a cambiar la cultura de la educación y poder tener hombres de Calidad Total en México Y el Mundo.   
Vazquez Castrejón Cynthia Itzel, Instituto Tecnológico de Iguala
Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala

OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN


OPTIMIZACIÓN DEL PROCESO DE RECUPERACIÓN DE MINERALES VALIOSOS MEDIANTE LA IMPLEMENTACIÓN DEL SISTEMA DE FLOTACIÓN

Garcia Muchacho Leonardo, Instituto Tecnológico de Iguala. Pinchao Villota Diana Carolina, Universidad Católica de Pereira (Colombia). Rios Hernández Karla Greta, Instituto Tecnológico de Iguala. Vazquez Castrejón Cynthia Itzel, Instituto Tecnológico de Iguala. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

Guerrero es uno de los estados más importantes de México en cuanto a la explotación de minerales, ya que este estado es una zona rica en oro y plata por estar ubicado en el Cinturón de oro del pacifico (región que más facilidades ofrece en términos geológicos para extraer metales como oro y la plata). Esta idea surge de la necesidad que tienen las personas de este estado en querer explotar estos minerales en sus hogares para suplir sus necesidades básicas, el 60 % del territorio nacional tienen dueño, por tal motivo los microempresarios buscan asesoramiento para extraer el mineral en cuanto al contenido de minerales valiosos y de esta forma proseguir con la explotación de sus terrenos. Se requiere obtener minerales con contenido valioso (oro o plata), mediante la implementación de un proceso de optimización basado en dilución de valores y flotación de minerales.



METODOLOGÍA

Diseño y preparación de materiales y equipos Se eligió el tipo de muestras mineralógicas para su molienda y análisis metalúrgico, se realizó la rotulación de frascos para poder identificar las diferentes muestras de minerales con las cuales se va a trabajar. Para la trituración de las rocas se utilizaron herramientas como el marro y una plancha de acero como base, se hizo el proceso de molienda en el molino de mano. Teniendo la muestra reducida de tamaño (molida), se depositan en los frascos rotulados, se ordenó en números de muestras que se tuvo para procesar. Los minerales identificados son: Caliza, Andesita y Azurita. Reducción de tamaños Se redujo el tamaño de las muestras usando el molino de bolas (molienda 15 min) este proceso se lo hizo con las muestras de los minerales identificados. Se procedió al proceso de recuperación de valores metálicos, si la muestra es un oxido ésta debe diluirse en ácido nítrico al 10% para saber si tiene plata y si tiene oro se hace la lixiviación con cianuro al 10% y si es un sulfuro se somete al mineral al proceso de flotación (BULK). Ensaye por fusión (fundición) El proceso a seguir con las muestras que pasaron por dilución (cianuración) se le preparó un fundente, como resultado de la fundición de las tres muestras se obtuvo residuos de la fundición del mineral andesita y de la azurita se obtuvo algo de residuo. Además, se trabajó con una nueva muestra (concentrado I) se tienen 182.5 gr, se cuartea la muestra de concentrado alemán, por ende, 91.25 gramos pasan por dilución de valores y el resto de la muestra pasan por fundición. Por el método de dilución de valores este mineral no tuvo plata, pero al hacer el proceso de fundición se obtuvo un pequeño botón de plata. Copelación Se realiza el proceso de copelación para las muestras de las que se han obtenido pequeños residuos de algún metal valioso después de la fundición (azurita, andesita y concentrado I), para ello se necesitó: una mufla u horno eléctrico a una temperatura de 800 °C.  De la muestra concentrado alemán se obtuvo oro, su peso fue de: 0.046 gr. Apartado Se llevó a cabo: LA TEORIA DE LA ELECTRONEGATIVIDAD,ESTUDIADA POR PAULING, para ello se tuvo en cuenta la electronegatividad del cobre y plata (los dos son de 1.9) ambos elementos tienen la misma capacidad de atraer electrones hacia sí, si se los deja juntos. Se comprobó esta teoría y se fundió lo que se obtuvo. El diámetro del cobre disminuyó y se obtuvo 0.05 gr de plata después de la fundición, es decir, que se recuperó el 42% de este metal. Se comprobó la teoría de la electronegatividad de Pauling con respecto a la fuerza de electronegatividad sobre transferencias iónicas, tal es así, que también el cobre se disuelve en el ácido y forman nitrato de cobre color azul, es decir, así como deposición de la plata metálica en el cobre, en función del resultado obtenido se hizo el mismo proceso con un mineral de los que se han venido estudiando (andesita). Se hicieron cálculos para determinar el volumen de la varilla de cobre que se perdió después de la reacción con el ácido, y se concluye que se pierde un 43.4176% de su volumen. Procedimiento de flotación Se llevó a cabo la Pruebas Batch de laboratorio: se diseñó un sistema el cual consta de un taladro de columna, una celda metálica y un compresor, una vez se puso en funcionamiento el sistema  en la celda metálica se colocó agua, mineral andesita (muestra n.6), reactivo Xantato AERO 343-22%, Espumante CC-580-7p (alcohol alifático), Aerofloat 242 el tiempo de acondicionamiento fue de 10 min, se hizo control del pH, el paleteo se lo hizo cada 2 segundos (en un recipiente se colocó la espuma que resultó de la flotación). Cuando el proceso terminó se procedió a pasar el concentrado a un filtro de vacío, con el fin de obtener el mineral concentrado seco y pasarlo posteriormente a fundición, se obtuvieron 117 gramos de mineral concentrado. Se hizo la fundición y se obtuvo un botón de plomo con plata, se realizó la copelación para determinar si posee algún mineral valioso, como resultado se obtuvo un pequeño botón de plata el cual tuvo un peso de: 0.3062 gramos. Se concluye que de 1 kilo de mineral se pueden obtener 117 gr de concentrado de este mineral y de 30gr de concentrado de mineral se obtuvieron 0.3062 gr de plata. Por lo tanto, de 1000 gr (1 kilo) = 10.203 gr de plata,1 ton (1000 kg) = 10,203.3 gr de plata = 10.203 kg de plata.


CONCLUSIONES

Durante la estancia de verano científico se lograron adquirir conocimientos teóricos y prácticos en el proceso de la obtención de minerales valiosos. Se hicieron diseños de los métodos para determinar cuál proceso era el más óptimo en la obtención de metales como oro o plata de los minerales que fueron objeto de estudio, los métodos utilizados del proceso fueron: dilución de valores, la teoria de la electronegatividad estudiada por Pauling y flotación. Siendo el ultimo el más eficaz cumpliendo así el objetivo del proyecto de Optimizar el proceso en la obtención de minerales valiosos, en los procesos ya mencionados la recuperación de mineral fue mínima y en la flotación el índice de recuperación fue mayor.
Vazquez Escalante Diana Laura, Universidad de Sonora
Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara

REFUERZO DE HIDROGELES ACRíLICOS CON CELULOSA NANOCRISTALINA DE FIBRA DE AGAVE TEQUILANA WEBER VARIEDAD AZUL


REFUERZO DE HIDROGELES ACRíLICOS CON CELULOSA NANOCRISTALINA DE FIBRA DE AGAVE TEQUILANA WEBER VARIEDAD AZUL

Garcia Beltran Julio Alfredo, Universidad de Sonora. Vazquez Escalante Diana Laura, Universidad de Sonora. Asesor: Dr. Salvador Garcia Enriquez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Los hidrogeles por sus propiedades fisicoquímicas pueden ser útiles en operaciones de separación en la biotecnología, el procesamiento de productos agrícolas, materiales súper-absorbentes, sistemas de administración de fármacos y biomateriales en general. Sin embargo, muestran propiedades mecánicas generalmente pobres debido a la naturaleza aleatoria de las reacciones de entrecruzamiento de polímeros y su alta absorción de agua, lo que limita su uso en diversas aplicaciones. Debido a lo anterior, en la síntesis de hidrogeles es necesario buscar nuevas estrategias para la incorporación de agentes de refuerzos naturales o sintéticos. La zona metropolitana de Guadalajara junto con el estado de Jalisco produce una gran cantidad de planta de agave azul (agave tequilana weber variedad azul), el cual este produce el tal llamado tequila. En esta investigación se trató de utilizar la celulosa del agave azul para darle diferentes características a los hidrogeles, el cual se dará una mayor dureza.



METODOLOGÍA

Se hicieron hidrogeles con una consistencia de 40% monómero y 60% agua, con una fase polimérica 50/50, de los cuales se hacia una solución con diferentes composiciones, de los cuales fueron de 0%, 0.05%, 0.1% y 0.2% de celulosa nanocristalina, en el cual se determinará la mejor composición para las necesidades que se necesiten. Para la creación de los hidrogeles se hizo una solución de 20 mililitros con las diferentes sustancias: Acido acrílico Acrilamida. n-metilenbisacrilamida Agua destilada. Bencil alfa Nanocritales de fibra de agave tequilana weber variedad azul. Después de obtener nuestra solución se coloca bajo un foco de ultravioleta de aproximadamente de 500 nanometros de longitud de onda, de los cuales empieza el proceso o lavado para poder hacer xerogeles; primero se secan hasta llegar casi un peso contante; después se sumergen en agua destilada, para poder eliminar el monómero sobrante; para después secarlos hasta llegar casi a un peso contante. Ya obteniendo xerogeles, se podrá comenzar a determinar la cantidad de agua que puede absorber los hidrogeles, esto pudiendo hacer una cinética de los hidrogeles y poderle hacer las diferentes caracterizaciones necesarias para el estudio de estas.


CONCLUSIONES

Se obtuvieron 96 hidrogeles en total; con 24 hidrogeles por cada composición, en el cual obteniendo los xerogeles se seleccionaron los 7 mejores hidrogeles por cada composición, para poder hacer cinética, en el cual se sumergieron por determinado tiempo los cuales fueron: Primer día: cada 10 minutos durante 8 horas. Segundo día: cada 20 minutos durante 8 horas. Tercer día: cada 30 minutos durante 8 horas. Por cuestión de tiempo y factores no asociados del cual no se pudo hacer el programa pactado, en el cual tuvimos todos los objetivos, pero se pudo hacer:   Se hizo cinética de las composiciones de 0% y 0.05% de celulosa. Se hizo reología de 6 hidrogeles de la composición de 0%, de los cuales determinamos el módulo de Young y punto de quiebre de los hidrogeles. Por ya antes dicho, por los factores no asociados, no se pudo completar los estudios necesarios, de los cuales fueron pactados en el programa.
Vazquez Eustaquio Marco Antonio, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor: M.C. Lewin Andrés López López, Universidad del Valle (Colombia)

DISEñO DE BANDA TRANSPORTADORA CON ESTACIóN DE MEDIDA


DISEñO DE BANDA TRANSPORTADORA CON ESTACIóN DE MEDIDA

Tepepa Alvarez Juan Manuel, Instituto Tecnológico de Toluca. Vazquez Eustaquio Marco Antonio, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Lewin Andrés López López, Universidad del Valle (Colombia)



PLANTEAMIENTO DEL PROBLEMA

Actualmente se está presentando una demanda por nuevos ingenieros y científicos a nivel mundial, fenómeno evidenciado en este siglo por los bajos niveles de interés en los jóvenes para formarse profesionalmente en áreas de ciencia o ingeniería,de acuerdo a reportes del ministerio de educación en Colombia actualmente existe una deserción promedio del 50% en todos los tipos de estudio universitario.  Existe entonces la necesidad de crear y aplicar nuevas herramientas didácticas apoyadas en las TIC y en los avances tecnológicos que puedan utilizarse en los cursos de las carreras tecnológicas ofrecidas en la sede, al igual que ser llevados a la comunidad estudiantil de colegios de la región con el objetivo de motivar el interés por las áreas STEM. En consecuencia, se plantea aprovechar el recurso físico y humano disponible actualmente en la sede para crear plataformas modulares para experimentación multidisciplinar mediante el uso de la impresora 3D como equipo principal de fabricación de piezas plásticas y responder a la pregunta: ¿qué características deben considerarse en el diseño de plataformas modulares para educación STEM que sean viables de aplicar económicamente ? De este modo se plantea que una plataforma modular didáctica puede ofrecer una alternativa para desarrollar habilidades de campo en cuanto a la programación de dispositivos y software de control de procesos industriales.



METODOLOGÍA

El presente proyecto de investigación posee un enfoque dirigido al campo de la ROBOTICA EDUCATIVA basado en la idea de construcción de sistemas a escala que permitan la simulación de cadenas de producción para la medición de diferentes tipos de variables, para lo cual se ha empleado la metodología con orientación experimental. Las fases a desarrollar en términos generales son:  1) Definición de especificaciones del sistema general en cuanto a estructura, tamaño y requisitos operativos. 2) Diseño de piezas mecánicas para banda transportadora y estaciones de medición. 3) Impresión, pruebas y optimización de piezas mecánicas acopladas a sensores y actuadores (SolidWorks). 4)Programación de componentes electrónicos. 5) Caracterización de sensores en estaciones de medición. 6) Puesta en marcha de una cadena productiva sobre la plataforma. 7) Diseño de interfaz gráfica para la vizualización y contriol del sistema en tiempo real (Processing).


CONCLUSIONES

RESULTADOS Hasta el momento se ha logrado el diseño e impresión 3D de las distintas piezas que forman parte del funcionamiento de la banda transportadora, estas son: • Base. • Soportes. • Ejes. • Carcaza de motor. • Eslabones. • Plataforma. • Engranes. Estas piezas fueron diseñadas evolutivamente ya que en cada etapa se fueron modificando distintas características para mejorar su funcionamiento. Tienen la particularidad de poder acoplarse y posicionarse en distintos lugares del sistema para adecuarse a las necesidades del usuario. Del mismo modo se comenzó a crear la plataforma digital para visualizar y controlar el proceso en tiempo real mediante el Software Processing. En esta interfaz gráfica se puede observar la actualidad del sistema desarrollado y las expansiones futuras que se pretenden adicionar con la continuación del proyecto. CONCLUSIONES •Es importante crear oportunidades para que el estudiante pueda tener contacto con un proceso industrial mediante un equipo didáctico de fácil acceso y manipulación. •La utilización de Processing para la visualización de procesos industriales en 2 dimensiones acerca al estudiante a un entorno más real de la llamada industria 4.0. •El uso de la impresora 3D para prototipado, facilita crear físicamente una idea y comprobar su funcionamiento para aceptar o corregir el diseño. •Al trabajar con impresión 3D obtuvimos experiencia para solucionar los inconvenientes que se generan durante el proceso.
Vazquez Gonzalez Yaznay, Universidad Veracruzana
Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)

DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.


DESCRIPCIóN Y ANáLISIS DE LOS INDICADORES DEL PROCESO DE CRíA DE GRANJAS PORCíCOLAS SEMI-TECNIFICADAS EN COLOMBIA.

López González Karenina, Universidad de La Salle Bajío. Martínez González Diana Carolina, Universidad de La Salle Bajío. Santiago Hernández Jorge, Universidad Veracruzana. Vazquez Gonzalez Yaznay, Universidad Veracruzana. Asesor: Dr. Flor Nancy Díaz Piraquive, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

La carne de cerdo es la tercera más consumida en Colombia, por eso en los últimos años el sector porcicultor ha presentado un desarrollo relativo que le ha permitido crecer de forma constante, fortalecerse en su gestión gremial y consolidar su estructura empresarial. El sector porcicultor en Colombia está evolucionando gracias a la demanda del porcino, queriendo ésta lograr tener sus mayores productores. Sin embargo, el productor porcicultor colombiano se encuentra con diversas problemáticas debido a las deficiencias en la cadena de suministros porcícola colombiana (CSPC), como, por ejemplo, empresas que aún utilizan métodos no tecnificados para la gestión de sus granjas, haciendo que estas prácticas propicien una afectación en la productividad de los procesos dentro la porcicultura ya que impactan en los estándares del producto final. Dada las dificultades presentadas, el objetivo de esta investigación es describir y analizar los indicadores de la CSPC, que influyen en el desarrollo óptimo del proceso de cría, con el propósito de obtener las mejores prácticas en las fases productivas para presentar al sector porcino un sistema de apoyo que facilite y favorezca la inspección y el manejo de los cerdos desde la gestación hasta la ceba.



METODOLOGÍA

La investigación se desarrolló por medio del análisis de observación, bajo la metodología de tipo cualitativa, iniciando con una revisión de literatura en bases de datos científicas, libros, revistas indexadas, reglamentaciones nacionales y tesis, entre otras. Las etapas fueron caracterizadas por medio de diagramas de flujo, con sus entradas y salidas e identificando los correspondientes indicadores de gestión.


CONCLUSIONES

En los resultados se logró identificar algunos indicadores de gestión para cada fase. Adicionalmente, se pudo establecer la necesidad que tiene el gremio de contar con herramientas técnicas y tecnológicas para toma de decisiones efectivas y oportunas, que les permita mayores índices de productividad y desarrollo en el transcurrir del ciclo de vida útil de la cadena. En conclusión, se pudo establecer que el factor más importante del proceso se evidencia en la fase de ceba, ya que aquí se obtiene el mayor consumo de alimento, porque el porcino necesita alcanzar 110 kg de peso vivo, para enviarlo al frigorífico. Se recomienda, continuar con la investigación, para detallar y articular las demás fases del ciclo de vida de la cadena de suministro porcícola colombiana, como son, comercio de cerdos en pie por parte de los acopiadores, sacrificio o plantas de sacrificio porcino formal e informal, desposte (mayoristas y minoristas), plantas de procesamiento de embutidos, comercio al por mayor y comercio al por menor abarcando desde canales hasta restaurantes, proveyendo a la industria porcícola colombiana con una herramienta de gestión que le permita fortalecer sus procesos de toma de decisión, los cuales mejorarán la productividad y niveles de competitividad en los entornos nacionales e internacionales.
Vazquez Hernandez Diego, Instituto Tecnológico de Pachuca
Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California

SISTEMA DE CONTROL PARA CARGAS ELÉCTRICAS VARIABLES Y DESARROLLO DE SISTEMA DE ADQUISICIÓN DE DATOS DE LA MICCRORRED EXPERIMENTAL DE LA UABC.


SISTEMA DE CONTROL PARA CARGAS ELÉCTRICAS VARIABLES Y DESARROLLO DE SISTEMA DE ADQUISICIÓN DE DATOS DE LA MICCRORRED EXPERIMENTAL DE LA UABC.

Vazquez Hernandez Diego, Instituto Tecnológico de Pachuca. Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California



PLANTEAMIENTO DEL PROBLEMA

La Universidad Autónoma de Baja California cuenta con una Microrred Experimental de Energía Renovable, de una capacidad de 6.6Kw de potencia instalada. Es una planta piloto para fines experimentales, los resultados derivan a mejores implementaciones de operación y mantenimiento para microrredes aisladas. durante las actividades de esta estancia de investigación se busca una relación directa entre el consumo energético (Potencia eléctrica, voltaje y corriente) y condiciones climatológicas (temperatura, radiación y velocidad del viento) para lograr esto se necesita que la planta cuente con un perfil de consumo energético aproximado, esto se lograra utilizando un banco de resistencias para así simular el consumo eléctrico promedio en un hogar en diferentes etapas y meses del año. También se necesita un sistema de monitoreo, para recopilar datos de consumo eléctrico como climatológicos mediante servidores web que están conectados con tarjetas de adquisición de datos.



METODOLOGÍA

Anteriormente la Microrred contaba con el sistema de resistencias variables implementada por estudiantes de la universidad, pero después quedo fuera de operación, haciendo que la Microrred produjera energía eléctrica, pero no podía consumirla o usarla. La Microrred utiliza un banco de resistencias calefactoras para disipar la energía producida en forma de calor y así poder simular el consumo real de una casa. El sistema de resistencias variables cuenta con dos bancos de resistencias que tiene 4 resistencias calefactoras cada banco, mediante un ventilador que está integrado a cada resistencia disipa el calor que se genera mediante el consumo eléctrico. El sistema de resistencias permite variar la potencia eléctrica que se está consumiendo de la generación de energía eléctrica de la Microrred en tres estados: 0.6 Kw, 1Kw y 1.3 Kw. El consumo eléctrico en una casa varía dependiendo de la hora, del día y el mes del año. El programa para simular este perfil de consumo se tuvo que diseñar de tal forma que activa y desactiva las 6 resistencias calefactoras con la ayuda del PLC (LOGO 8), dependiendo de la hora estará activando y desactivando relevadores que son la parte de la interfaz de potencia del sistema, ya que los relevadores del PLC soportan 10 A, lo que se optó por utilizar una interfaz de potencia para evitar daños al PLC. Para la reconfiguración del sistema, se dividió en cuatro partes: Se aplicó un mantenimiento correctivo, verificando que cada resistencia y relevador funcionara adecuadamente, esto permitió detectar fallas en uno de los relevadores, de modo que se remplazó por otro relevador. Se conectó el PLC a los relevadores para tener todo el sistema conectado eléctricamente. Se estudió la programación del PLC LOGO 8 SIEMENS para reprogramarlo y así proceder hacer pruebas de funcionamiento. Teniendo el programa cargado al PLC se verifico que funcionara adecuadamente. El sistema cuenta con dos modos de operación: modo manual, para activar y desactivar cada una de las seis resistencias. Modo automático, es un programa en lazo abierto para conectar y desconectar las seis resistencias de acuerdo a la hora, día y mes del año. Al mismo tiempo que se reconfiguraba el sistema de cargas variables, también se estuvo trabajando en el sistema de adquisición de datos de la Microrred con el investigador. El sistema de adquisición de datos brinda le monitoreo de temperatura, radiación y velocidad de viento. Los datos obtenidos se pueden consultar en una base de datos del todo el día. Para la medición de temperatura se cuenta con su respectivo sensor, para la medición de radiación se utiliza un piranómetro y para la medición de la velocidad de viento se usa un anemómetro, las señales de salida de los sensores se acondiciona para conectarlo con un convertidor analógico a digital, para digitalizar la señal analógica de los sensores para que el microcontrolador pueda interpretar la señal recibida. Para visualizar los datos obtenidos se utilizó una base de datos para consultarlos durante el día y así poder determinar si el sistema estaba correctamente calibrado, durante dos semanas se estuvo visualizando los datos para ver las variaciones de las mediciones y así realizar cambios al sistema. De este monitoreo se determinó cambiar la base de datos por la de un microprocesador raspberry que resulto ser mucho más fácil y rápido la gestión de la información que llega de los sensores. Se trabajó en la integración del módulo ESP8266 que incorpora un módulo Wifi que permite crear sistemas inalámbricos, enviando y recibiendo datos, también el módulo ESP8266 tiene la ventaja de ser económica. Se estuvo trabajando en el diseño del circuito con el programa EAGLE CAD, también se diseñó la librería para la tarjeta de adquisición de datos ADS1232 y se hiso la librería para el multiplexor análogo HEF4067B-Q100, para futuros usos en diseños de circuitos.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos del funcionamiento y programación del PLC LOGO 8 SIEMENS logrando la reprogramación del sistema de resistencias variables. Asimismo, se comprendió la importancia que tienen las tarjetas de adquisición de datos para el monitoreo de variables y su almacenamiento en servidores haciendo más fácil el uso, consulta y análisis de datos de diferentes sistemas. También se aprendió a usar el software EAGLE CAD que es un programa para diseñar circuitos en una placa y poder maquinar el circuito en una CNC. Con los resultados obtenidos de la Microrred se podrá continuar con futuras investigaciones sobre el rendimiento de sistemas de producción de energía eléctrica mediante el uso de energías renovables interconectados (Microrred).
Vázquez Isordia Luis Fernando, Instituto Tecnológico de Colima
Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)

CONSTRUCCIóN DE UN MODELO DE SIMULACIóN PARA LA FABRICACIóN DE PUERTAS DE ACERO, USANDO LA PLATAFORMA DELMIA QUEST®.


CONSTRUCCIóN DE UN MODELO DE SIMULACIóN PARA LA FABRICACIóN DE PUERTAS DE ACERO, USANDO LA PLATAFORMA DELMIA QUEST®.

Vázquez Isordia Luis Fernando, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Pérez Rodríguez, Centro de Investigación en Matemáticas (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

La simulación actualmente puede resultar controversia en las diferentes industrias, por el hecho de que para algunas resulta como problemática principal el poder tener la definición exacta de sus modelos y la recolección a detalle de todo lo que implica cada proceso u operación a realizarse, así como también los datos necesarios tales como: velocidad, capacidad o tasa de producción de máquinas, consumo de materiales por estación, estimación de demanda, limitaciones de personal, turnos de trabajo, entre otros. La falta de conocimiento de las diferentes ineficiencias que se presentan en una empresa son los principales puntos rojos que pueden llegar a generarse en una producción, por el hecho de que no se pueden realizar mejoras en sus diferentes procesos o líneas. Sin embargo es posible que con la construcción de un modelo de simulación para la empresa de manufactura de partes metálicas en una plataforma de Delmia Quest® puede permitir la realización de eventos discretos y así poder obtener la comprobación de la simulación para con eso poder llegar a evaluar y mejorar el desempeño del sistema que permita obtener mejoras en tiempos de operación, flujos de trabajo, entre otros. Además de que esto permitirá presentar las características con un diseño real de la empresa mexicana de fabricación de puertas de acero, en donde se puede llegar a aprovechar la velocidad de construcción del modelo, flexibilidad y sobre todo la integración visual en 3D de los procesos de fabricación y de manejo de materiales.



METODOLOGÍA

Se utilizó el software Delmia Quest®, para evaluar la línea de producción mediante la simulación de eventos discretos de una fábrica que produce puertas de acero, con gran número de estaciones de trabajo de operación múltiple. Mi proceso a modelar es la producción de una puerta de 2 luces, esta puerta se produce con un marco, para la elaboración de la puerta se necesitan; 2 piernas, 2 cabezales, una retícula y un intermedio. Para la producción del marco se ocupa: una pierna con bisagra, una pierna sin bisagra, un cabezal y 3 bisagras. Ya que tenía claro cuál es el proceso que se sigue para la producción de las puertas de acero, realice las estimaciones estadísticas del tiempo que es requerido para cada parte del proceso, esto lo pude hacer debido a que ya había un registro de los tiempos de cada operación. El proceso inicia en el área de herrería la cual cuenta con 4 tronzadoras, 4 operadores y 3 procesos distintos. Las primeras dos tronzadoras cuentan con el mismo proceso el cual consta de cortar un perfil para crear dos piernas y 2 cabezales. El segundo proceso se le asocia a otra tronzadora el cual es cortar un perfil para crear 6 intermedios, y el tercer proceso lo tiene la cuarta tronzadora, este consiste en cortar un perfil para crear 6 retículas. Cada pieza se junta en set de 30 piezas para poder pasar a los procesos siguientes. En la misma área de herrería pero en la estación de habilitado, se hacen perforaciones a los intermedios y las retículas para que después pasen a una tina de lavado donde se quitan las impurezas que contengan. La estación de habilitado cuenta con 4 sierras que hacen el proceso de las retículas, 3 sierras para el proceso de intermedios y una tina de lavado donde se introducen retículas, intermedios, cabezales y piernas. Se pasa a la estación de armado donde a través de soldadura de micro alambre las partes son unidas para dar forma preliminar al producto. Por ultimo esta la estación de pulido que se encarga de eliminar los excesos de soldadura en las uniones que se hicieron en armado. La siguiente área es rolado y troquelado, en esta entran láminas de acero galvanizado a una maquina roladora la cual se encarga de darle forma de perfil de manera automática por acción electromecánica, originando así el marco. Otra área es lavado, ahí se eliminan las impurezas únicamente de los marcos. Es una operación necesaria para que los marcos puedan pasar al área de pintura. Sus procesos son tres: desengrase, enjuague y secado. El área de pintura se lleva a cabo en un conveyor a 3 metros de altura, donde se aplica pintura en polvo a través del efecto electroestático y curado a través de un horno que tiene una temperatura de 220°C, se pintan tanto marcos como puertas. La última área es armado de puerta donde se lleva a cabo el ensamble final de la puerta, es hasta ese momento cuando las diferentes partes ya pintadas y ensambladas toman la categoría de puerta. Los procesos que se requieren en esa área son: Corte de vidrio, envidriado, habilitado, armado y empaque. Una vez finalizado el modelo, se hicieron 30 corridas para un lote de 510 puertas, donde al revisar los datos, pude detectar diversas áreas de oportunidad, de acuerdo a mis aprendizajes obtenidos anteriormente, pude mejorar algunas áreas y procesos, una vez hechos los cambios realice 30 corridas para un lote de 510 puertas para comprar tiempos y porcentajes con el modelo actual de operación.


CONCLUSIONES

Durante mi estancia de verano logre adquirir conocimientos teóricos y prácticos sobre la simulación en el software Delmia Quest®. Al modificar las mejoras en la planta de producción se logró disminuir un 12.72% el tiempo de producción, se ahorró $21,679.62 de mano de obra, se redujo el tiempo ocioso en las áreas de herrería, pintura, armado, rolado y troquelado.
Vázquez Leyva Valeria Guadalupe, Universidad Autónoma de Guerrero
Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.

PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES EN EL ESTADO DE CHIAPAS


PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES EN EL ESTADO DE CHIAPAS

Vázquez Leyva Valeria Guadalupe, Universidad Autónoma de Guerrero. Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.



PLANTEAMIENTO DEL PROBLEMA

El estado de Chiapas cuenta con un gran potencial hidrológico que en su mayoría es para consumo humano, no obstante, se ha alterado la calidad del agua debido a las actividades domésticas, de servicios e industriales. La falta de plantas de tratamiento para las aguas residuales en Chiapas y en las industrias, hoteles y explotaciones agrícolas y ganaderas, ocasiona grandes desechos de aguas contaminadas que hacen mucho daño al medio ambiente. La mayoría de esas aguas es descargada en los ríos, lagos, en los suelos a cielo abierto o en el subsuelo, a través de los llamados pozos sépticos y rellenos sanitarios. 



METODOLOGÍA

Se realizó el estudio de la técnica con la finalidad de determinar lo último en tendencia en plantas de tratamiento. Se hizo uso de la información documentada. Se consultó bases de datos. Se hicieron gráficas y tablas en cuanto a la información de las bases de datos


CONCLUSIONES

Estatus de las PTAR´s En Chiapas se encontraron 198 plantas de Tratamiento construidas hasta el 2016, los municipios que cuentan con mayor número de plantas de tratamiento son Tuxtla Gutiérrez con 5 PTAR,  Chiapa de Corzo con 4 PTAR, Tapachula con 4 PTAR y Las Margaritas con 4 PTAR . Sin embargo dicho total de PTAR en Chiapas solo el 17.68% se encuentran activas hasta dicho año, el 21.21% fuera de operación y el 61.11% de estas no se encontraron datos de su estatus. Estimaciones (Datos PTAR) Entre el periodo de 1999-2018 en el estado de Chiapas se realizaron un gran número inversiones para la construcción de PTAR y análisis o estudios de las aguas residuales. En los últimos 20 años se construyeron 118 PTAR de las cuales el 20% se realizó en el año 2011, siendo así el año que más se construyeron. Cabe destacar que las construcciones de PTAR se realizaron para una determinada  capacidad de ciudadanos la cual con la explosión demográfica pierde su eficacia quedando obsoletas, sin señalar que la mayoría cuenta con tecnología que afecta al ambiente y a la vez a la salud humana.  Generalmente la obsolescencia  de las PTAR o abandono se debe por la tecnología que manejan las cuales necesitan mantenimiento constante generando mayores gastos. Así mismo, por la infectividad de aumentar la capacidad caudal para soportar la explosión demográfica haciendo que estas tengan un periodo de vida corto.  La inversión en la construcción que se dio en el periodo de 1999-2018 dando un gasto  de 326 962 044 Millones de pesos. Lo cual se puede considerar como descomunal por la cantidad de PTAR que se encuentran fuera de operación como ya mencionado anteriormente. De igual manera relata los gastos en cada año por los estudios y análisis de agua que se van realizando en municipios de Chiapas.Se puede considerar estos estudios necesarios para determinar la calidad del agua en los municipios del estado de Chiapas y/o conocer el estatus de los sistemas implementados en estas PTAR. Alternativas.-Planta de Tratamiento de Aguas Residuales de Crecimiento Modular. Las plantas de Tratamiento de Aguas Residuales  son sistemas eficientes, y de fácil instalación, tienen un bajo costo de operación y de mantenimiento. Pueden ser utilizados en casa habitación, escuelas, hoteles, centros comerciales, centros eco turístico, oficinas, entre otros. Al ser anaerobias, se evita el uso de energía eléctrica para su operación, ya que trabaja por gravedad. El proceso anaerobio es un proceso usado en el tratamiento biológico de aguas residuales, así como para el tratamiento de lodos y residuos agrícolas, los compuestos orgánicos presentes en la materia a tratar son convertidos a metano, bióxido de carbono y masa microbiana principalmente. El proceso involucra un complicado sistema de reacciones bioquímicas. Representa una solución viable para el tratamiento de aguas y lodos residuales debido a su bajo consumo de energía y su capacidad de tratar desechos con alta carga orgánica.  El tratamiento anaerobio de efluentes líquidos es una tecnología que se ha aplicado para descontaminar aguas residuales de una amplia variedad de industrias. La digestión anaerobia reduce el volumen de lodos y facilita el desaguado (Lawler, 1986). Las PTAR Modulares cuenta con 3 medidas definidas, pero de ser requerida más capacidad para agua a tratar, al sistema se le agrega un motor el cual requiere electricidad y esto provoca que de ser anaerobia pase a ser aerobia. 0.8 x 1.0 x 1.0 mts = 800 Lts/d de Agua tratada (1 vivienda) 2.0 x 1.0 x 1.0 mts = 4000 Lts/d de Agua tratada (5 viviendas) 3.0 x 1.5 x 1.5 mts = 16000 Lts/d de Agua tratada (20 viviendas) Centros Eco turísticos de Chiapas En la selección y diseño para una Planta de Tratamiento de Aguas Residuales se debe tomar en cuenta los recursos económicos y técnicos, las características del agua residual a tratar con relación a la variación de caudal, tipo y concentración de contaminantes, del lugar donde se desea colocar la PTAR. Así mismo, un componente muy importante el cual se debe considerar es el impacto social y económico que produce la instalación de una planta de tratamiento en una población. El Ecoturismo, actualmente es una de la tendencias turísticas en el Estado de Chiapas con más auge en los últimos años, es por eso que se realizó un estudio a los 54 centros eco turísticos con los que cuenta Chiapas (centros eco turísticos están interconectadas), en el cual se encontró una necesidad multifactorial ya que por ende algo toral para los centros son los turistas, sin embargo un problema que tienen todas es que no cuentan con un sistema de tratamiento de aguas residuales y es por esto que se propone que se instalen las PTAR en las localidades en donde se encuentran los centros eco turísticos.
Vazquez Mendoza Alfonso, Instituto Tecnológico de Morelia
Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León

PROTECCIóN DIFERENCIAL EN SISTEMAS EMBEBIDOS.


PROTECCIóN DIFERENCIAL EN SISTEMAS EMBEBIDOS.

Domínguez Cano Andrés, Consejo Quintanarroense de Ciencia y Tecnología. Vazquez Mendoza Alfonso, Instituto Tecnológico de Morelia. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

El método más utilizado para la protección de transformadores de potencia es el esquema de protección diferencial. Sin embargo, la protección diferencial puede funcionar incorrectamente en diferentes condiciones transitorias, como la activación del transformador o la sobreexcitación de la misma. Para resolver este problema, se ha propuesto un nuevo algoritmo de protección diferencial basado en el segundo momento central (SCM), que se implementó en sistemas integrados para un funcionamiento correcto de manera portátil.



METODOLOGÍA

La aplicación repentina de voltaje a un transformador da lugar a un período transitorio en el que la corriente de magnetización puede alcanzar magnitudes entre 8 y 10 veces su valor nominal, este fenómeno se conoce como corriente de arranque o corriente de avalancha. La corriente de inrush  es un evento transitorio y no debe causar el funcionamiento de los relés de protección porque no es una condición de falla. El algoritmo propuesto, por medio de la magnitud del SCM de cada corriente diferencial, una vez que se normalizan y filtran, identifica las corrientes de inrush y las corrientes de falla respectivamente. El sistema se probó con un transformador trifásico de conexión en estrella delta, con una tensión de alimentación de 160 V y una relación de transformación 1: 1 , alimentando una carga trifásica equilibrada de 80 W, para verificar el correcto funcionamiento del algoritmo contra el fenómeno de corriente de inrush o una falla. El código base se desarrolló en Matlab, luego se pasó a Python para poder implementarlo en una Raspberry Pi3, que realiza todo el procesamiento requerido por el algoritmo. Para la detección de las señales en tiempo real, se usó un Arduino Uno.


CONCLUSIONES

El algoritmo funcionó correctamente en el Raspberry, entregando los resultados esperados del Segundo Momento Central, después de varias pruebas,el único inconveniente que se a encontrado hasta el momento es el tiempo de procesamiento del algoritmo que fue alrededor de un minuto aproximadamente.Una vez solucionado este inconveniente, la protección es lo suficientemente robusta, para operar en los transformadores de potencia e inclusive extender su campo de aplicación a los sistemas de protección en los automóviles eléctricos.
Vázquez Polanco Mario Alejandro, Universidad de Colima
Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)

FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL


FABRICACIóN Y CARACTERIZACIóN DE METALES CELULARES BASE ZN-AL

García Delgado Evelyn, Universidad de Colima. Solís Salazar Luis Diego, Universidad de Colima. Vázquez Polanco Mario Alejandro, Universidad de Colima. Asesor: Dr. Sandro Baez Pimiento, Universidad Nacional de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El estudio de las espumas metálicas es un tema de creciente importancia, no sólo por las ventajas que presentan estos materiales para una amplia gama de aplicaciones en diseño ingenieril, sino además por la variabilidad que suelen exhibir sus propiedades mecánicas y por lo compleja e imprecisa que puede llegar a ser su caracterización, por lo que se buscan nuevos métodos de obtención para mejorar su calidad y reproducibilidad.



METODOLOGÍA

El presente estudio muestra la elaboración y caracterización de las propiedades mecánicas de las espumas base 90% Zinc -  10% Aluminio de celda cerrada a 0.5 mm/min como velocidad de deformación. Como parte del análisis, se han realizado ensayos cuasiestáticos de compresión en la prensa de carga Master Loader 5030 en el laboratorio de materiales de la Universidad Nacional de Colombia (UN) sede Manizales, siguiendo la norma ASTM E9-89a mediante probetas de diámetros medios de 45 mm y alturas del 80% del diámetro, como se establece en la norma mencionada. Se ha realizado la elaboración de moldes con concreto refractario, así como la preparación de la aleación Zn-Al10% mediante los cálculos previos para el pesado del material. Se fabricaron metales porosos por infiltración de rellenos removibles, siendo un método nuevo empleado por los investigadores de la UN. Las pruebas de compresión se realizaron a tres espumas metálicas con diferente tamaño de grano de NaCl (2.4 a 3.4 mm, 3.4 a 4.4 mm y 4.0 a 4.8 mm). El tratamiento de datos se llevó a cabo en Excel y Origin 8.5.1 para el cálculo de las propiedades mecánicas (módulo de elasticidad, esfuerzo de fluencia, esfuerzo de meseta, deformación de densificación y absorción de energía).


CONCLUSIONES

Se han trazado las curvas esfuerzo-deformación unitaria (σ-ε) de la espuma metálica para la velocidad de deformación utilizada, con una carga de 50 KN en un tiempo medio de 45 minutos. Se evaluó su capacidad de absorción de energía por deformación, siendo la espuma III (tamaño de poro de 4.0 a 4.8 mm) la que mostró mejores resultados en las pruebas de compresión, con propiedades prometedoras para su uso en absorción de energía de impacto en automóviles, con lo que se comprueba la importancia del tamaño de poro y la densidad como principales factores en la capacidad plástica de los metales celulares obtenidos.  
Vazquez Rico Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña
Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)

ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.


ANáLISIS PARA LA ADECUACIóN DE RUTAS Y LOCALIZACIóN DE UN CEDI EN EL MEJORAMIENTO LOGíSTICO Y SOSTENIBLE DENTRO DEL SECTOR URBANO.

Cabral Berumen David Gabriel, Universidad de Guadalajara. Sanchez Sanchez Lizbet, Tecnológico de Estudios Superiores de Jocotitlán. Vazquez Rico Jose Angel, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: M.C. Leila Nayibe Ramírez Castañeda, Universidad Libre (Colombia)



PLANTEAMIENTO DEL PROBLEMA

  La creación de un centro de distribución (CEDI) tiene como objetivo principal almacenar productos terminados para poder hacerlos llegar a su destino final, de la manera más efectiva, rápida y económica posible, permitiéndole a las empresas mantener a los clientes permanentemente y adecuadamente abastecidos según las políticas de servicio al cliente y de acuerdo a los exigentes requerimientos del mercado. Pero las circunstancias que enfrenta Bogotá resultan interesantes ya que como primer paso se revisó bibliografía donde se pudo establecer la existencia de restricciones de horarios, tipos de carros, vialidad, concentración de tráfico, capacidades de mercancías al transportarse por el interior, calles, avenidas y carreteras adyacentes a la ciudad. Las distintas empresas del sector de bebidas cumplen con estas restricciones, pero se ven afectadas pues circulan a mitad e incluso menos de la mitad de la capacidad a transportar de mercancías en los diferentes tipos de vehículos que utilizan. Además, se observa una alta congestión vehicular a determinadas ventanas horarias en el día, de manera que los desplazamientos para realizar sus entregas, las restricciones para cada tipo de transporte, las capacidades, las normas de vialidad, etc hacen menos eficiente el sistema de distribución de mercancías.  



METODOLOGÍA

Revisión de material bibliográfico para conocer y entender las tendencias de logística urbana en la ciudad de Bogotá. Después de esto, se analizó y depuró una base de datos obtenidos en una encuesta que permitió visualizar el tipo de carro, nivel de carga, frecuencia e intensidad de las cargas que circulan de los orígenes a los diferentes destinos, así como el impacto ambiental. Posteriormente, para comprender el estado actual de la distribución urbana de mercancías se utilizó Google Earth donde se localizaron y capturaron las rutas de orígenes a destinos, así como el tiempo de traslado de mercancía, posterior a esto en el software ArcGis se exportó la información y se colocó en un mapa de la ciudad visualizando las zonas con mayor concentración y flujos de mercancía. Se observó, que las rutas coincidían en cierta zona, se dedujo que es factible colocar un CEDI que permite mejorar la movilidad de mercancías cumpliendo con los requerimientos que existen dentro del mercado, así mismo permitirá tener un mayor control de las flotas, capacidades y calidad del producto. Se prosiguió a determinar el cálculo de latitud y longitud de los zat tanto de origen como de destino para encontrar un punto intermedio que servirá para instalar el CEDI, se hizo uso del método de centro de gravedad. Una vez que se obtuvo la localización se buscó una cobertura de atención al mercado en un rango de 3.5 kilómetros en consecuencia, las coordenadas obtenidas marcaban una zona donde difícilmente se pudiera construir una bodega, se tomó en cuenta las restricciones de construcción, permisos y localización de almacenes, así como espacios donde los tipos de vehículos que accedieran pudieran circular respetando las normas de vialidad.  Colocar el CEDI da diferentes ventajas competitivas sostenibles por ejemplo mayor cercanía para tratos con intermediarios, acertado empleo de recursos tecnológicos y humanos, reducción de pérdidas debido a la manipulación o vencimientos, cumplimiento y buenas relaciones entre el productor y el cliente. A través de la base de datos y de la localización del CEDI se entendió que los vehículos de transporte requerían nuevas rutas dentro del área analizada. Para lograr establecer dichas rutas se volvió a utilizar Google Earth y se registraron los nuevos datos en ArcGis creando mapas de visualización que permitieran obtener información de localización y control de las mercancías.  Además, con un cambio en la flota de los automóviles se maximiza el uso de los vehículos cargándolos a su máxima capacidad y se disminuye la cantidad de éstos. Al disminuir la cantidad se optimiza el tráfico de vehículos, por consecuente los tiempos de traslado se reducen y las emisiones de  a la atmósfera también. Ya con las rutas principales analizadas, la localización del CEDI, el nuevo ruteo establecido, la flota de camiones actual y con una nueva flota mejorada se filtró la información con la ayuda del programa Excel y se llevó a cabo un análisis para destacar las mejoras y plantearlas a través de gráficos donde la percepción fuera comprensible y concreta. Estos gráficos expresan particularmente el desarrollo del proyecto, lo cual nos ayuda a diferenciar las situaciones iniciales de las situaciones mejoradas, gracias a la propuesta de establecer un CEDI y optimizar el número de transporte requerido.    


CONCLUSIONES

Durante nuestra estancia de investigación logramos adquirir conocimientos teóricos sobre la logística y gestión de operaciones en el sector urbano, ponerlos en práctica con el control y manipulación de software como ArcGis, Google Earth y la paquetería de Microsoft Office. Con el análisis se obtuvo una perspectiva más amplia de los problemas que se enfrentan en la distribución urbana considerando todos los factores que influyen dentro del sistema de distribución de mercancías, disminuyendo los costos de transporte, mayor control de la demanda, menos emisiones de CO2 a la atmósfera y abastecimiento a través de la implementación de un CEDI. Gracias al programa Delfín y a la línea de investigación guiada por la M.C Leila Nayibe Ramírez Castañeda docente de la Universidad Libre de Colombia sede Del Bosque se pudo obtener diversos conocimientos sobre la aplicación de software aplicados a la logística y a la distribución urbana, así como también el desarrollo de modelos para la toma de decisiones y planificación de cadenas de entrega tomando en cuenta indicadores ambientales, sociales y económicos
Vázquez Robles María de Lourdes, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar

OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)


OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)

Cedillo Trujillo Sergio Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Vázquez Robles María de Lourdes, Benemérita Universidad Autónoma de Puebla. Velasco Velasco Diana Karen, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El mercado del campo mexicano cada vez demanda más productos orgánicos, o productos que no degradan el medio ambiente, además, cada día es más frecuente que los productores se preocupen por la sostenibilidad de su actividad productiva por lo que el uso de biofertilizantes va cada vez en aumento (Avendaño, 2010). Entre los microorganismos que se proponen para el desarrollo y formulación de biofertilizantes se encuentran las las Cianobacterias, que son un grupo de procariontes, fotosintéticos, con capacidad de fijar N2  desempeñan un papel vital en mantener a largo plazo la fertilidad de los suelos. Además de mejorar la estructura del suelo, influyen en su permeabilidad y capacidad de retención de agua (Mohan et al., 2015) e igualmente liberan metabolitos secundarios que ayudan al control biológico de enfermedades bacterianas y fúngicas en diferentes cultivos.



METODOLOGÍA

Obtención del inoculo: Cada inoculo de las diferentes cepas (Anabaena sp, Fischerella sp, Hapalosiphon sp) se obtuvo por parte de la Universidad del Mar campus Puerto Ángel. Extracto vegetal de Leucaena leucocephala: El extracto se realizó pesando 1g de Leucaena previamente seco y molido, se le agregaron 5 ml de metanol al 99% junto con el extracto pesado y se dejó en agitación durante 1 horaPosteriormente se filtró al vacío se guardó, al resto del filtrado se le agregó nuevamente 5 ml de metanol; se repitió el mismo proceso descrito hasta reunir 10 ml. Por último se agregaron 10 ml de agua dejando volatilizar el metanol. Medio de cultivo: Se prepararon 20 L de medio BG11° el cual costa de 5 stocks. Para el primer stock se agregan 10 ml de este por cada litro de agua, para el segundo, tercer, cuarto y quinto stock es 1 ml por cada litro de agua. Se esterilizó cada stock por separado y se agregó empezando del quinto al primer stock; posteriormente se agitó.  Encapsulamiento de cianobacterias y el extracto de Guaje: Se pesaron 60 gramos de alginato y se disolvió en 500 ml de agua, dejando agitar hasta la homogeneidad de la mezcla y se esterilizó. Por otro lado se prepararon 500 ml de CaCl al 10 % para cada cepa y para el extracto de guaje. Para cada una de las cepas y el extracto de Guaje se tomaron 10 ml y 90 ml de alginato, se agitó vigorosamente por 1 minuto para que se homogenizó la mezcla y se pasó a un embudo de separación, este se montó en un soporte, mientras que en un cristalizador se colocaron los 500 ml de CaCl al 10 %  este se posicionó justo debajo del embudo, por goteo se dejó caer la solución alginato-cianobacteria y la solución alginato-Guaje hacia el CaCl para formar las perlas. Densidad óptica: Se utilizaron 6 tubos de ensaye de 13x100  a los cuales se les añadió una alícuota de 1 ml de cepa pura y 2  ml de agua destilada, posteriormente se sonicaron por separado durante 10 minutos cada uno hasta que se notaran homogéneos. A continuación los tubos se leyeron al espectrofotómetro a las longitudes de onda de 540 nm y 560 nm respectivamente. Diseño experimental Anabaena sp Fischerella sp  Hapalosiphon sp. Se realizaron 4 tratamientos en matraces de 250 ml los cuales consisten en: Tratamiento 1 (control): 180 ml de medio con 1 % de inoculo libre. Tratamiento 2 (control): 180 ml de medio con 200 y 100 perlas de alginato Fischerella, alginato-Hapalosiphon respectivamente. Tratamiento 3: 180 ml de medio con 1 % de inoculo libre y 200 perlas de alginato-Guaje. Tratamiento 4:180 ml de medio con 1 ml de extracto de Guaje seguido de 200 y 100 perlas de alginato-Fischerella, alginato-Hapalosiphon, alginato- Anabaena sp. En el caso de Anabaena sp  el experimento se realizó sin aireación. La cinética de crecimiento tuvo seguimiento de 15 días, tomando muestras cada tercer día tomando una alícuota de 15 ml y en el caso los que tienen perlas de alginato-cianobacterias se tomaron de 4 a 8 perlas, en cada toma de muestra y se alimentó  medio hasta completar los 200 ml.  Peso seco: Esta técnica se llevó a acabo según lo reportado por Arredondo & Votolina 2007. Cuantificación de Amonio: Se prepararon los siguientes reactivos: MnSO4  0.003 M,  NaCIO  y fenato.  A cada muestra de 5 ml de sobrenadante de los respectivos tratamientos se le agregaron 50 ųL de MnSO4, 0.5 ml de NaCIO y 0.6 ml de fenato, se dejaron reposar por 10 minutos aproximadamente y se leyó la absorbancia a 630 nm en el espectrofotómetro. La cuantificación de amonio se llevó a cabo mediante una curva patrón, la cual se  realizó con diferentes concentraciones de amonio.  Extracción y cuantificación de Carbohidratos intracelulares: Esta técnica se llevó a acabo según Duboís et al. 1956. Se tomó una alícuota de 5 ml de cada uno de los  respectivos tratamientos, centrifugaron a 6000 rpm durante 5 minutos a 25 ºC se desechó el sobrenadante, el pellet fue hidrolizado en 2 ml de NaOH  1N a una temperatura de 95 - 100 ºC en un baño María por una hora. Una vez enfriadas las muestras se  colocó  1 ml del extracto obtenido en tubos, se les añadió 0.5 ml de fenol al 4%, 2.5 de ácido sulfúrico concentrado, se dejaron enfriar por 30 minutos y  se agitaron constantemente en un vortex. La absorbancia fue leída a  485 nm en un espectrofotómetro. La curva de calibración se realizó con glucosa anhidra.


CONCLUSIONES

Se espera, para Fischerella sp. y Anabaena sp.  un alto crecimiento de biomasa, así como una buena producción de amonio, debido a que las condiciones a las que fueron sometidas durante el cultivo son las tradicionales según lo reportado por (Alonso S. E., 2015) además de resaltar que el medio carecía de nitrógeno, por lo que esto pudo ser una situación estresante para ellas y desencadenar su producción. Por otro lado Anabaena sp. fue cultivada en un medio sin aireación contrario a lo que reportan (Morales, 2014) con lo cual visiblemente se obtuvieron buenos resultados, pues se notó un crecimiento rápido y un buen desarrollo de la biomasa. En cuanto a carbohidratos intracelulares se espera una buena producción, pues con esto las cianobacterias demostrarían tener un alto potencial para ser un biofertilizante en  futuras aplicaciones  directamente al campo  (Alonso S. E., 2015).
Vázquez Uribe Adán, Universidad de Guadalajara
Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas

DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA


DISEñO Y CONSTRUCCIóN DE EQUIPOS DE LABORATORIO DE INGENIERíA DE MéTODOS PARA LA CARRERA DE INGENIERíA DE TECNOLOGíAS DE MANUFACTURA

Alcantar Sanchez Diego, Instituto Tecnológico Superior de Ciudad Hidalgo. Gonzalez Montes Citlally, Universidad de Guadalajara. Luna Becerra Erendira Ramona, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Meléndez López Anahi, Universidad Autónoma de Baja California. Muñoz Campos Juan Pablo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Ontiveros Sandoval Armando, Instituto Tecnológico Superior de Ciudad Hidalgo. Osnaya Gallegos Leslye Margarita, Universidad Autónoma del Estado de México. Prudencio Caro Extephanie Sarahi, Universidad de Guadalajara. Sanchez Garfias Kenia, Instituto Tecnológico Superior de Ciudad Hidalgo. Vázquez Uribe Adán, Universidad de Guadalajara. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas



PLANTEAMIENTO DEL PROBLEMA

La falta de un laboratorio de ingeniería de métodos para realizar prácticas de Ingeniería en Tecnologías de Manufactura repercute directamente en la educación y preparación de los alumnos en el mundo real y no en las aulas en donde se empieza a notar vacíos que quedaron durante el transcurso de los años estudiantiles. La realización de equipos ayudará a aprender mediante la experiencia y práctica con diferentes métodos que se utilizan en la vida cotidiana. Los estudiantes de manufactura dentro de su desarrollo académico requieren de laboratorios especializados para contar con los conocimientos necesarios que se requieren para desempeñar de manera correcta sus funciones como profesionistas Beneficios que podría originar la investigación El uso de los equipos brindará conocimientos teóricos y prácticos sobre medidas antropométricas y ergonómicos. Postura La creación de estos equipos a emplear se debe a que la institución no cuenta con un laboratorio de ingeniería de métodos y como parte de ello se pretende apoyar a los alumnos para que puedan tener una educación completa y así contribuir con su formación profesional.



METODOLOGÍA

Se hizo la investigación de los antecedentes históricos de la antropometría y la ergonomía de estudios ya existentes, para tener los conceptos y conocimientos necesarios para realizar el protocolo de la investigación, el proceso de diseño y manufactura. Se realizo un muestreo de las 32 medidas antropométricas seleccionadas en 200 alumnos de la Universidad Politécnica de Chiapas, con estas medidas se diseñó en un programa asistido por computadora los planos de la cabina para mediciones antropométricas. Se adecuaron herramientas para mejorar la precisión en los registros de medidas: como una pared de material de coroplast graduada en centímetros, un tallímetro para registrar la altura, un antropómetro, estadimetro, plicómetro, cinta antropométrica, bascula para obtener las mediciones necesarias. Los materiales para la manufactura de la base son de “Perfil tubular estructural” (P.T.R.) se necesitaron 17 tramos que suman 24 metros de longitud total. Una base de madera de cedro con medidas de 2m x 1m x 5cm con la capacidad de resistir hasta 200 kilogramos. Para la manufactura de la cabina se necesitaron cortadoras de disco manuales con discos abrasivos, plantas para soldar, electrodos, pintura, tornillos, tuercas, sierra para madera, lampara led, entre otras herramientas de uso común. Los perfiles fueron cortados y soldados según las medidas de los planos, para crear la base, posteriormente se realizó el mismo proceso para crear la estructura superior de la cabina. Después se cortó la madera también a la medida de los planos para hacer el piso y ensamblarlo en la base de la cabina con unos birlos y tuercas, posterior a ello se soldaron las cuatro llantas giratorias con seguro en cada esquina de la base, se instaló la pared de coroplast y el vinil en la cara trasera de la cabina, y por último se colocaron las herramientas de medicion antropométricas a la cabina ya terminada.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos en relación de la ergonomía y antropometría para las mediciones del cuerpo humano. Con este proyecto se espera agilizar el proceso de las prácticas para los estudiantes de la Ingeniería en Tecnologías de Manufactura, reduciendo el tiempo total del ciclo en las mediciones. El impacto que tendrá este proyecto en los estudiantes mejorará el nivel de calidad en el desarrollo de las prácticas de los estudiantes de esta carrera, permitiéndoles crear estaciones de trabajo y otros equipos de trabajos ergonómicos u otras herramientas que el alumno desee crear.
Vazquez Yañez Gregorio, Instituto Tecnológico de Tepic
Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)

SIMULADOR BASADO EN AGENTES PARA LA GESTIóN DE FLOTAS URBANAS


SIMULADOR BASADO EN AGENTES PARA LA GESTIóN DE FLOTAS URBANAS

Castillo Corrales Victor Emmanuel, Instituto Tecnológico de Tepic. Vazquez Yañez Gregorio, Instituto Tecnológico de Tepic. Asesor: Dr. Vicente Julian Inglada, Universidad Politécnica de Valencia (España)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad, la movilidad en el entorno urbano ha sufrido cambios considerables a través de los últimos años, desde el tipo de vehículos que transitan hasta la necesidad de transporte desde objetos, hasta grupos de personas. Es por eso que surge la necesidad de obtener un control en cuanto al tránsito en las ciudades para dar abasto de energía a los diversos vehículos. Uno de los principales actores en esta gestión son estaciones donde los vehículos sean capaces de recargar sus niveles de energía para que estos mismos puedan ejercer los servicios a lo largo de su jornada. Las estrategias para colocar las diversas estaciones pueden ser diversas, y el probar con alguna propuesta puede generar costos que pueden convertirse en pérdidas en caso de que no se haya elegida la estrategia más óptima, es por eso que nace la necesidad de simular las diversas estrategias para encontrar la más conveniente de acuerdo a la ciudad donde se desean implementar.



METODOLOGÍA

Para llevar a cabo las simulaciones, se procede con la obtención de las información de una ciudad piloto (en este caso Valencia, España) para saber los puntos más transitados de la misma. Seguido de la elaboración de un software capaz de generar agentes que representan las estaciones, los vehículos, las solicitantes de servicios de transporte, entre otros; Dicho software se llevo acabo en el lenguaje de programación Python en conjunto con JavaScript para una interfaz intuitiva al usuario. De igual forma se trabajó con SPADE, una herramienta de desarrollo para la base del simulador, misma que nace en la Universidad Politécnica de Valencia, para poder generar las estructuras de los agentes en el simulador. Al momento de nosotros arribar a la institución, el trabajo comenzó con la actualización de la documentación de las herramientas con las cuales estuvimos trabajando este tiempo, para posteriormente comenzar con el desarrollo de lo establecido en el plan de trabajo para tener un trabajo completo en tiempo y en orden.


CONCLUSIONES

Como primer conclusión tenemos lo que es un previo al mundo laboral, ya que como ingenieros en sistemas debemos adaptarnos a los entornos de desarrollo donde se están llevando a cabo los software, para poder trabajar y realizar las tareas aptas correspondientes, como también lo es una adaptabilidad al trabajo en equipo y las herramientas de comunicación para estar todos los involucrados con el desarrollo, logren estar al corriente. De igual manera nuestro conocimiento en ciertos lenguajes de programación, rescatando mas Python, lograron madurar al conocer más herramientas como PyCharm y sus entornos virtuales. En conclusión respecto al tema de investigación es una comparación entre México y España, las diferencias de prioridades en cuanto al desarrollo de nuevas tecnologías son grandes y cosas que en un país no se ven, en el otro pueden ser necesidades latentes, con lo cual logramos abrir nuestra mentalidad sobre las necesidades humanas que esta pueda tener en un futuro.
Vega Garza Alfonso, Instituto Tecnológico de Matamoros
Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato

EVALUACIóN DE LA CALIDAD DE FRUTOS UTILIZANDO TECNOLOGíA TERMOGRáFICA


EVALUACIóN DE LA CALIDAD DE FRUTOS UTILIZANDO TECNOLOGíA TERMOGRáFICA

Rodriguez Cabriales Osvaldo, Instituto Tecnológico de Matamoros. Vega Garza Alfonso, Instituto Tecnológico de Matamoros. Asesor: Dr. Carlos Villaseñor Mora, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Desde tiempos en que los seres humanos iniciaron con la recolección de frutos, siempre se ha tratado de ir seleccionando los mejores para su consumo, esto con el fin de tener una mejor calidad a la hora de ser consumidos o procesados. Actualmente la necesidad de una mejora continua y un gran avance tecnológico, nos ha permitido evaluar la estructura interna de algunos frutos implementando una técnica de evaluación de la calidad de productos de manera inocua, rápida, económica y no invasiva, que permita determinar alteraciones y anomalías internas para así tener una mejor calidad en el producto.



METODOLOGÍA

Se realizó una investigación sobre diversos conceptos relacionados a la termografía, conductividad térmica, y análisis de imágenes. Dicho esto, podemos decir que la conductividad térmica es la propiedad de aquellos elementos que posibilitan la transmisión de calor. Implica que, el calor pasa del cuerpo de mayor temperatura a otro de menor temperatura que se encuentra en contacto con él. La estructura interna de los frutos es diversa pero entre ellos térmicamente se comporta similar siempre y cuando no haya alguna estructura diferente dentro de ellos, como pueden ser golpes, mallugaduras, o incluso gusanos, esto implica un gran estudio, pero la ventaja de ser no invasivo, y con el fin de no modificar su estructura al momento de conocer si presenta alguna anomalía, es una ventaja que debemos aprovechar, por lo cual, se implementó una técnica basada en suministrar una serie de pulsos térmicos que nos permite evaluar el perfil de la transmisión de calor dentro del fruto y así correlacionar las anomalías térmicas con defectos internos del mismo. Se realizó una base con un diseño óptimo de sistema termográfico activo previamente diseñada de Madera de 12 de largo, 8 de ancho y 11 de Altura. Los pulsos termográficos fueron hechos desde dos lámparas de halógeno de 100 watts conectadas a fuentes de alimentación regulables de corriente directa (13 volts y 3 amperes), esto con el fin de propagar una energía térmica a la fruta con una mejor uniformidad, y elevar su temperatura en un cierto periodo. La temperatura de las frutas era ambiente por lo cual, el periodo de descenso de los frutos después del pulso electromagnético, fue grabado en una secuencia de cuadros con una cámara Infrarroja marca Xenics Gobi-640-GigE-3375, la cámara se encontraba conectada a una computadora de escritorio que contaba con el Software Xeneth64. A cada fruto se le capturaron 6 secuencias de imágenes diferentes, todo esto en relación a las 6 caras del fruto si se ve desde un punto tridimensional con el fin de que en caso de que el fruto tuviese una anomalía interna poderla analizar con mayor precisión. Una vez analizado cada secuencia de imágenes de respectivo fruto obtenidas durante el experimento nos centramos en como cambiaba o evolucionaba el enfriamiento en cada pixel de la imagen, ya que, en cierta región, a partir de un instante de tiempo se enfrió con una velocidad mayor o menor que en una región sana. Una vez analizado el fruto por seis secciones se dejó pasar unos días para tomarle capturas nuevamente. Se observó que el periodo de enfriamiento después de aplicarle el pulso termográfico era distinto al tomado por primera vez. Su periodo eras más largo, tardaba más tiempo para que el fruto regresara a la temperatura inicial.


CONCLUSIONES

Para dar termino al periodo de la estancia, el periodo de enfriamiento entre el primer análisis y el segundo análisis en una semana después de la misma fruta, se pudo determinar que la estructura interna se modificó y esto se vio demostrado en los periodos de enfriamiento después del pulso termográfico, ya que tardaba más en enfriar su temperatura. Por último, se pretende que los resultados dados por el programa en MATLAB demuestren las anomalías existentes en los frutos, después de haber sido realizado el pulso termográfico. Con el fin de poder ser empleado en las industrias de alimentos y frutos, para tener una mayor calidad en la selección de frutos.
Vega Ortiz Rocio Esmeralda, Instituto Tecnológico de Reynosa
Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla

TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.


TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.

Aguirre Franco Luisa Fernanda, Universidad de Sonora. Organis Rebolledo Emmanuel, Universidad Autónoma de Guerrero. Vega Ortiz Rocio Esmeralda, Instituto Tecnológico de Reynosa. Venzor Nava Enya, Universidad de Sonora. Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los hornos que se utilizan en la comunidad de San Diego Cuachayotla para la producción de ladrillo artesanal son abiertos. La elaboración de estos materiales cerámicos involucra procesos artesanales de fabricación tales como la extracción manual de arcillas y la cocción ineficiente, tampoco hay una selección de materiales y el control de calidad es prácticamente nulo. El principal producto que se fabrica es el ladrillo macizo de arcilla cocida. Desde el punto de vista socioeconómico muchas de estas unidades de producción están conformadas por familias que ven esta actividad como el único medio de sustento y laboran en condiciones de trabajo mínimas, donde los servicios básicos son insuficientes y de baja calidad. El sistema de trabajo es familiar y la contratación de operarios es a ‘destajo’, es decir, sin una vinculación laboral permanente ya que se hace de acuerdo con los requerimientos que marca la demanda del producto y al trabajador se le paga por actividad y/o cantidad de producción realizada. Las principales afectaciones al medio ambiente que se generan en este tipo de unidades productivas tienen relación con la extracción no apropiada de las arcillas, ocasionando taludes inestables y desorden en las explotaciones, lo que se refleja en la presencia de áreas extensas sujetas a erosión laminar, en surcos y cárcavas. Como efecto del bajo rendimiento térmico de los hornos se produce contaminación atmosférica por emisión de CO, CO2, azufre, nitrosos y partículas en suspensión, como lo es el carbono negro. El carbono negro (hollín) es considerado un problema para la salud humana ya que ocasiona a corto o largo plazos, enfermedades respiratorias, cardiovasculares, daños en la piel, entre otras.



METODOLOGÍA

Se llevó a cabo investigación documental, esto con el fin de recopilar la información necesaria para diseñar y realizar los talleres donde se presentaron a la comunidad de ladrilleros alternativas para mejorar su calidad de vida y producción de ladrillo. Una vez procesada la información documental, se llevaron a cabo entrevistas con las autoridades municipales de San Pedro Cholula, entre ellas la Regidora de Hacienda, la Secretaria del Medio Ambiente y un maestro expresidente de la Junta Auxiliar de San Diego Cuachayotla, quienes aprobaron la propuesta. Se mencionó que primeramente había que realizar un taller introductorio donde se hablara acerca de las condiciones en las que se vive y de las acciones inmediatas que pueden mejorar su calidad de vida, específicamente la calidad del aire. Es así como se preparó el primer taller: “El aire que respiras”. Tomando como prioridad la calidad de vida de la junta auxiliar, se les presentaron las afectaciones y repercusiones que se derivan del hecho de respirar el humo negro de sus hornos, en su salud en la de su familia y en su entorno. Enfermedades respiratorias, enfermedades cardiovasculares, impacto ambiental negativo y calentamiento global, crisis ambiental, gases contaminantes, hollín, entre otros, fueron algunas de las problemáticas expuestas a los integrantes de la comunidad. Se presentaron propuestas tanto para mejorar la calidad del aire que respiran directamente, como para el ordenamiento del espacio separando las áreas de trabajo de la vivienda con la intención de un mejor aprovechamiento del terreno y mayor funcionalidad de este. Producto del primer taller, una vez terminada la presentación, se hizo una invitación para unirse al proyecto de manera voluntaria. Solo un productor se interesó por lo que se realizó el levantamiento de su predio para situar el horno y destinar áreas de trabajo, se situaron las barreras vegetales que ayudarán a mejorar la calidad de aire e impedirán que el hollín llegue a la zona de vivienda y a las edificaciones vecinas. El estudio se realizó con base en los datos proporcionados por el productor voluntario y de acuerdo con las características de las superficies disponibles para la producción de ladrillo artesanal, considerando la implementación del Horno Ecológico MK2. Para el diseño de las barreras vegetales, se generó una lista de 20 árboles que crecen en la región, posteriormente se elaboraron fichas técnicas de cada uno de estos árboles para después realizar la evaluación que determinó la capacidad de las distintas especies para filtrar el carbono negro y absorber el CO2, funciones principales que deben tener las barreras vegetales en esta comunidad ladrillera.


CONCLUSIONES

A lo largo de la estancia dentro del verano de investigación se trabajaron diferentes aspectos e investigaron diversas áreas enfocadas todas a desarrollar un taller de inducción para lograr implementar los hornos MK2 en la comunidad de San Diego Cuachayotla. Se recabaron datos tanto de impactos ambientales como afectaciones a la salud de los integrantes de esta junta auxiliar. Mediante estrategias y métodos investigados se estructuró el taller, los productos de esta investigación se llevaron a cabo con una mirada centrada en el beneficio social, económico y ambiental a la comunidad productora de ladrillo artesanal. Se logró captar únicamente un voluntario debido a la desconfianza de la comunidad hacia los cambios tecnológicos en sus procesos de producción. Mismo que se trabaja con los talleres de concientización esperando aminorar la situación y plantear un panorama positivo para el proyecto.
Vega Picazo Otoniel, Instituto Tecnológico Superior de Huauchinango
Asesor: Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara

SISTEMA DIP COATING


SISTEMA DIP COATING

Vega Picazo Otoniel, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Se busca realizar un prototipo para automatizar la forma rudimentaria de realizar depósitos de películas delgadas semiconductoras mediante la técnica de depósito por inmersión. Aunque hoy en día existen equipos especializados para la realización del depósito de películas delgadas, algunas veces estos equipos tienen un costo muy elevado. Por lo que, este proyecto busca realizar un prototipo que automatice las rutinas necesarias para la obtención de películas delgadas con características uniformes y con buena adherencia al sustrato. Parametros como la velocidad de inmersión, tiempo de inmersión, velocidad de extracción, y numero de ciclos son parámetros fundamentales para llevara cabo el deposito por DIP coating. Por lo que, el prototipo planteado busca integrar estos parámetros en un circuito integrado capaz de realizar estas rutinas conforme a las necesidades del usuario.



METODOLOGÍA

Para lograr automatizar este proceso se utilizó un microcontrolador (16F887), un puente H (l293d), 5 resistencias de 1k, una resistencia de 10k, un cristal de cuarzo 16MHz, un potenciómetro de 10k, 2 capacitores cerámicos de 20pf, un push button, un teclado matricial de 4x4, una pantalla LCD, motor a pasos bipolar, para hacer las pruebas del sistema se utilizó una fuente la cual se calibro para dar 5v CC, una placa protoboard y caimanes eléctricos. Para la automatización de este proceso se utilizó lenguaje C, con el cual se desarrolló la programación que hará funcionar cada uno de los componentes antes mencionados de manera sincronizada, el teclado matricial enviara una señal que se reflejara en la pantalla LCD dando múltiples opciones de selección las cuales harán que el motor a pasos tenga diversos tipos de comportamiento según los parámetros asignados por el operador.


CONCLUSIONES

Durante mi estancia en la UDG pude desarrollar múltiples habilidades sociales y académicas que servirán en mi desarro como investigador . A demás de que me eh relacionado con una nueva cultura, un nuevo entorno al que no estaba acostumbrado aún así logre adaptarme al ritmo de trabajo que se requería gracias al programa delfin eh logrado adquirir nuevas experiencias que sin duda ayudarán a mi formación en un futuro. Durante este verano se lograron hacer pruebas con el sistema de forma independiente eh integrado cada una de las componentes las cuales respondieron correctamente según lo asignado. El sistema respondía a la programación correctamente y al operador le resultaba fácil el manejo del mismo.
Vega Tapia Jose Alberto, Universidad de Sonora
Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa

RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO


RESPUESTA SíSMICA DE EDIFICIOS DE CONCRETO REFORZADO

Gallegos Coria Carlos Alfredo, Universidad de Sonora. Martinez Cañez Carlos Alfonso, Universidad de Sonora. Romero Alvarez Jose Sebastian, Universidad de Sonora. Vega Tapia Jose Alberto, Universidad de Sonora. Asesor: Dr. Edén Bojórquez Mora, Universidad Autónoma de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

La ciudad de México ha sido víctima de numerosos eventos sísmicos a lo largo de la historia, siendo los más referenciados, los terremotos de septiembre de 1985 y 2017, debido a la magnitud de daños que causaron en la infraestructura de la metrópoli. Debido a ello, y con el fin de que no se repita una destrucción de igual magnitud, es necesario analizar a detalle las características de las edificaciones que se vieron colapsadas o en algunos casos gravemente dañadas, así como la relación que estas guardan con cada uno los sismos mencionados. De esta manera, será posible estimar el comportamiento de futuras obras civiles que compartan características similares haciendo posible un diseño estructural más seguro y confiable frente a eventos de tal magnitud. Con ayuda de software de diseño estructural dinámico se determinarán las deformaciones máximas de azotea con respeto al tiempo, así como las deformaciones máximas de entrepiso que presentan edificaciones de concreto reforzado de 7 y 10 niveles sometidos a las respuestas sísmicas que se registraron en los terremotos del 19 de septiembre de 1985 y 2017 en la ciudad de México para suelos tipo blando (IIIB) e intermedio (II). 



METODOLOGÍA

Según el servicio geológico mexicano la ciudad de México se encuentra en zona sísmica B lo cual representa ser un zona intermedia donde se registran sismos no tan frecuentemente o son zonas afectadas por altas aceleraciones que no sobrepasan el 70% de la aceleración del suelo, aunado a lo anterior el tipo de suelo predominante en la CDMX (de transición/intermedio y blando) genera preocupación en los organismos a cargo de impulsar las obras civiles que dan pie a las grandes y pequeñas edificaciones en la ciudad. Lo anterior debido a que por efectos de sitio las ondas de los sismos se ven amplificadas en los suelos blandos de la CDMX, a pesar de encontrarse en suelo tipo B, su cercanía con la subducción de las placas de Cocos y Rivera con las placas Norteamericana y del Caribe genera la preocupación antes descrita de los expertos en el tema. Por ello, resulta necesario sensibilizar los modelos desde la etapa del pre-diseño y así lograr el comportamiento optimizado en la estructura mediante el uso de análisis dinámicos reduciendo el número de iteraciones. Del reporte efectuado por Roberto Meli y Eduardo Miranda, por parte del Instituto de Ingeniería de la UNAM, Evaluación de los efectos de los sismos de septiembre de 1985 en los edificios de la Ciudad de México, podemos ver que las construcciones que se vieron afectadas con un daño severo, en su mayoría, corresponden a edificios de 9 o más niveles. De igual manera, realizando una investigación en la cual se contabilizaron los edificios colapsados a causa del sismo del 19 de septiembre del 2017, se obtuvo que el número de niveles en los edificios colapsados ronda entre 2 y 7, teniendo un aumento significativo al llegar a los edificios de 4 niveles, dando como promedio los edificios de 4.4 niveles. Concluyendo así que el número de niveles de interés para este estudio ronda entre 4 y 9 niveles. Por lo cual se decidió analizar edificios de 7 y 10 niveles para ambos registros sísmicos. Los registros sísmicos utilizados fueron obtenidos del servicio sismológico nacional y la red acelerográfica de la UNAM.  Del SSN se obtuvo el registro sísmico del 2017 para suelos intermedios en la estación llamada DX3720170919181440, de la red acelerográfica de la UNAM se obtuvieron los registros restantes, para los de 1985 se utilizaron las estaciones sismex viveros y SCT B-1 para suelo intermedio y blando respectivamente, en el registro sísmico del 2017 para suelo blando se utilizó la estación SCT B-2. Para el análisis dinámico de las estructuras se empleó el software de análisis estructural RUAUMOKO. De los resultados obtenidos por el programa fueron de total interés los periodos fundamentales de cada estructura y los datos correspondientes a las deformaciones máximas de entrepiso. A su vez, con ayuda de DYNAPLOT (una extensión del mismo RUAUMOKO), se obtuvieron las deformaciones de azotea para cada instante de tiempo que abarcan los registros sísmicos evaluados. Cabe señalar que se consideraron dos direcciones de análisis (x, y) para los mencionados valores de deformaciones.


CONCLUSIONES

En los datos recopilados se observa que para el sismo del 19 de septiembre de 2017 los edificios de 7 y 10 niveles desplantados en suelo intermedio sufrieron una deformación mayor tanto para cada entrepiso como en azotea, comparándolos con los edificios desplantados en suelo blando. Mientras que para el sismo del 19 de septiembre de 1985 los edificios desplantados en suelo blando sufrieron una mayor deformación. Por lo cual se concluye que el sismo de 2017 fue más adverso para los edificios situados en suelo intermedio al contrario del sismo de 1985, en el cual los edificios situados en suelo blando se vieron más afectados por el nivel de deformaciones. Lo anterior puede deberse al tipo de onda liberadas en cada sismo y al hecho de cómo se amplifican o atenúan cada uno al llegar a los diferentes tipos de suelo en la CDMX. También otras de las diferencias son la duración del sismo y su cercanía con el epicentro, aun cuando el tipo de falla es el mismo para ambos casos.
Velasco Aquino Alan Adiel, Instituto Tecnológico de Pachuca
Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas

BLOQUE DE TIERRA COMPRIMIDA CON FIBRA CORTA DE COCO Y ESTABILIZADO CON ACíBAR DE SáBILA Y CAL


BLOQUE DE TIERRA COMPRIMIDA CON FIBRA CORTA DE COCO Y ESTABILIZADO CON ACíBAR DE SáBILA Y CAL

Velasco Aquino Alan Adiel, Instituto Tecnológico de Pachuca. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas



PLANTEAMIENTO DEL PROBLEMA

En los últimos años el uso de la tierra en materiales aplicados a la construcción se ha retomado como una alternativa atractiva a los conceptos más modernos. Es una técnica con distintas disposiciones que aprovecha los recursos naturales del derredor inmediato, para edificar con un menor precio y mejores características que las técnicas y materiales convencionales. Una de estas son los bloques de tierra comprimida (BTC), que se han utilizado como elementos estructurales para edificaciones de vivienda. En el proceso de adaptar la tierra para manufacturar un BTC se le agregan distintos materiales para aumentar sus propiedades mecánicas, sin embargo muchas de esas sustancias pueden ser poco amigables con el ambiente. Se han utilizado fibras largas naturales para mezclas de tierra y adobe pero presentando problemas en la homogenización y propiedades mecánicas finales. En esta estancia de investigación se propuso la utilización de estabilizadores biodegradables acíbar de sábila y fibras cortas de coco. Se enfatizó la utilización de fibras de coco de 2 cm, en distintas concentraciones recomendadas, para conocer los efectos y mejoras que pueden llegar a tener.



METODOLOGÍA

Se utilizó un suelo limoso y otro arcilloso proveniente de un banco localizado en Altamira, Tamaulipas. Posteriormente se preparó una solución de acíbar de sábila con las plantas del campus de la UAT. Las fibras de coco se obtuvieron a partir de cocos que fueron cortados a la longitud propuesta, machacados para separar sus fibras y secados durante 24 horas a 105°C, para su incorporación al BTC. Para el desarrollo del BTC propuesto, se manufacturaron bloques sin fibra de coco, con 0.25% de fibras de coco y con 0.5% de fibras de coco. Todas las mezclas tendrían una composición de 70% de suelo arcilloso y 23% de suelo limoso, con un estabilizador de 7% de cal, y una solución de acíbar de sábila al 7% de concentración. Los BTC fabricados se secaron durante 15 días a la intemperie para posteriormente, fueron someterlos a pruebas de compresión (NMX-C-404-ONNCC3-205), flexión (NMX-C083-ONNCCE.), abrasión (NTC-5324 3.4.3), absorción de agua (NMX-C-37-ONNCE-205), variación superficial y propiedades térmicas (ASTM D5334-14). Los resultados fueron condensados y discutidos para la obtención de las conclusiones del trabajo.


CONCLUSIONES

Se demostró que la adición de fibras de coco en esta disposición (hasta 2cm de longitud) presenta una diferencia en detrimento de 9% en la resistencia a la compresión simple. Se demostró que la adición de fibras de coco en esta disposición (hasta 2cm de longitud) presenta una diferencia de 12% en la resistencia a la flexión. También se demostró que la adición de fibras de coco al 0.5% disminuye la porosidad del material en un 1%, disminuye la humedad relativa en el bloque un 3%, disminuye un 2% el hinchamiento lineal y disminuye un 12% la conductividad térmica del material. Así mismo, esta mezcla aumenta la resistencia a la abrasión del BTC en un 30%. Es notable que cuando existe una presión de confinamiento en el BTC, la adición de fibras de coco sí aumenta la resistencia a la compresión del material, mostrando una mejora del 34% respecto a los BTC sin adición de fibras.  
Velasco Chavarria Samantha Esthefania, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Virginia Villa Cruz, Universidad de Guadalajara

DESARROLLO DE BEBIDAS Y NéCTARES CON LACTOSUERO Y FRUTA CON ACTIVIDAD ANTIOXIDANTE.


DESARROLLO DE BEBIDAS Y NéCTARES CON LACTOSUERO Y FRUTA CON ACTIVIDAD ANTIOXIDANTE.

Martínez Gómez Natalia, Instituto Tecnológico de Tuxtla Gutiérrez. Velasco Chavarria Samantha Esthefania, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Virginia Villa Cruz, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

El municipio de Lagos de Moreno, Jalisco, se caracteriza por su alta producción de leche y cuenta con un gran número de industrias de diversas dimensiones, en muchos casos negocios familiares. Uno de los principales residuos que resultan de la fabricación es el lactosuero, el líquido amarillento que resulta de cuajar el queso, mismo que contiene gran cantidad de nutrientes (lactosa, proteínas, minerales y grasa) pero que en su mayoría es desechado en ríos o vendido como alimento para ganado. El vertimiento de este subproducto a los ríos genera una significante perdida potencial alimenticio y de energía; además, que se caracterizan por una alta concentración de DQO (Demanda química de oxigeno) y DBO (Demanda biológica de oxigeno) representando alto contenido orgánico, provocando la contaminación ambiental. Una de las alternativas para aprovechar este subproducto es la elaboración de bebidas. El objetivo es evaluar la capacidad antirradical de la bebida de lactosuero formulado con fruta y obtener el análisis proximal.



METODOLOGÍA

Se determinó la capacidad antirradical de la fresa y arandano, para ello se extrajo el jugo con un extractor de jugo, pesando  250 mg de jugo en un tubo ependorf de 2 mL, luego se agregó 1 mL de metanol 80 % v/v, para tener una mezcla homogénea se utilizó un vortex y se centrifugo a 10 000 rpm durante 15 minutos, el sobrenadante recuperado fue transferido a otro tubo ependorf; al pellet se le agrego 1 mL de metanol al 100 %, se volvió a agitar en vortex para su posterior centrifugación, todo el  sobrenadante recuperado se ajustó a 2mL. Los extractos se protegieron de la luz y en refrigeración hasta su uso. Para poder determinar la capacidad antirradical de los extractos se realizó la determinación por el método de ABTS. Para ello se preparó ABTS 7 mM con persulfato de potasio y se mantuvo a oscuridad por 16 horas; el buffer PBS 0.01 M a pH 7.4; y stock Trolox 4 mM, protegiendo se de la luz y en refrigeración. Se diluyo el radical coloreado ABTS en buffer PBS, agregando 1 mL de ABTS concentrado a 200 mL de buffer PBS, tornándose a verde-azul, y luego se midió la absorbancia a 734 nm, ajustando a una absorcia de 0.7000 +/- 0.02. En la realización de la curva patrón se utilizó el antioxidante Trolox a 15 μM, 30 μM, 45 μM, 60 μM y 75 μM, diluyendo con metanol al 80 % v/v, después se tomó 100 μL y se le agrego a 1900 μL de solución de ABTS, se agito y se dejó reposar por 7 minutos para su posterior lectura en un espectro UV a 734 nm, cabe mencionar que a cada concentración de realizo por triplicado y se utilizó metanol al 80% como blanco. En la elaboración de la bebida, el realizó el tratamiento del suero para disminuir el contenido de grasa, centrifugando a 9 000 rpm a 4 °C por 10 minutos, y se mantuvo en refrigeración hasta su utilización. Para la elaboración del concentrado de la fruta se lavó y se desinfecto, después se sometió a un proceso de escaldado por un minuto a 90 ° C, posteriormente se extrajo el jugo utilizando un extractor y luego se concentró a fuego bajo durante 5 minutos. En la formulación se adecuo de acuerdo a la norma general del CODEX para jugos y néctares de frutas (CODEX STAN 247-2005), posteriormente se envasó en recipientes de vidrio con tapa metálica, previamente lavadas y esterilizados, después, se pasteurizó durante 30 minutos a 60 °C. A cada bebida se elaboró por triplicado para su posterior determinación de la capacidad antirradical, realizando el mismo procedimiento al del extracto del jugo de dicha fruta, además se determinó los análisis proximales en el equipo MilkoSanTM Mars marca FOOS, en la cual se dio lectura a solidos totales, solidos no totales, proteínas, lactosa, grasa y punto criocospico.  


CONCLUSIONES

Debido a las grandes cantidades de queso que son producidas a nivel mundial, el lactosuero ha generado un problema de contaminación ambiental. Es una excelente materia prima para obtener diferentes productos a nivel tecnológico o como medio de formulación en procesos fermentativos. A pesar del problema de contaminación que se genera, existen una infinidad de productos que se pueden obtener. Dentro de estos productos están ácidos orgánicos, productos de panadería, bebidas para deportistas, alcoholes, bebidas fermentadas, gomas, empaques biodegradables, sustancias inhibidoras de crecimiento, proteína unicelular, exopolisacáridos, concentrados proteicos, además, las proteínas del lactosuero tienen propiedades funcionales que permiten ser muy útiles en el área de los alimentos. Es por eso que el desarrollo de la bebida a base de lactosuero y con base a las normas mexicanas que rigen la producción y estandarización del producto conllevaría a beneficiar a los productores e industrias de alimentos lácteos de la región y disminuir el desperdicio del mismo además de aportar un alimento funcional con contenido de antioxidantes y proteínas y además bajo en grasa al mercado de la industria alimentaria con precio accesible que ayudaría a la población que opte por consumir este producto. Durante el análisis del jugo formulado se obtuvo una lectura menor al stock TROLOX, el jugo formulado con extracto de arándano fue mayor al jugo con extracto de fresa hasta llegar a la concentración de 53 µM, donde se observa un crecimiento exponencial que termina siendo ligeramente mayor al jugo de arándano. Concluimos que estas bebidas pueden competir en el mercado regional además de ser accesibles para toda la población y ser un alimento funcional y tecnológico.
Velasco Galvan Erick Noe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara

REDES DE SENSORES INALáMBRICAS


REDES DE SENSORES INALáMBRICAS

Velasco Galvan Erick Noe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Las redes de sensores inalámbricas es un área ampliamente estudiada en la actualidad. Una red de sensores funcional debe contener al menos alguna de las siguientes métricas, resistente a fallas, mínimo consumo de energía, procesar datos de manera eficiente, escalable, entre otras.  El problema con las redes actuales es que, si bien contemplan dos o más métricas de las anteriormente mencionadas son redes centralizadas, y si son distribuidas son orientadas a la solución de problemas específicos. El objetivo de este trabajo entonces es la creación de una estrategia de comunicación en las redes de sensores que contemple un mínimo consumo de energía, que sea tolerante a fallas, escalable y distribuida. Se propone una estrategia de auto-organización basados en sistemas multi-agentes



METODOLOGÍA

Para realizar el proyecto de redes de sensores se utilizará el protocolo de comunicación ZigBee, el cual tiene propiedades únicas para las redes de sensores como ahorro de energía, mínimo consumo en el envío de mensajes, la métrica de escalabilidad y tolerancia a fallas entonces pueden ser fácilmente integradas, ya que como se mencionó en el planteamiento lo que se busca es que los sensores ahorren energía.   Una vez que se decidió con que protocolo de comunicación trabajar, cada dispositivo en la red se modela como un agente. Un agente es un dispositivo autónomo con las mismas capacidades cuyas decisiones las tomas de manera local en base a la información disponible en su entorno. Funcionalidad de los roles: Sink: Enviar la información recabada a internet. Líder: Se encarga de recolectar la información de los demás sensores y mandárselo al Sink. Puerta: Su tarea es de conectar a otro clúster que está junto. Puente: Su actividad es conectar a otro clúster que está separado. Miembro: Solo le envía la información al Lider. La estrategia que se plantea funciona de la siguiente manera. Se envían mensajes de tipo broadcast para identificar a los vecinos. Ya identificados a los vecinos se asignan los roles de Líder, Puerta, Puente y Miembro. Para asignar el role se compara que primero no se encuentre ningún vecino que ya sea Líder y si se cumple esta condición se le asigna el rol de Líder a este sensor, si se encuentra un vecino que ya es Líder se define el rol de Líder al que tenga mayor número de vecinos y tenga el nivel más bajo. Para la asignación del rol de Puerta es cuando más de un vecino tiene el rol de Lider. Para asignar el rol de Puente se debe verificar que los el si un vecino tiene diferente Lider estos dos sensores toman el rol de Puente porque tiene diferente Lider. El rol de Miembro es solo si no tiene ninguna característica que para ser ninguno de los demás roles por lo que se le asigna el rol de Miembro. Ya identificados los roles se realiza la formación del clúster. Para la formación del clúster se deja solo el rango de transmisión del Lider por lo que todos los sensores que estén dentro de ese rango de transmisión serán parte del clúster de ese Lider.


CONCLUSIONES

Mi concusión sobre este proyecto es que al principio de la estancia si se complicó el hacer algo ya que no entendí muy bien el código por lo que no podía moverle a nada porque si no esto generaría errores y no sabría dónde estaría el error y el programa ya no tendría solución o tardaría mucho en repararlo, pero gracias a que la doctora me dio una artículo sobre el proyecto que ella desarrollo entendí mejor el proyecto y lo que tenía que hacer, ya al entender el código le moví y empecé a trabajar en lo que se me había asignado, lo primero que hice fue que los sensores se mandaran respuesta de que reconocieron y se agregaran los vecinos, después realice que los sensores solo se conectaran con el líder del clúster, también realice que los sensores estuvieran mostrando los vecinos que tienen la energía que les quedaba y les asigne los valores correspondientes que debían tener, ahorita estoy haciendo la asignación de roles automáticas dependiendo de las características que tienen.
Velasco Guzmán Benjamín Antonio, Instituto Politécnico Nacional
Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey

MICROSERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA


MICROSERVICIOS DE NOTIFICACIONES PARA LA MITIGACIóN DE DELINCUENCIA EN LA CIUDAD DE MéXICO Y ZONA METROPOLITANA

Velasco Guzmán Benjamín Antonio, Instituto Politécnico Nacional. Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

La Ciudad de México y el Estado de México son de las ciudades con mayor índice delictivo de México de acuerdo a los datos mostrados en INEGI de 2010 a 2017 (https://www.inegi.org.mx/temas/incidencia/) y al Semáforo delictivo (http://www.semaforo.com.mx/Semaforo/Incidencia) con datos de 2015 a 2019 que colocan a ambos estados dentro de los primeros cinco lugares de índice delictivo en diversas categorías de delitos como homicidio, secuestro, extorsión, robos, violación, entre otros. De igual forma, durante los últimos 8 años, el índice de delincuencia ha crecido en todos los estados de la república, lo cual genera una mayor percepción de inseguridad en la población como se muestra en los resultados del primer trimestre de 2019 de la Encuesta Nacional de Seguridad Pública Urbana (https://www.inegi.org.mx/contenidos/programas/ensu/doc/ensu2019_marzo_presentacion_ejecutiva.pdf) respecto a algunos años anteriores, reportando que 74.6% de la población mayor a 18 años se siente insegura. También muestra que el 32.8% de la población considera que la situación de inseguridad no cambiará, mientras que un 22.2% considera que empeorará. Por estos motivos, el proyecto tiene como objetivo ayudar a evitar que la gente sea víctima de algún delito al proporcionar una aplicación móvil que muestre las delegaciones, colonias, fechas y tiempos con mayor índice delictivo para que la gente pueda tomar vías alternativas al trasladarse por la CDMX y el Estado de México.



METODOLOGÍA

Para conseguir la información sobre qué zonas tienen mayor índice delictivo, se recopiló información de Twitter haciendo uso de su REST API con diversos scripts en Python, sin embargo, al momento de realizar la exploración de los datos, se descubrió que mucha información, muchos tweets, no contenían información precisa sobre el tipo de delito cometido, el horario, el lugar o incluso algunas veces contenían detalles mínimos y una URL a alguna noticia con los detalles completos, sin embargo no es posible obtener dichos detalles porque están alojados en servicios externos a Twitter. Además de que en muchos tweets se podían encontrar modismos, anglicismos, faltas ortográficas, entre otras cosas que dificultarían el procesamiento de lenguaje natural y retrasarían el desarrollo del proyecto. Por ello, se decidió buscar otras fuentes de información y se encontró una base de datos de las carpetas de investigación abiertas por varias agencias del Ministerio Público, que contenía información sobre la fecha en que se cometió algún delito, la ubicación con coordenadas geográficas, la ubicación con calles, colonia y delegación, la categoría del delito, el nombre del delito, entre otros campos. Debido a que esta nueva base de datos proveía más datos, más completos, y con una buena estructura, se tomó como la base de datos principal y se decidió que la información analizada de los tweets sería complementaria. Una vez recopilada la base de datos, se limpió, es decir, se eliminaron ciertos campos que no eran útiles, como campos para el control interno de las agencias, o campos duplicados, también se eliminaron los datos nulos como las calles cuyo valor eran no precisa calle, sin calle o similares, otros datos que se eliminaron fueron aquellos cuyas coordenadas no pertenecieran a la Ciudad de México. Una vez limpios, se modificó su estructura para estandarizar los campos que no lo estaban, como en el caso de las fechas cuyo formato a veces correspondía a día/mes/año y otras a año-mes-día. De igual forma, se agregaron otras columnas para generalizar más las categorías de delitos, ya que la base de datos original consideraba 80 categorías de delito aproximadamente, y se redujo a solamente a cinco: robo, lesión, homicidio, daño y otro, también se agregó una columna de afectado, es decir, quién es el afectado en algún delito, por ejemplo, transeúnte, vehículo, negocio, pasajero, repartidor y otro. Para llevar a cabo dicha limpieza y estandarización se escribió un código en Python para automatizar estos procesos, se ejecutó dicho script y se insertaron los datos limpios (un total de 57,000 registros aproximadamente) a una base de datos en MongoDB, aunque también se guardó una copia en formato CSV ya que es un formato estándar sencillo que la mayoría de los sistemas operativos y programas puede reconocer y usar. Para verificar que los datos habían sido limpiados correctamente, se ingresaron a los programas Tableau Desktop y Tableau Prep Builder para obtener una rápida visualización y gráficas, donde se descubrió que, en efecto, no había discrepancias en los datos ni existía mucha diferencia con lo reportado en fuentes oficiales como el INEGI o el semáforo delictivo mencionados anteriormente. Paralelamente a esta recolección y procesamiento de datos, se estuvo realizando y supervisando la ejecución del script para obtener y limpiar los datos de Twitter con el objetivo de encontrar alguna forma de mejorar la recolección o limpieza, sin embargo, los cambios que se hicieron fueron mínimos y a pesar de que sí se pudo obtener una muestra representativa, todavía no son procesados para poderlos insertar a la base datos. Sin embargo, se considera que con los 57,000 registros con los que se cuenta actualmente es suficiente para poder hacer el servicio web que se tiene pensado como objetivo, por lo que ya se tiene el prototipo de cómo se van a mostrar las gráficas y qué funciones va a tener, y actualmente se está llevando a cabo la programación de este.


CONCLUSIONES

Durante el verano de investigación, se logró adquirir experiencia, en especial sobre la limpieza de datos y visualización, sin embargo, por el límite de tiempo, todavía no está desarrollado el servicio web para visualizar los hallazgos, pero se tiene planeado trabajar y concluir dentro de las próximas semanas. Una vez concluido el sitio web y disponible al público, se espera que pueda ayudar, aunque sea a un pequeño sector de la población a evitar ser víctima de un delito.
Velasco Pineda María, Universidad de La Salle Bajío
Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar

MONITORIZACIóN DE VOLTAJE DE UNA PLACA SOLAR EN CONJUNTO CON UN SENSOR DE LUMINOSIDAD MEDIANTE EL USO DE LA TARJETA ESP8266


MONITORIZACIóN DE VOLTAJE DE UNA PLACA SOLAR EN CONJUNTO CON UN SENSOR DE LUMINOSIDAD MEDIANTE EL USO DE LA TARJETA ESP8266

Velasco Pineda María, Universidad de La Salle Bajío. Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

Debido a la creciente necesidad del uso de energías alternativas y renovables en los últimos años, la demanda de este tipo de placas ha ido en aumento, es primordial que, al hacer uso de la placa fotovoltaica, el usuario pueda ser capaz de asegurarse de que está obteniendo un buen rendimiento y esto se puede lograr mediante la monitorización del voltaje de la placa en conjunto con el sensor de luminosidad. La medición conjunta de voltaje de salida de la placa solar y el sensor de luz, nos podrá ayudar en la toma de decisiones con respecto al correcto funcionamiento de la placa solar para asegurar siempre la mejor entrega de energía.  



METODOLOGÍA

Se trabajó con la plataforma Arduino para realizar el manejo de la tarjeta ESP8266,  Para poder usar la tarjeta fue necesario descargar las librerías para realizar la correcta comunicación. Con el fin de encontrar la plataforma que nos pueda ayudar a utilizar el internet de las cosas (IoT), se realizó una investigación de plataformas de IoT, de entre las cuales se eligieron dos; Cayenne y ThingSpeak. Una vez que fueron seleccionadas las plataformas IoT fue necesario la instalación de las librerias correspondientes, esto para poder trabajar en cada una de las mismas. Cayenne: Haciendo uso de esta plataforma, inicialmente se hicieron pruebas con códigos de generación aleatoria de números para comprobar la conexión utilizando el internet de las cosas. Esto se hace mediante la entrada al código de Arduino del nombre de usuario, contraseña y ID de cliente. Una vez diseñado el código en Arduino para el sensado de los voltajes y de luminosidad, se le agregó a la parte de comunicacion serial de Cayenne. ThingSpeak: En la plataforma de ThingSpeak fue necesario que el ususario se registrara y con la cuenta ya creada se realizó el proyecto de donde se saca la clave API de lectura o escritura, esta clave es la que se introdujo en la programación de Arduino para lograr la correcta comunicación con la tarjeta ESP8266. Esta clave, junto con las librerías de ThingSpeak se agregaron al código fuente ya diseñado anteriormente para Cayenne de Arduino. Posteriormente se realizaron las conexiones físicas de las tarjetas; sensores y la placa fotovoltaica para después conectar todo este circuito al puerto usb del equipo en el que se estará trabajando.  


CONCLUSIONES

Se hizo la prueba del uso de la tarjeta CN3065 conectando la placa fotovoltaica por un lado, hacia la tarjeta ESP8266 midiendo correctamente el voltaje que la placa solar estaba proveyendo. Aunado a esto se le conectó una batería de litio de 4 volts con lo que se pudo notar lo siguiente: Si la batería está cargada en su totalidad, el voltaje de salida que se utiliza es el de la batería de 4 V. Si la batería está cargada en su totalidad se prende un led de color azul indicando que se detuvo la carga de la batería. Cayenne tiene la posibilidad conjunta de uso en línea con página de internet así como en la aplicación móvil para IOS y Android. En ambas el entorno es bastante amigable y se puede descargar también la librería para trabajar con ella en Arduino.  Al trabajar con Cayenne el usuario puede percatarse de la sencillez del entorno y se puede trabajar fácilmente con el mismo, ofrece gran cantidad de opciones de tarjetas y sensores con los que se puede trabajar asi como la posibilidad del usuario de editar la interfaz a su gusto. Los datos se mandan con una sola linea de código lo cual también contribuye al fácil uso de esta plataforma. Con el uso de la plataforma ThingSpeak se tiene una sola posibilidad de mostrar datos; que es en forma de gráfico y al momento de enviar el dato, es un proceso bastante largo de líneas de código en Arduino y no muy probable de que se muestre en la propia aplicación de ThingSpeak. En cuanto a futuras aplicaciones, este proyecto de sensado de luminosidad con voltaje obtenido de placa fotovoltaica puede ir desde grandes circuitos de uso de energías verdes en edificios de industria o vivienda o bien, para proyectos mas pequeños en laboratorio donde se requiera sensar estos valores.
Velasco Valladares Brenda Araceli, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó (Colombia)

DESARROLLO DE SCRIPT PARA IDENTIFICAR TEMáTICAS DE UNA áREA DE CONOCIMIENTO


DESARROLLO DE SCRIPT PARA IDENTIFICAR TEMáTICAS DE UNA áREA DE CONOCIMIENTO

Cárdenas Gallardo Ma. Guadalupe, Instituto Tecnológico Superior de Apatzingán. Velasco Valladares Brenda Araceli, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En la actualidad los investigadores se encuentran con acceso a una gran cantidad de literatura científica y esto hace que se dispersen de forma fácil. Por ejemplo, cuando comienzan a realizar la búsqueda de información acceden a una gran cantidad de artículos que es complicado de mapear y la gran mayoría de herramientas son de pago o no tienen procesos automátizados. Algunas de estas herramientas son Sci2Tool, Gephi y Bibliométrix (un paquete de R). Sci2Tool sirve para organizar el archivo de txt resultado de la consulta para poderlo modificar de una forma fácil. Gephi permite la visualización de los datos que se extraen de la herramienta anterior. Por último, Bibliométrix permite realizar una mapeo muy general de la importancia del tema. Por lo tanto, como se puede observar los procesos actuales para entender y analizar la evolución y diferentes subáreas de un tema científico. 



METODOLOGÍA

Este proyecto se realizó en tres pasos en general. El primero se capturó el archivo txt de Web of Science y se convirtió en un grafo. Segundo, limpiaron los datos que no eran necesarios del grafo, como los nodos de grafo de entrada uno y grafo de salida cero junto con el componente gigante, al final de este paso se identifcaron los principales clústeres. Finalmente, se realizó un web scrapping para identificar los títulos de cada artículo y después una minería de texto para crear una nube de palabras y determinar el tema de cada subárea. 


CONCLUSIONES

Automatizamos análisis bibliometricos que usan análisis de redes, clusterización, web scrapping y minería de texto para identificar los subtemas de un área de conocimiento. Este es un aporte importante para los investigadores ya que a solo un enter podrán realizar todos los análisis que se mencionan en este documento y, de esta manera, agilizar su proceso de investigación. El producto final fue un paquete beta con una licencia MIT, el cual podrá seguir siendo desarrollado de forma libre y protegido para que sea utilizado por todos los investigadores. 
Velasco Velasco Diana Karen, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar

OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)


OPTIMIZACIóN DE PARáMETROS CINéTICOS DE DIFERENTES CIANOBACTERIAS (ANABAENA SP, FISCHERELLA SP, HAPALOSIPHON SP) CON EXTRACTO LIBRE Y ENCAPSULADO DE GUAJE (LEUCAENA LEUCOCEPHALA)

Cedillo Trujillo Sergio Eduardo, Instituto Tecnológico de Tuxtla Gutiérrez. Vázquez Robles María de Lourdes, Benemérita Universidad Autónoma de Puebla. Velasco Velasco Diana Karen, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Ma. Nieves Trujillo Tapia, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

El mercado del campo mexicano cada vez demanda más productos orgánicos, o productos que no degradan el medio ambiente, además, cada día es más frecuente que los productores se preocupen por la sostenibilidad de su actividad productiva por lo que el uso de biofertilizantes va cada vez en aumento (Avendaño, 2010). Entre los microorganismos que se proponen para el desarrollo y formulación de biofertilizantes se encuentran las las Cianobacterias, que son un grupo de procariontes, fotosintéticos, con capacidad de fijar N2  desempeñan un papel vital en mantener a largo plazo la fertilidad de los suelos. Además de mejorar la estructura del suelo, influyen en su permeabilidad y capacidad de retención de agua (Mohan et al., 2015) e igualmente liberan metabolitos secundarios que ayudan al control biológico de enfermedades bacterianas y fúngicas en diferentes cultivos.



METODOLOGÍA

Obtención del inoculo: Cada inoculo de las diferentes cepas (Anabaena sp, Fischerella sp, Hapalosiphon sp) se obtuvo por parte de la Universidad del Mar campus Puerto Ángel. Extracto vegetal de Leucaena leucocephala: El extracto se realizó pesando 1g de Leucaena previamente seco y molido, se le agregaron 5 ml de metanol al 99% junto con el extracto pesado y se dejó en agitación durante 1 horaPosteriormente se filtró al vacío se guardó, al resto del filtrado se le agregó nuevamente 5 ml de metanol; se repitió el mismo proceso descrito hasta reunir 10 ml. Por último se agregaron 10 ml de agua dejando volatilizar el metanol. Medio de cultivo: Se prepararon 20 L de medio BG11° el cual costa de 5 stocks. Para el primer stock se agregan 10 ml de este por cada litro de agua, para el segundo, tercer, cuarto y quinto stock es 1 ml por cada litro de agua. Se esterilizó cada stock por separado y se agregó empezando del quinto al primer stock; posteriormente se agitó.  Encapsulamiento de cianobacterias y el extracto de Guaje: Se pesaron 60 gramos de alginato y se disolvió en 500 ml de agua, dejando agitar hasta la homogeneidad de la mezcla y se esterilizó. Por otro lado se prepararon 500 ml de CaCl al 10 % para cada cepa y para el extracto de guaje. Para cada una de las cepas y el extracto de Guaje se tomaron 10 ml y 90 ml de alginato, se agitó vigorosamente por 1 minuto para que se homogenizó la mezcla y se pasó a un embudo de separación, este se montó en un soporte, mientras que en un cristalizador se colocaron los 500 ml de CaCl al 10 %  este se posicionó justo debajo del embudo, por goteo se dejó caer la solución alginato-cianobacteria y la solución alginato-Guaje hacia el CaCl para formar las perlas. Densidad óptica: Se utilizaron 6 tubos de ensaye de 13x100  a los cuales se les añadió una alícuota de 1 ml de cepa pura y 2  ml de agua destilada, posteriormente se sonicaron por separado durante 10 minutos cada uno hasta que se notaran homogéneos. A continuación los tubos se leyeron al espectrofotómetro a las longitudes de onda de 540 nm y 560 nm respectivamente. Diseño experimental Anabaena sp Fischerella sp  Hapalosiphon sp. Se realizaron 4 tratamientos en matraces de 250 ml los cuales consisten en: Tratamiento 1 (control): 180 ml de medio con 1 % de inoculo libre. Tratamiento 2 (control): 180 ml de medio con 200 y 100 perlas de alginato Fischerella, alginato-Hapalosiphon respectivamente. Tratamiento 3: 180 ml de medio con 1 % de inoculo libre y 200 perlas de alginato-Guaje. Tratamiento 4:180 ml de medio con 1 ml de extracto de Guaje seguido de 200 y 100 perlas de alginato-Fischerella, alginato-Hapalosiphon, alginato- Anabaena sp. En el caso de Anabaena sp  el experimento se realizó sin aireación. La cinética de crecimiento tuvo seguimiento de 15 días, tomando muestras cada tercer día tomando una alícuota de 15 ml y en el caso los que tienen perlas de alginato-cianobacterias se tomaron de 4 a 8 perlas, en cada toma de muestra y se alimentó  medio hasta completar los 200 ml.  Peso seco: Esta técnica se llevó a acabo según lo reportado por Arredondo & Votolina 2007. Cuantificación de Amonio: Se prepararon los siguientes reactivos: MnSO4  0.003 M,  NaCIO  y fenato.  A cada muestra de 5 ml de sobrenadante de los respectivos tratamientos se le agregaron 50 ųL de MnSO4, 0.5 ml de NaCIO y 0.6 ml de fenato, se dejaron reposar por 10 minutos aproximadamente y se leyó la absorbancia a 630 nm en el espectrofotómetro. La cuantificación de amonio se llevó a cabo mediante una curva patrón, la cual se  realizó con diferentes concentraciones de amonio.  Extracción y cuantificación de Carbohidratos intracelulares: Esta técnica se llevó a acabo según Duboís et al. 1956. Se tomó una alícuota de 5 ml de cada uno de los  respectivos tratamientos, centrifugaron a 6000 rpm durante 5 minutos a 25 ºC se desechó el sobrenadante, el pellet fue hidrolizado en 2 ml de NaOH  1N a una temperatura de 95 - 100 ºC en un baño María por una hora. Una vez enfriadas las muestras se  colocó  1 ml del extracto obtenido en tubos, se les añadió 0.5 ml de fenol al 4%, 2.5 de ácido sulfúrico concentrado, se dejaron enfriar por 30 minutos y  se agitaron constantemente en un vortex. La absorbancia fue leída a  485 nm en un espectrofotómetro. La curva de calibración se realizó con glucosa anhidra.


CONCLUSIONES

Se espera, para Fischerella sp. y Anabaena sp.  un alto crecimiento de biomasa, así como una buena producción de amonio, debido a que las condiciones a las que fueron sometidas durante el cultivo son las tradicionales según lo reportado por (Alonso S. E., 2015) además de resaltar que el medio carecía de nitrógeno, por lo que esto pudo ser una situación estresante para ellas y desencadenar su producción. Por otro lado Anabaena sp. fue cultivada en un medio sin aireación contrario a lo que reportan (Morales, 2014) con lo cual visiblemente se obtuvieron buenos resultados, pues se notó un crecimiento rápido y un buen desarrollo de la biomasa. En cuanto a carbohidratos intracelulares se espera una buena producción, pues con esto las cianobacterias demostrarían tener un alto potencial para ser un biofertilizante en  futuras aplicaciones  directamente al campo  (Alonso S. E., 2015).
Velazco Castillo Dania Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE


DISEñO DE UNA SUSPENSIóN AUTOMOTRIZ PARA UN VEHíCULO COMPACTO TODO TERRENO BAJA SAE

Henández López William, Benemérita Universidad Autónoma de Puebla. Pérez Lima Ponce Miguel Ángel, Benemérita Universidad Autónoma de Puebla. Velazco Castillo Dania Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Diseñar una suspensión automotriz para un vehículo todo terreno tipo Baja SAE. Esta suspensión será sometida a distintas pruebas de funcionamiento, tales como absorción de impacto, tiempo de respuesta y resistencia de fuerzas de curvatura, tracción, par motor y de frenada. Así mismo, esta suspensión debe conservar el paralelismo en los ejes y la perpendicularidad de la llanta.



METODOLOGÍA

La absorción de las reacciones generadas por la irregularidad del terreno se consigue gracias al funcionamiento conjunto de los neumáticos, el resorte o muelle y el amortiguador, así como la geometría de los brazos superior e inferior. Para este caso, el efecto del neumático será despreciado. Para diseñar un sistema de suspensión, se modela mediante un sistema Masa-Resorte-Amortiguador. Así mismo, mediante software CAD se miden las reacciones y fuerzas resultantes del modelo. De igual manera, para comprobar la importancia del sistema de suspensión en un automóvil, se fabricó una maqueta con dos autos, uno con suspensión y otro sin ella. De esta manera se puede apreciar la respuesta en ambos escenarios simultáneamente.


CONCLUSIONES

La competencia del baja SAE exige un alto desempeño en la suspención del automóvil. En el diseño se tomó en cuenta el recorrido, la rigidez y la suavidad, aspectos clave para un buen desempeño en todas las pruebas que se imponen a los vehículos antes de la carrera final. Intrínsecamente la geometría y el material de elaboración son aspectos relevantes, puesto que debemos de conseguir una buena rigidez en los brazos, así como también el no permitir que la rueda se despegue del piso, aspecto principal en el diseño. La evaluación de nuestro modelo a través del análisis de elemento finito y ensamblaje en CAD nos permitió la aprobación, contrucción del prototipo y armado de una suspención real Finalmente, se espera que (al igual que en los resultados de las simulaciones en CAD) la suspención ya manufacturada, ensamblada y montada en el vehículo, cumpla con los requerimientos y las exigencias necesarias para el óptimo desempeño del vehículo Baja SAE durante el desarrollo de la carrera.
Velazco Tesillos Noe, Instituto Tecnológico Superior de Huauchinango
Asesor: M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán

ANáLISIS DE TEXTOS LARGOS PARA SU CLASIFICACIóN


ANáLISIS DE TEXTOS LARGOS PARA SU CLASIFICACIóN

Velazco Tesillos Noe, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán



PLANTEAMIENTO DEL PROBLEMA

En este proyecto se busca realizar un programa que pueda analizar textos largos para su clasificación, la cual estará conformada por los diferentes géneros literarios.



METODOLOGÍA

Para este proyecto lo primero que realizamos fue la recopilación de una base de datos solida para poder trabajar, para esto utilizando un programa creado anteriormente para este propósito el cual es la base para este proyecto, el programa creo una lista de todas las palabras incluidas en diferentes libros las cuales serian clasificadas posteriormente de la siguiente manera: Adjetivo, Adverbio, Articulo, Conjunción, Interjección, Preposición, Pronombre, Sustantivo y Verbo. Los libros a los cuales realizamos este procedimiento fueron: Sanderson Brandon - Trilogía Reckoner 01 - Steelheart, Tres enanos y pico - Angel Sanchidrian. Una vez teniendo el análisis de estos, realizamos una comparativa para ver si podríamos encontrar similitudes entre ellos al pertenecer a un mismo genero literario que es la Fantasía.    


CONCLUSIONES

Los resultados obtenidos fue que ambos textos son similares en el uso de Adverbios, Artículos, Conjunción, Interjección, Pronombres, Preposiciones y Sustantivos. Dandonos pie a poder seguir con nuestra investigacion. Lo que se busca con este proyecto es encontrar un patrón que nos permita identificar fácilmente el tipo de escritura de cada autor para posibles futuros.
Velázquez González Osvaldo David, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE


DESARROLLO DE UNA INTERFAZ GRAFICA FUNCIONAL PARA PROCESAMIENTO Y CLASIFICACIóN DE SEñALES DE LLANTO DE BEBE

Alonso Vázquez Vicente Pascual, Universidad de Guadalajara. Altamirano Sanchez Jesus David, Instituto Tecnológico Superior de Huauchinango. Velázquez González Osvaldo David, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Carlos Alberto Reyes Garcia, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

Las características cuantitativas y cualitativas en el llanto infantil permiten diferenciar razonablemente entre llantos normales y patológicos. Los beneficios de esta búsqueda no son la detección de enfermedades sino ofrecer una herramienta no invasiva para valorar el llanto y poder intervenir lo más tempranamente posible en aras de proveer un tratamiento pronto y efectivo. Es por eso que se desarrolló una interfaz gráfica para facilitar el análisis y procesamiento de señales acústicas del llanto de bebé, desde su lectura a partir del audio hasta obtener las características cualitativas y cuantitativas para ser mostradas de manera ordenada y completa para ayudar al usuario a comprender la información obtenida, posteriormente con las características cualitativas realizar el proceso de clasificación utilizando diversas técnicas como lo son: Redes neuronales, clasificaciones Neuro Difusos y kNN (k-nearest neighbours). Esto se realiza con la finalidad de automatizar la información obtenida del procesamiento de la señal, y con esa misma información poder aplicar los clasificadores sin tener que ejecutar cada programa o proceso de manera independiente, sino desde una misma interfaz.



METODOLOGÍA

Cuantitativas Para poder visualizar una interfaz intuitiva y fácil de manejar por el usuario se desarrolló una primera pantalla que solicita al usuario, un usuario y una contraseña, al ser los datos correctos la interfaz permite al usuario visualizar dos botones contenidos en una nueva interfaz, botones que le permiten al usuario elegir las características que desea obtener, la interfaz brinda dos opciones, Características Cuantitativas y Características Cualitativas, dependiendo de la opción que se elija se desplegará otra ventana para poder hacer la clasificación. La interfaz realiza la clasificación a través de una red neuronal ya entrenada, lo que se hizo fue modificar la interfaz para hacerla más intuitiva y completa, ya que está en un principio seleccionaba únicamente un archivo WAV, situación que sin duda consume tiempo si se desea analizar más de una sola muestra, se mejoró la interfaz para que esta le permitiera al usuario seleccionar una carpeta completa, al seleccionar la carpeta, los archivos WAV contenidos en esta son visualizados en un menú desplegable. La interfaz analizará el audio wav seleccionado, realizará un análisis de este, obteniendo su coeficiente de Predicción Lineal (LPC), el cual es un método importante de caracterización de propiedades espectrales del llanto en el dominio del tiempo. En este método de análisis, cada muestra de la onda del llanto es predicha como una suma ponderada lineal de p ejemplos. Y después de extraer el LPC se pasa a través de la Red Neuronal entrenada para poder obtener el diagnóstico del llanto, y de esta manera saber su tendencia, ya sea sordo, asfixia o normal. Además para que el medico pueda llevar un análisis más completo se agrega una ventana de visualización del espectrograma, ya que con este es posible visualizar con más detalle la estructura armónica de la señal, se puede de igual manera acercar o alejar la señal simétricamente entre el espectrograma y la señal de audio para poder ver en distintos puntos más detalles de esta, que si se analiza de manera completa no se pueden identificar fácilmente, además un apartado para poder guardar las señales en formato JPG por si se desea más adelante analizarlas fuera del programa. Cualitativas Para encontrar las características cualitativas en los llantos, se toman en cuenta las siguientes variables: Tipo de Melodía: Ascendente, descendente, ascendente-descendente, descendente-ascendente, plana, y sin forma melódica, Glide, Concentración de ruido, Shitf. Lo que se hace es contar cuantas veces se encontró ese tipo de característica en los llantos, de este modo se obtiene un vector de 10 elementos por cada audio analizado. Una vez entendido eso, se procedió a realizar lo siguiente.  Restructuración, La información se mostraba todo en texto plano, mezclado la información de todos los audios, haciendo difícil entender u observar los resultados, entonces lo que se hizo fue colocar los nombres de cada audio en un menu, para que así el usuario pueda elegir de que audio requiere ver su información. Segmentación, los audios no necesitan tener una duración normalizada para poder ser procesados, por lo cual la duración de cada audio puede variar, de igual forma la segmentación ayuda a tener más muestras para poder analizar, por tal motivo se agregó la opción de segmentar, especificando los segundos de los segmentos. Mapeo de características, A la interfaz se le agrego la opción de mapear las características obtenida, este mapeo se realizó utilizando dos ejes, X y Y, una vez procesado cada audio se convertirá en un vector de 11 elementos, donde los datos útiles se encuentran entre la columna 1 a la 10. Cuando ya se tiene la matriz de datos se normaliza aplicando la fórmula de unidad tipificada (z-score), posteriormente para poder graficar en 2 dimensiones se tuvo que reducir la dimensionalidad de los datos, utilizando el método de Análisis de componentes principales (PCA). Clasificación, para poder utilizar los clasificadores se necesita tener en un mismo archivo csv todos los datos, por lo tanto, se incorporó la opción de poder descargar y ver. Después se anexaron a la interfaz el clasificador Neuro Difuso y el clasificador kNN, con el fin de observar su comportamiento.


CONCLUSIONES

Podemos concluir que, durante el lapso de la estancia, se aprendió, a manejar el software Praat y reforzar los conocimientos de MATLAB, de igual manera se comprendieron los temas tales como: procesamiento de Bioseñales acústicas, aplicación de clasificadores, y el uso de aprendizaje computacional. Pero sobre todo se ha aprendido a realmente lo que es realizar Investigación, además de poder haber aplicado los conocimientos adquiridos durante la carrera. Como resultados obtuvimos que la interfaz facilita el proceso de extracción de características y la clasificación, se espera que el nuevo clasificador propuesto obtenga una precisión similar, esto únicamente se realiza por motivos experimentales.
Velázquez Guillén Jennifer Jacqueline, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan

EFECTO DE LA VARIABILIDAD DEL TIEMPO DE ESPERA Y LA DEMANDA EN CADENA DE SUMINISTRO.


EFECTO DE LA VARIABILIDAD DEL TIEMPO DE ESPERA Y LA DEMANDA EN CADENA DE SUMINISTRO.

Velázquez Guillén Jennifer Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan



PLANTEAMIENTO DEL PROBLEMA

Cuando se habla de administrar una cadena de suministro, se habla de describir la coordinación de las actividades, desde la recepción de materias primas hasta el punto en el que el producto o el servicio es entregado al cliente, administrar la cadena requiere estructurarla de tal forma que se beneficie el cliente maximizando las ganancias (Heizer y Render, 2017) en general las operaciones requieren un tiempo de procesamiento, en consecuencia, los eslabones de una cadena se comportan como sistemas de líneas de espera, en donde se forma una cola o fila de órdenes que deben esperar a ser atendidas. Dada la complejidad de esta clase de sistemas, es necesario ampliar las herramientas como el modelo de flujo a costo mínimo tomando en cuenta la aleatoriedad de parámetros como la demanda y la capacidad de atención que se traduce a una línea de espera en donde cada proceso requiere un cierto tiempo para ser completado. La línea de espera se forma porque existe una diferencia entre la tasa de servicio μ y la tasa de llegadas λ, lo cual se verá reflejado con la formación de una cola frente a la estación esperando turno para ser atendidos; a las entidades que permanecen en espera también se le da el nombre de trabajo en proceso (Curry y Feldman, 2009, Hillier y Liebermann, 2010) cuando hay al menos dos estaciones conectadas entre sí, en una red las salidas de un proceso se transforman en las llegadas de otro proceso.



METODOLOGÍA

Las cadenas de suministro son negocios que se evalúan en función del costo, la calidad del servicio o producto, la rapidez de respuesta y su flexibilidad. Cada medida de desempeño requiere que el sistema cuente con un conjunto de capacidades específicas que la empresa debe administrar para operar de forma eficiente (Hopp, 2003). Cuando se habla de administrar una cadena de suministro, se habla de describir la coordinación de las actividades, desde la recepción de materias primas hasta el punto en el que el producto o el servicio es entregado al cliente, administrar la cadena requiere estructurarla de tal forma que se beneficie el cliente maximizando las ganancias (Heizer y Render, 2017); obtener un plan de actividades coordinadas de manera óptima tiene un papel relevante en la operación de la red ya que permite disminuir los gastos de producción y distribución mejorando los niveles de servicio (Marmolejo, Rodríguez, Cruz-Mejía & Saucedo, 2016).


CONCLUSIONES

La solución es óptima tomando en consideración solamente los costos de transporte entre los componentes de la red de abasto de aguacate, sin embargo, al estimar el desempeño de la red como un sistema de líneas de espera, vemos que el tiempo dentro del sistema, así como la cantidad de trabajo acumulado sufren un deterioro a medida que el flujo se aleja de las características de un proceso regular, lo anterior es un reflejo de un proceso cada vez más difícil de controlar. Se debe señalar que en estos escenarios se toma en cuenta toda la cadena de abasto, lo que indica que la variabilidad en cada eslabón de la cadena se acumula a medida que se avanza en el proceso.
Velázquez Iñiguez Juan Pablo, Universidad de Guadalajara
Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC

DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA:LOSETA DE TIERRA COMPACTADA (LTC)


DESARROLLO SOSTENIBLE DE ELEMENTOS CONSTRUCTIVOS DE TIERRA CRUDA:LOSETA DE TIERRA COMPACTADA (LTC)

Pérez Bistraín Karen Lizeth, Instituto Politécnico Nacional. Velázquez Iñiguez Juan Pablo, Universidad de Guadalajara. Asesor: Mtro. Selene López Cameras, Centro de Investigación y Estudios Sociales, Económicos y de Mercado AC



PLANTEAMIENTO DEL PROBLEMA

Actualmente nos presentamos a una problemática frente a la industria constructiva convencional debido a que los procesos, materiales ocupados y sus ciclos de vida de las mismas, son contaminantes para el medio ambiente. Siendo un punto primordial en debates del cambio climático y la influencia de la rama constructiva. Por ende, las construcciones sustentables y autosuficientes son un desafío para los ingenieros y arquitectos en relación al área. Esto nos lleva a un punto de gran cuestión, durante el desarrollo constructivo de una vivienda, se ocupan diversos materiales y prefabricados con un consumo de energía embebida alto. Esta es la energía total consumida al momento de construir un proyecto. Involucra desde la extracción, fabricación de los materiales hasta la utilizada durante la mano de obra. Estos dos puntos, nos conlleva a la siguiente pregunta ¿Cómo realizar un proyecto arquitectónico que sea sustentable, donde se gaste el menor porcentaje de energía embebida posible? Debido a que las edificaciones actuales demandan el empleo de prácticas y materiales de bajo impacto ambiental, se realiza el análisis de Desarrollo Sostenible de un Elemento Constructivo Prefabricado de Tierra Cruda: Loseta de tierra compactada (LTC), bajo el estudio de Eficiencia Industrial como criterio de impacto económico.



METODOLOGÍA

El proyecto de investigación se desarrolló en 5 etapas, las cuales son: recolección, examinación, generación, proposición y representación.  La Loseta de Tierra Compactada (LTC), es un elemento constructivo que consiste en la elaboración de losetas 100% artesanales en forma hexagonal con arcilla como material base obteniendo su forma a través de un molde metálico prefabricado y un pisón de mano. El primer prototipo de loseta se realizó en el 2016 como iniciativa propia de la Arquitecta Selene López Cameras, posteriormente se dio seguimiento en el año 2017 por investigadores veraniegos. La función de estas losetas es ser parte de un panal fachaleta el cual tiene como funcionalidad recubrir un muro en sustitución de cualquier fachaleta ya prefabricado con procesos más complejos y de costos mayores. En la segunda etapa se determinaron las patologías y se realizaron estudios de la tierra, aplicando el método de Test Carazas con arcilla montmorillonita y arcilla roja.  Una patología es una enfermedad ya sea física, química o mecánica que se presenta desde los procesos de producción o en el transcurso de su ciclo de vida. Por otro lado, el Test Carazas es una herramienta didáctica para la obtención de 15 muestras sobre una tierra específica. En este caso se realizó con dos tipos de arcilla, montmorillonita y arcilla roja; para conocer sus propiedades y comportamientos al ser sometidas a distintos tipos de humedad y de empleo. La loseta es un elemento prefabricado que se compone de 3 capas compactadas una sobre otra, las cuales están compuestas por morteros estabilizados para lograr mejores resultados y características con relación a los objetivos de resistencia mecánica, resistencia a la abrasión, calidad visual y ligereza. Cada capa cuenta con una característica en específico, por ejemplo, la capa posterior es considerada como el área donde la loseta se pegará y tiene una textura ruda para ofrecer mejor adherencia, la capa intersticial o media es la encargada de ofrecer ligereza y termicidad pues cuenta con fibras vegetales en el mortero y la capa frontal es la encargada de ofrecer la calidad visual y resistencia a la abrasión. El conjunto de estas tres capas forma una loseta la cual dependiendo los morteros utilizados y sus características puede ser usada tanto en elementos verticales como una fachaleta, así como en espacios horizontal convirtiéndose en una loseta de piso. Considerado en la etapa de terminados, el sellado se aplica una vez que la loseta se encuentre seca, dependiendo el área de aplicación donde se colocará la loseta es el material que se usará, por ejemplo, si es solo en un muro interior, basta con aplicar aceite de linaza, pero si es al exterior necesita sellador. La aplicación de este aceite se logra con apoyo de una esponja después de haber humedecido la loseta, esto con el objetivo de eliminar o reducir la porosidad del material, llenando filtraciones y aislando la humedad del medio, así como mantener limpio el prefabricado. Una vez secadas y selladas las losetas se paso a la ejecución de morteros adherentes y morteros de junta, para su empleo. El mortero de adherencia es un conjunto de materiales primarios que mezclados entre sí y en combinación con un porcentaje especifico de agua, forman un mortero que ofrece características necesarias para permitir que una loseta tenga la capacidad de unirse a un área de aplicación. Mientras que, un mortero de junta es una pasta que por su composición está formada con varios materiales y agua además de que tiene la función de cubrir los espacios entre cada loseta, evitar cualquier filtración y ser parte esencial de la adhesión.


CONCLUSIONES

En conclusión, se logró estabilizar la arcilla Montmorillonita que en Tuxtla Gutiérrez no se considera apta en la rama de la construcción, y así poderla aplicar en un elemento constructivo, darle una utilidad, y a su vez a los materiales remanentes. La idea principal con los prototipos de prefabricados que se están trabajando es encapsular su esencia, aptitud, aspectos y atributos de estos materiales y así aplicarlos en la zona urbana. Es necesario darle vida a este prefabricado, además de funcionar como una loseta en elementos verticales, surgió la idea de aplicarlas en el piso recubiertas con un epóxico en un espacio de servicio como lo es una cocina, así como este ejemplo, puede tener más aplicaciones, el objetivo de todo esto es usar materiales de la ciudad que normalmente son remanentes como lo es el caso del aserrín o la viruta o toda la tierra que con facilidad se encuentra y aplicarlos en la misma ciudad interviniendo casas con materiales más comerciales.
Velazquez Vergara Diana Laura, Instituto Tecnológico de Pachuca
Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo

CELULOSA MODIFICADA CON BIOCARBONO DE CAFé: COMPATIBILIDAD Y ANáLISIS


CELULOSA MODIFICADA CON BIOCARBONO DE CAFé: COMPATIBILIDAD Y ANáLISIS

Velazquez Vergara Diana Laura, Instituto Tecnológico de Pachuca. Asesor: Dr. Salomón Ramiro Vásquez García, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

El café es una de las bebidas más consumidas alrededor del mundo. Por lo tanto, una gran cantidad de café elaborado se desecha como desperdicio en cafeterías, hoteles y hogares. Más de 6 millones de toneladas de desechos sólidos en forma de polvo de café en grano se generan cada año. Además de los componentes nocivos como la cafeína, los taninos, los polifenoles, etc., presentes en el café, su eliminación también causa estragos en el medio ambiente, especialmente en los cuerpos de agua. Por lo tanto, la utilización y eliminación adecuadas de los residuos de café pueden ayudar enormemente a proteger el medio ambiente. 



METODOLOGÍA

Este estudio se centra en el análisis de películas hechas a base de celulosa con residuos de café carbonizado, con el fin de conocer la compatibilidad de estos elementos. Para realizar dicho análisis se hizo un método experimental en el cual se formó una solución de celulosa, disuelta en agua destilada y a la cual se le añadieron diferentes cantidades de café carbonizado. 


CONCLUSIONES

Los resultados preliminares de la investigación mostraron una buena compatibilidad de la celulosa con los residuos de café, pues en las muestras obtenidas se puede visualizar una buena aglomeración de los compuestos, para un análisis más certero de lo que ocurrió al fusionar estos materiales se realizó un análisis FTIR (Espectroscopia infrarroja de transformada de Fourier) y un análisis de microscopia, los cuales nos mostraron un mejor resultados tantos en su forma química como física. En conclusión se obtuvieron datos muy interesantes de la manera en como reaccionaron dichos materiales, pues se pudo ver como se tuvo una buena compatibilidad de estos compuestos y las aplicaciones pueden expandirse en medida que se sigan haciendo pruebas y más películas con diferentes concentraciones de ambas elementos.
Ventura Ahumada Víctor Manuel, Universidad de Colima
Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango

SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE


SISTEMA TIFLOTéCNICO PARA LECTO- ESCRITURA CON IMPRESIóN BRAILLE

Aguayo Tut Oscar Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Barzalobre Cruz Ulises, Instituto Tecnológico Superior de Huauchinango. Castro Sánchez María Luisa, Corporación Universitaria del Caribe (Colombia). Ventura Ahumada Víctor Manuel, Universidad de Colima. Asesor: Mtro. Edgar Jesus Cruz Solis, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la actualidad existen diversos dispositivos que le ayudan a las personas con discapacidad visual a utilizar el sistema Braille, un ejemplo de ello son las distintas impresoras y máquinas de escribir que atañen la estructura de éste sistema, pero dichos dispositivos solo suplen la necesidad básica de comunicación e intercambio de conocimiento y en estos tiempos de tecnología e innovación eso ya no es suficiente, puesto que ahora la preocupación tiene una trascendencia más avanzada y enfocada a la comodidad de las personas que utilizan este sistema y por ende los dispositivos, además de lo expuesto anteriormente hoy por hoy no existe un sistema ergonómico que integre los sistemas de escritura, lectura e impresión para el sistema Braille, que le permita a la persona con discapacidad visual escribir de forma cómoda, leer lo que está escribiendo, tener la oportunidad de corregir si tuvo algún error y luego imprimir lo escrito.



METODOLOGÍA

Para el diseño del sistema de tracción se tomó en cuenta el funcionamiento que debe obedecer en el dispositivo y con base a eso se diseñaron los componentes de éste sistema que son dos pares de rodillos que se encuentran unidos por un eje, 4 micro rodillos, una rampa y un chasis en el que se encontraran todos los sistemas. En este mismo sentido y para el diseño del sistema de impresión se tomó el mismo criterio que para el primer sistema y con base a ello se diseñaron cada una de las estructuras del sistema las cuales son el diseño del recorrido que va a realizar los punzones, los punzones que se integraron a los solenoides y por último la estructura de soporte de los solenoides. Basándose en los diseños descritos anteriormente, se procedió a la manufactura de cada uno de los componentes de cada sistema, tomando en cuenta que no todos son maquinables y por ende solo se realizaron aquellos que si cumplían con la condición, recalcando que éste proceso se dividió en dos partes, una que fue realizada en la impresora 3D y la segunda en el CNC, para la primera solo fue necesario el diseño de las piezas los cuales se realizaron en el software SolidWork, luego de esto se imprimieron las siguientes piezas: los rodillos, los micro rodillos, las estructuras de soportes de los micro rodillos, la camisa de soporte de  los solenoides, los rodillos de tracción para la banda y los rodillos de riel para la banda. Para la segunda parte se apoyó en el software MastercamX5, en el cual se estableció el tipo de maquinado de cada pieza, el tipo de cortador o broca a utilizar para la fabricación y se obtuvo el código G, el cual fue introducido en el CNC, para la fabricación de las piezas, es importante mencionar que las piezas maquinadas en el CNC fueron: las bases laterales del chasis, las bases laterales de la rampa, el chasis, la base de soporte para el motor NEMA y la base de soporte para el motor de 5V, luego de la fabricación de las piezas se integró todas las piezas de los sistemas. En éste mismo sentido se procedió con el dimensionamiento del sistema eléctrico, estructurando un circuito de alimentación con batería de respaldo el cual lo integran diversos componentes como resistencias, condensador, diodo, SCR, su funcionamiento se encuentra fundamentado en la conmutación entre la energía eléctrica proporcionada por la red y la fuente de respaldo, éste se puede analizar en dos momentos, uno cuando existe alimentación por parte de red eléctrica y otro cuando existe una interrupción en éste flujo, la primera parte permite el suministro de energía para los diversos componentes del sistema y de la misma manera cargar a la batería de respaldo, cabe destacar que cuando se encuentra en este estado el circuito el tiristor se encuentra por un pase de cero, esto es causado por la respuesta positiva que existe del ánodo con respecto al cátodo denominado como polarización inversa. En el segundo momento se alimentará el circuito por medio de la batería de respaldo, ocasionando que en el SCR exista una polarización directa y de forma simultanea exista una corriente suficiente a través de la compuerta que lo active permitiendo el flujo de corriente hacía todos los componentes del sistema. Tomando en consideración cada uno de los sistemas que se diseñaron se procedió con el diseño ergonómico del dispositivo en el que por una parte se tomó en cuenta la ubicación espacial de la integración de todos los sistemas y por la otra se enfocó en el control de escritura del dispositivo, cabe destacar que para poder diseñar éste control se realizó un estudio  sobre las dimensiones de la mano de una muestra de 30 personas y sobre la cual se tomaron medidas basándose en la medidas antropométricas las cuales fueron la largura de la mano, la largura de la palma y la altura de ésta misma, el diámetro de agarre, la distancia del final del pulgar hasta el final del dedo índice y la largura del dedo índice, medio, anular y pulgar, y a partir de éstos se estructuró la forma del control y la ubicación de los botones de escritura.


CONCLUSIONES

Durante la estancia de investigación se logró adquirir diversos conocimientos relacionados al diseño, la manufactura, el sistema eléctrico, la ergonomía y el manejo de varios software de diseño y manufactura como Solidwork y MastercamX5, en los que se realizaron los diferentes diseños de la conformación mecánica del dispositivo y sobre el cual se puede decir que si se quiere obtener una propuesta eficiente se debe realizar múltiples pruebas para así encontrar la manera más óptima, posterior a ello y basándose en lo aprendido cabe destacar que para ampliar los conocimientos adquiridos se aprendió a utilizar la máquina CNC, para realizar el maquinado de las piezas. Por otra parte, en el sistema eléctrico se puede decir que si se desea garantizar un flujo eléctrico continuo y confiable en todos los sistemas mencionados anteriormente en caso de que exista de una interrupción en el suministro de energía proporcionada por la red eléctrica se hace necesario la implementación de una batería de respaldo en el que el circuito se fundamente en la implementación de un tiristor SCR.
Venzor Nava Enya, Universidad de Sonora
Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla

TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.


TALLER DE SENSIBILIZACIóN PARA LA INTRODUCCIóN DE HORNOS ECOLóGICOS MK2, CASO SAN DIEGO CUACHAYOTLA.

Aguirre Franco Luisa Fernanda, Universidad de Sonora. Organis Rebolledo Emmanuel, Universidad Autónoma de Guerrero. Vega Ortiz Rocio Esmeralda, Instituto Tecnológico de Reynosa. Venzor Nava Enya, Universidad de Sonora. Asesor: Dr. Gloria Carola Santiago Azpiazu, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Los hornos que se utilizan en la comunidad de San Diego Cuachayotla para la producción de ladrillo artesanal son abiertos. La elaboración de estos materiales cerámicos involucra procesos artesanales de fabricación tales como la extracción manual de arcillas y la cocción ineficiente, tampoco hay una selección de materiales y el control de calidad es prácticamente nulo. El principal producto que se fabrica es el ladrillo macizo de arcilla cocida. Desde el punto de vista socioeconómico muchas de estas unidades de producción están conformadas por familias que ven esta actividad como el único medio de sustento y laboran en condiciones de trabajo mínimas, donde los servicios básicos son insuficientes y de baja calidad. El sistema de trabajo es familiar y la contratación de operarios es a ‘destajo’, es decir, sin una vinculación laboral permanente ya que se hace de acuerdo con los requerimientos que marca la demanda del producto y al trabajador se le paga por actividad y/o cantidad de producción realizada. Las principales afectaciones al medio ambiente que se generan en este tipo de unidades productivas tienen relación con la extracción no apropiada de las arcillas, ocasionando taludes inestables y desorden en las explotaciones, lo que se refleja en la presencia de áreas extensas sujetas a erosión laminar, en surcos y cárcavas. Como efecto del bajo rendimiento térmico de los hornos se produce contaminación atmosférica por emisión de CO, CO2, azufre, nitrosos y partículas en suspensión, como lo es el carbono negro. El carbono negro (hollín) es considerado un problema para la salud humana ya que ocasiona a corto o largo plazos, enfermedades respiratorias, cardiovasculares, daños en la piel, entre otras.



METODOLOGÍA

Se llevó a cabo investigación documental, esto con el fin de recopilar la información necesaria para diseñar y realizar los talleres donde se presentaron a la comunidad de ladrilleros alternativas para mejorar su calidad de vida y producción de ladrillo. Una vez procesada la información documental, se llevaron a cabo entrevistas con las autoridades municipales de San Pedro Cholula, entre ellas la Regidora de Hacienda, la Secretaria del Medio Ambiente y un maestro expresidente de la Junta Auxiliar de San Diego Cuachayotla, quienes aprobaron la propuesta. Se mencionó que primeramente había que realizar un taller introductorio donde se hablara acerca de las condiciones en las que se vive y de las acciones inmediatas que pueden mejorar su calidad de vida, específicamente la calidad del aire. Es así como se preparó el primer taller: “El aire que respiras”. Tomando como prioridad la calidad de vida de la junta auxiliar, se les presentaron las afectaciones y repercusiones que se derivan del hecho de respirar el humo negro de sus hornos, en su salud en la de su familia y en su entorno. Enfermedades respiratorias, enfermedades cardiovasculares, impacto ambiental negativo y calentamiento global, crisis ambiental, gases contaminantes, hollín, entre otros, fueron algunas de las problemáticas expuestas a los integrantes de la comunidad. Se presentaron propuestas tanto para mejorar la calidad del aire que respiran directamente, como para el ordenamiento del espacio separando las áreas de trabajo de la vivienda con la intención de un mejor aprovechamiento del terreno y mayor funcionalidad de este. Producto del primer taller, una vez terminada la presentación, se hizo una invitación para unirse al proyecto de manera voluntaria. Solo un productor se interesó por lo que se realizó el levantamiento de su predio para situar el horno y destinar áreas de trabajo, se situaron las barreras vegetales que ayudarán a mejorar la calidad de aire e impedirán que el hollín llegue a la zona de vivienda y a las edificaciones vecinas. El estudio se realizó con base en los datos proporcionados por el productor voluntario y de acuerdo con las características de las superficies disponibles para la producción de ladrillo artesanal, considerando la implementación del Horno Ecológico MK2. Para el diseño de las barreras vegetales, se generó una lista de 20 árboles que crecen en la región, posteriormente se elaboraron fichas técnicas de cada uno de estos árboles para después realizar la evaluación que determinó la capacidad de las distintas especies para filtrar el carbono negro y absorber el CO2, funciones principales que deben tener las barreras vegetales en esta comunidad ladrillera.


CONCLUSIONES

A lo largo de la estancia dentro del verano de investigación se trabajaron diferentes aspectos e investigaron diversas áreas enfocadas todas a desarrollar un taller de inducción para lograr implementar los hornos MK2 en la comunidad de San Diego Cuachayotla. Se recabaron datos tanto de impactos ambientales como afectaciones a la salud de los integrantes de esta junta auxiliar. Mediante estrategias y métodos investigados se estructuró el taller, los productos de esta investigación se llevaron a cabo con una mirada centrada en el beneficio social, económico y ambiental a la comunidad productora de ladrillo artesanal. Se logró captar únicamente un voluntario debido a la desconfianza de la comunidad hacia los cambios tecnológicos en sus procesos de producción. Mismo que se trabaja con los talleres de concientización esperando aminorar la situación y plantear un panorama positivo para el proyecto.
Vera Martínez Elías Gerardo, Universidad Veracruzana
Asesor: M.C. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia (Colombia)

RETOS DE LA GESTIÓN DEL TALENTO HUMANO EN LA INDUSTRIA 4.0


RETOS DE LA GESTIÓN DEL TALENTO HUMANO EN LA INDUSTRIA 4.0

Hernández Franco Ariadna, Universidad Veracruzana. Vera Martínez Elías Gerardo, Universidad Veracruzana. Asesor: M.C. Mary Alejandra Mendoza Pérez, Universidad Católica de Colombia (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El propósito de este estudio, busca encontrar líneas de análisis para la formación de los trabajadores del futuro, articulados con la Industria 4.0. Pues con la inminente llegada de esta nueva era, queda en duda cómo será la gestión de este significativo recurso, tanto para las empresas como para el mismo trabajador. La investigación se realiza para dar un panorama amplio de lo que implica para un trabajador ser parte de la Industria 4.0 y los retos más significativos de las organizaciones y gobiernos para gestionar de forma efectiva este cambio. 



METODOLOGÍA

La estructura metodológica de la investigación está integrada por dos fases: vigilancia tecnológica descriptiva para la identificación de tendencias sobre el campo de conocimiento y revisión analítica de literatura para profundizar en el entendimiento del tema  A continuación se describen los pasos detallados que se llevaron a cabo en la investigación. Se adoptó un enfoque inductivo, que incluyó una serie de entrevistas en profundidad con una serie de figuras de alto nivel en dos empresas de Colombia. Vigilancia Tecnológica: - Palabras clave de estudio                                           - Búsqueda base de datos y VantagePoint Revisión Sistemática: - Planeación                                        - Desarrollo de Revisión                                        - Revisión de Resultados Revisión Analítica: - Realizar entrevistas empresas estratégicas                                   - Confrontar trabajo de campo y revisión                                                      sistemática                                   - Análisis de información                                   - Identificación de gaps                                   - Conclusiones  En esta investigación se utilizó como criterio de exclusión en el proceso de filtrado de los datos obtenidos en la base de datos: el análisis de artículos de revisión y el estudio de documentos que se orientaran a la identificación del concepto de Industria 4.0 relacionadas con la gestión de personas y talento humano. Considerando como referente a Kitchenham [10], la metodología de revisión sistemática siguió tres fases que se describen a continuación:     Planeación: En esta etapa se estableció un protocolo de búsqueda para realizar la revisión de literatura. Desarrollo de la revisión: En esta etapa se establecieron los criterios de revisión, para sustentar teóricamente el estudio [11], y poder desarrollar un ejercicio de revisión integrando una perspectiva analítica. Publicación de resultados: Los 46 artículos resultantes del proceso de análisis, fueron procesados, se construyeron dos categorías analíticas que permitieron organizar los resultados que se sintetizan en este documento: concepto y tendencias asociadas al campo de conocimiento.  


CONCLUSIONES

La Industria 4.0 es un tema emergente de investigación que está a la vanguardia de nuevos cambios sociales e industriales que influye directamente en la gestión del talento humano, es importante que se determine con una visión más clara las estrategias planteadas para la mitigación de las brechas con un objetivo efectivo de analizar la situación del talento humano con la Industria 4.0. Un hallazgo importante en la vigilancia tecnológica, fue la carencia de análisis en la región de Latinoamérica, los estudios estaban centrados en Europa, China y América del norte.     Básicamente los cambios tecnológicos implican cambios de comportamiento y esto, con planes adecuados, se permitirá un beneficio cooperativo, sin embargo, lo anterior,  implica compromiso de directivos, articulación entre la academia y las necesidades del contexto, preparación de los encargados de gestión humana en procesos de creación de perfiles, selección y permanencia de personal y además estudios alrededor de gestión del cambio en donde se prepare a las personas en las nuevas líneas de gestión y trabajo para la adopción de competencias.   Por otro lado, es importante generar mesas de discusión para identificar puntos estratégicos de disrupción en las empresas de Latinoamérica. Gran porcentaje de la industria en esta región es pequeña y mediana empresa, lo cual trae consigo, la baja inversión en recursos enfocados a la prospectiva estratégica y crecimiento de sus empleados.
Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México

UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO


UN MODELO MATEMáTICO PARA LA PLANEACIóN ESTRATéGICA DE MARKETING DIGITAL: EL CASO DE MéXICO

Anzures Payan David Alfredo, Instituto Tecnológico de Culiacán. Carranza Velazquez Lizba Yuzbe, Instituto Tecnológico de Culiacán. Chávez Cáceres Ana Paulina, Instituto Tecnológico de Culiacán. Emerich Vega Ilse, Instituto Tecnológico de Culiacán. Espinosa Coutiño Jesus Alfredo, Universidad Autónoma de Chiapas. González Martín Angel, Universidad de Guadalajara. Hernández Valenzuela Alberto, Instituto Tecnológico de Culiacán. Lopez Cazares María Osiris, Instituto Tecnológico de Culiacán. López Zavala Luis Fernando, Instituto Tecnológico de Culiacán. Marentes Solorzano Gabriel Jair, Universidad de Guadalajara. Mejia Nava Mario, Universidad de Guadalajara. Parra Ramírez Arlette Yutbely, Instituto Tecnológico de Culiacán. Perez Rochin Alejandro, Instituto Tecnológico Superior de Cajeme. Román Morales José Alfredo, Universidad Autónoma de Guerrero. Vera Sotero Yoselin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. David Joaquín Delgado Hernández, Universidad Autónoma del Estado de México



PLANTEAMIENTO DEL PROBLEMA

Hoy en día somos tan dependientes del internet que nos resulta altamente difícil llevar a cabo nuestro día a día sin él, lo mismo sucede al momento de querer adquirir algún producto o servicio. El marketing digital es la aplicación de las estrategias de comercialización llevadas a cabo en los medios digitales. Todas las técnicas del mundo off-line son imitadas y traducidas a un nuevo mundo, el mundo online (MD Marketing Digital, 2019). Anteriormente las grandes empresas invertían enormes cantidades de dinero en medios donde no tenían la posibilidad de segmentar una audiencia correctamente, ahora, sin importar el tamaño de la empresa o su capital, es más fácil poder invertir en medios digitales con costos más razonables. En el caso de esta investigación se trabajó con seis distintos giros, los cuales son: comida rápida, hotelería, textil, automotriz, bebida e industria de alimentos. De acuerdo con (dun&bradstreet) el INEGI (año), en conjunto estos sectores aportan el XX % del PIB e incluyen los tres sectores de la economía (primario, secundario y terciario). 



METODOLOGÍA

Un aspecto fundamental de la investigación, fue determinar la herramienta a utilizar para la recolección de los datos, pues de ella depende en gran medida la cantidad y calidad de la información. Al estudiar las diferentes alternativas finalmente se elaboró una encuesta para aplicarse de forma personal a la muestra de interés.  El cuestionario se enfocó a los encargados del lugar en el momento de realizarse la encuesta los cuales contaran con el conocimiento del marketing digital y fue dividido en tres secciones, en la primera se solicitaba información personal de la empresa participante como: nombre de la empresa, número de empleados, edad de la empresa y rango de ventas anuales en el último año, por mencionar algunos de los más relevantes. En el segundo bloque se solicitó información acerca de la práctica del marketing digital, como: utilización de redes sociales, énfasis en los elementos del marketing digital, frecuencia con la que oferta sus productos/servicios, frecuencia con la que promociona los siguientes aspectos de la marca en medios digitales, frecuencia con las que aplica las estrategias de marketing digital. En lo que se refiere al tercero y último bloque se requirió que los entrevistados manifestaran su grado de satisfacción con respecto a impacto esperado de la adecuada gestión de marketing digital en los proyectos de plataforma web. Durante el ejercicio de recolección, se utilizó una escala de Likert del 0 al 5 para determinar los niveles de acuerdo (aplicado en la segunda sección), donde, 0 = sin información, 1 = nunca, 2 = rara vez, 3 = a veces, 4 = seguido y 5 = muy seguido. Similarmente, cuando se requería evaluar los niveles del impacto esperado de la adecuada gestión del marketing digital, se emplearon los valores, 1 = muy en desacuerdo, 2= en desacuerdo, 3= neutral, 4= de acuerdo y 5= mu de acuerdo. La población del estudio consistió en todas empresas que cumplieran con los giros seleccionados en el área del Valle de Toluca y sus alrededores, del año 2019. Al ser este un conjunto con más de 338 elementos (Secretaria de Desarrollo Urbano, SDU, 2008), se tuvo que seleccionar una muestra representativa para desarrollar el estudio. En este sentido, se utilizó como marco de referencia la evaluación POE, que indica que las casas a evaluar deben contar con un periodo de ocupación de entre 3 y 10 años para que los habitantes aporten datos que se basen en su experiencia como usuarios de los inmuebles.


CONCLUSIONES

Tras realizar el análisis de las diferentes redes, se concluyó que el sector que más hace uso del marketing digital es el de la comida rápida. En general, las empresas que dan mayor uso de tal estrategia son aquellas con menos de 10 años de experiencia, haciendo una excepción con el sector anteriormente mencionado. Los 7 sectores industriales estudiados, en su mayoría, indican que dicha estrategia incrementa el número de clientes; aumenta el posicionamiento de la marca y la visibilidad en el mercado; disminuye los costos por publicidad, pero especialmente, el proceso de comunicación con el cliente se ve beneficiado, por otra parte, el incremento en número de ventas y por consecuente, de utilidades, son impactos que permanecen relativamente estáticos respecto a los resultados obtenidos por el uso de métodos tradicionales de marketing. Las redes sociales más usadas como herramienta del MD son aquellas que otorgan una vía de comunicación pública, es decir; Facebook, Twitter, Instagram y Youtube. Por otro lado, el énfasis que se le da a los elementos del MD presenta variaciones según la rama empresarial, siento los procesos un elemento comúnmente omitido por las empresas dedicadas a la comida rápida y a la bebida. Es necesario resaltar que los elementos que más énfasis reciben en el MD, sin importar el sector son el producto/servicio; promociones y plaza (ubicación). Una de las conclusiones, es que se puede observar que la actividad 1 que es comida rápida es la que cuenta con mayor impacto en dando como resultado que esta sea el que es más relevante con mayor impacto en los medios del marketing digital.
Verdejo Uh Jorge Salvador, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro

TRATAMIENTO DE AGUA GRIS SINTÉTICA EN COLUMNAS VERTICALES DE PVC COMPARANDO SUELO DENOMINADO TEZONTLE Y ARCILLA.


TRATAMIENTO DE AGUA GRIS SINTÉTICA EN COLUMNAS VERTICALES DE PVC COMPARANDO SUELO DENOMINADO TEZONTLE Y ARCILLA.

Verdejo Uh Jorge Salvador, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Marcela Susana Duhne Ramírez, Universidad Autónoma de Querétaro



PLANTEAMIENTO DEL PROBLEMA

Se han encontrado problemas con el tipo de agua residual y gris que se encuentra tanto en la ciudad Santiago de Querétaro, Qro y particularmente en la Universidad Autónoma de Querétaro (UAQ). Por lo tanto es necesario encontrar maneras de filtrar y devolver al suelo una mejor calidad de agua con base en las siguientes normativas dadas por la SEMARNAT; la NOM-127-SSA1-1994 y la NOM-179-SSA1-1998. Entre los problemas principales que se han encontrado son la escasez de agua tanto en la ciudad como en la misma UAQ, esto a su vez se vuelve en un conflicto debido a lo costoso y complicado que es extraer agua para la ciudad y el campus universitario, a su vez que con una conciencia acerca de lo valioso de este líquido, es necesario encontrar formas de rehusar y no desperdiciarlo. En este proyecto solo se tratara de encontrar solución para el agua gris sintética.



METODOLOGÍA

¿Cómo se desarrolla el agua gris sintética? Tomamos como referencia la siguiente revista; Gross, A., D. Kaplana y K. Baker. 2007. Removal of chemical and microbiological contaminants from domestic greywater using a recycled vertical flow bioreactor (RVFB). Ecol. Eng. 31: 107-114. Asumimos que el agua gris puede recrearse con base en la información anterior así que el método de preparación es el siguiente: Jabón de Ropa                 0.32 g Shampoo                            4 ml Aceite de cocina              0.05 mL Agua de Biofiltro En 10 L de agua de la llave Para enfrentar el problema del tratamiento de agua gris sintetica en la UAQ, se ha construido columnas con material denominado PVC en forma cilíndrica. Para la construcción de los equipos de filtrado de agua es necesario encontrar, recoger, muestrear y cribar material de suelo rocoso color rojo, también conocido como Tezontle. De igual forma con el material que se conoce como arenilla, estos materiales son utilizados debido a la cantidad que se encuentra en la región y por lo tanto reduce los costos de transporte para su traslado al lugar donde se realizara el proyecto. Se utilizan diversas mallas de cribado de arena para remover materiales solidos del Tezontle así como también de la arenilla, en la construcción de estas columnas se usan diferentes tipos de granulometría para que con la muestra de agua gris sintética filtrada por las columnas se lleve al laboratorio para realizar las pruebas que determinan las NOM-127-SSA1-1994 y la NOM-179-SSA1-1998. También se realiza una prueba de conductividad de agua para conocer los efectos en el suelo utilizado.


CONCLUSIONES

Con base en los resultados obtenidos en las pruebas realizadas en el laboratorio se obtuvieron las siguientes conclusiones; Para empezar con estos se debe mencionar que son dos columnas de cada material de suelo. Dos columnas para Tezontle y dos columnas para arenilla, cada una de estas columnas tiene sembrado en ella plantas carrizo típicas de la región. Por los resultados obtenidos del Laboratorio se puede obtener que los dos tipos de suelo se encuentran en los límites permisibles de las normas NOM-127-SSA1-1994 y la NOM-179-SSA1-1998. Sin embargo el suelo tipo arenilla muestra por decimas menores niveles de pH. En las pruebas de solidos totales, aún se encuentran niveles un poco arriba de las normas, se recomienda cambiar la granulometría del suelo o probar con otro tipo de planta.
Verdugo Barraza Oscar Eduardo, Universidad Autónoma de Occidente
Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente

SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4


SISTEMA DE APOYO AL APRENDIZAJE PARA EL CáLCULO DE SUBREDES UTILIZANDO DIRECCIONAMIENTO IPV4

García Ramírez Alicia, Universidad Autónoma de Occidente. Pérez Coronel Javier David, Universidad Autónoma de Occidente. Verdugo Barraza Oscar Eduardo, Universidad Autónoma de Occidente. Asesor: M.C. Angélica Ramírez Salazar, Universidad Autónoma de Occidente



PLANTEAMIENTO DEL PROBLEMA

Calcular subredes es un tema con cierto nivel de complejidad debido a su base matemática en sistema binario, por lo tanto, un sistema para apoyar el aprendizaje de este tema puede resultar de mucha utilidad. Un sistema de software es básicamente una herramienta tecnológica creada con el mismo propósito que cualquier herramienta, sirve como apoyo para facilitar la realización de una tarea, en nuestro caso la herramienta que desarrollamos es una calculadora de subredes.



METODOLOGÍA

Una metodología de desarrollo de sistemas se refiere a un entorno de trabajo usado para estructurar, planear y controlar el proceso de desarrollo de un sistema. Una gran cantidad de entornos de trabajo han evolucionado a través de los años, cada uno con sus fortalezas y debilidades. Una metodología de desarrollo de sistemas no es adecuada para todos los proyectos. (CMS, 2008). Se decidió desarrollar este proyecto de software utilizando una metodología ágil ya que esta se apega más a las necesidades del mismo; el desarrollo ágil establece sus prioridades de acuerdo a las siguientes afirmaciones: "Individuos e interacciones sobre procesos y herramientas. Software funcionando, sobre documentación extensiva. Colaboración con el cliente sobre negociación contractual. Respuesta ante el cambio sobre seguir un plan."(Beck, et al., 2001). Entre las metodologías agiles más utilizadas se encuentran Scrum, Extreme programming(XP) y Kanban, se decidió trabajar con XP, ya que, en general comparado con otras metodologías tradicionales es más rápida, ya que conlleva menos protocolo, lo que evita que existan jerarquías dentro del grupo, lo cual permite que cada integrante dentro del grupo pueda hacer aportaciones en cualquier momento, esta metodología está enfocada en resultados a corto plazo. Valores de XP Comunicación: "Prevalece en todas las prácticas de Extreme Programming. Comunicación cara a cara es la mejor forma de comunicación, entre los desarrolladores y el cliente. Método muy ágil. Gracias a esto el equipo esta pude realizar cambios que al cliente no le gustaron."(Borja, s.f, VALORES DE XP, par. 1) Simplicidad: "La simplicidad ayuda a que los desarrolladores de software encuentren soluciones más simples problemas, según el cliente lo estipula. Los desarrolladores también crean características en el diseño que pudieran ayudar a resolver problemas en un futuro."(Borja, s.f, VALORES DE XP, par. 2) Retroalimentación: "La retroalimentación continua del cliente permite a los desarrolladores llevar y dirigir el proyecto en una dirección correcta hacia donde el cliente quiera."(Borja, s.f, VALORES DE XP, par. 3) Valentía: "Requiere que los desarrolladores vayan a la par con el cambio, porque sabemos que este cambio es inevitable, pero el estar preparado con una metodología ayuda a ese cambio. Programa para hoy y no para mañana."(Borja, s.f, VALORES DE XP, par. 4) Respeto: "El equipo debe trabajar como uno, sin hacer decisiones repentinas. Extreme Programming promueve el trabajo del equipo. Cada integrante del proyecto (cliente, desarrolladores, etc.) forman parte integral del equipo encargado de desarrollar software de calidad. El equipo debe trabajar como uno, sin hacer decisiones repentinas."(Borja, s.f, VALORES DE XP, par. 5) Proceso XP El ciclo de vida ideal de XP consiste de seis fases: Beck(1999)"Exploración, Planificación de la Entrega (Release), Iteraciones, Producción, Mantenimiento y Muerte del Proyecto."(citado en Letelier, 2006, PROCESO XP, par. 3) Exploración: En esta fase, los clientes plantean a grandes rasgos las historias de usuario que son de interés para la primera entrega del producto. Al mismo tiempo el equipo de desarrollo se familiariza con las herramientas, tecnologías y prácticas que se utilizarán en el proyecto. Planificación de la Entrega: En esta fase el cliente establece la prioridad de cada historia de usuario, y correspondientemente, los programadores realizan una estimación del esfuerzo necesario de cada una de ellas. La planificación se puede realizar basándose en el tiempo o el alcance. La velocidad del proyecto es utilizada para establecer cuántas historias se pueden implementar antes de una fecha determinada o cuánto tiempo tomará implementar un conjunto de historias. Iteraciones: Está fase incluye varias iteraciones sobre el sistema antes de ser entregado. En la primera iteración se puede intentar establecer una arquitectura del sistema que pueda ser utilizada durante el resto del proyecto. Producción: La fase de producción requiere de pruebas adicionales y revisiones de rendimiento antes de que el sistema sea trasladado al entorno del cliente. Al mismo tiempo, se deben tomar decisiones sobre la inclusión de nuevas características a la versión actual, debido a cambios durante esta fase. Mantenimiento: Mientras la primera versión se encuentra en producción, el proyecto XP debe mantener el sistema en funcionamiento al mismo tiempo que desarrolla nuevas iteraciones. Para realizar esto se requiere de tareas de soporte para el cliente. Muerte del Proyecto: Es cuando el cliente no tiene más historias para ser incluidas en el sistema. Esto requiere que se satisfagan las necesidades del cliente en otros aspectos como rendimiento y confiabilidad del sistema..


CONCLUSIONES

Los resultados demuestran que una calculadora de subredes es de utilidad para el aprendizaje y la comprensión de los estudiantes interesados en el tema. En este primer prototipo funcional se alcanzaron lograr los objetivos previstos y como una mejora para posteriores versiones se prevé agregar VLSM(Mascaras de longitud variable) como otro método para calcular subredes. También se desarrolló una aplicación para dispositivos móviles que actualmente se encuentra en la fase de pruebas y mantenimiento.
Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula
Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato

ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO


ANáLISIS DE PROCEDIMIENTOS CONSTRUCTIVOS DE INMUEBLES TRADICIONALES (PATRIMONIALES) Y CONTEMPORáNEO

Cantoran Cantoran José Manuel, Universidad Autónoma de Guerrero. Gómez Briceño Marco Favio, Universidad de Guadalajara. Pineda Martinez Oscar Alberto, Universidad Autónoma de Guerrero. Ramirez Herrera Onel, Instituto Tecnológico de Tepic. Verdugo Perez Jose Guillermo, Instituto Tecnológico de Tapachula. Asesor: Dr. Gloria Cardona Benavides, Universidad de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

A pesar de toda la riqueza  arquitectónica de Guanajuato,  no existen investigaciones publicadas que expongan de forma detallada los sistemas constructivos empleados en sus edificaciones, por lo tanto, se desconocen ciertos elementos de su estructura y funcionamiento  que son necesarios para conservar su identidad cultural. Por lo cual, la presente investigación apoyará a identificar los elementos que forman parte de estos sistemas constructivos tradicionales y contemporáneos, entendiendo su transformación relacionada a los mismos, en cuanto a materiales, tamaño y ubicación de predios, características de las viviendas, valor histórico, así como la normatividad en contextos patrimoniales; por ello, es necesario hacer una serie de comparaciones en los procesos de construcción de las edificaciones y su diferente aplicación de los materiales que estos conllevan. Al mismo tiempo, se logrará adquirir conocimiento de la arquitectura local y nacional compartiéndolo con la sociedad propiciando a generar una cultura de apreciación, mantenimiento y cuidado de la misma. 



METODOLOGÍA

Se realizó una extensiva investigación documental por medio en tesis, enciclopedias, libros y revistas, así como páginas web, relacionadas con los antecedentes históricos de la ciudad de Guanajuato para entrar en contexto con la situación urbanística y arquitectónica de la zona, aspectos legales y de reglamentación constructiva así como todo lo relacionado arquitectónicamente con la vivienda tradicional y contemporánea, tomando en cuenta el entorno y contexto en el que se encuentran. Una vez en contexto, se comenzó a estructurar el marco teórico con el que se fundamenta la investigación Este se estructura de un referente histórico en el que se profundiza en el origen de la ciudad de Guanajuato, actividades y estilos de vida que se llevaban a cabo, situaciones y condiciones que sufrió la sociedad y el cómo se fue constituyendo urbanística y arquitectónicamente para conformar lo que hoy en día corresponde al centro histórico. Además un referente legal en el que se hace mención de las primeras leyes que se proclamaron con el fin de proteger este tipo de edificaciones así como las que actualmente se toman en cuenta promoviendo su cuidado y conservación. Otro de los referentes que conforman este marco teórico es el conceptual, aquí se definen los conceptos que rigen esta investigación como que es el patrimonio cultural, un centro histórico, como se define una vivienda tradicional y una contemporánea, estilos arquitectónicos así como elementos de construcción utilizados en cada uno de los procesos constructivos. Por ultimo un referente contextual en el que se describe las condiciones topográficas, climatológicas, arquitectónicas y sociales en las que se encuentran estas viviendas Una vez establecido el marco teórico se realizaron cuatro visitas de campo, estas a los inmuebles a analizar, las tres primeras visitas se realizaron al Hostal BARATHI (vivienda tradicional). La primera se hizo para solicitar permiso a los dueños y realizar un recorrido para conocer las inmediaciones e irnos familiarizando. En la segunda se hizo un levantamiento fotográfico, captando cada uno de los espacios que conformaban el Hostal, circulaciones y accesos, así como elementos arquitectónicos (escaleras, puertas y ventanas), aplicación de materiales y acabados. Y la tercera visita fue para realizar un levantamiento constructivo, con ayuda de un distanciómetro, cintas métricas y fluxómetro con el fin de elaborar planearía digital y un modelo virtual. La cuarta visita se hizo pero al fraccionamiento Real de la Mancha Residencial, para hacer un levantamiento fotográfico, de igual manera de todo las estructura arquitectónicamente hablando, fachadas, acabados. Los datos acerca de la cimentación, proceso constructivo y aplicación de materiales, etc... fueron proporcionados por parte de la empresa Una vez con todos los datos recabados se comenzó con el análisis de cada una de las viviendas y posteriormente con su comparación la cual se elaboró a manera de tabla para una mayor comprensión de las diferencias presentes entre ellas


CONCLUSIONES

De acuerdo a la investigación documental y de campo que se llevó a cabo, el análisis comparativo realizado en cada una de las viviendas, tanto tradicional como contemporánea; concluimos que la vivienda tanto a nivel espacial como constructivo, ha evolucionado en todos los aspectos a lo largo de la historia, esto como producto fundamental de los nuevos estilos de vida, cambios en la forma de relacionarse con el entorno  y sobre todo la adaptación por parte de la sociedad a los nuevos materiales, procesos constructivos y tecnológicos. Sin embargo, esta evolución se da de manera diferente en distintos lugares del mundo, debido principalmente a la topografía, tipos de suelos y condiciones del clima, además de los estilos de vida, valores sociales y religiosos, al igual que costos y tiempos de construcción, entre otros aspectos; los cuales han determinado tanto la forma y distribución de los espacios , acabados y el dimensionamiento de las viviendas, así como el uso de propuestas para la  conservación ambiental como de materiales industrializados, apegándose a los reglamentos, normas de construcción y la configuración general de las edificaciones. Esto se puede ver reflejado en todos y cada uno de los puntos anteriormente mencionados en los tipos de viviendas analizadas, desde cimentación hasta el último detalle en los acabados, debido a la utilización de materiales propios de la región y materiales ya industrializados por lo que sus procesos constructivos son diferentes.
Vicente Guerra Marcelino, Benemérita Universidad Autónoma de Puebla
Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla

CONTROL POR BLUETOOTH DE UN ROBOT CARTESIANO.


CONTROL POR BLUETOOTH DE UN ROBOT CARTESIANO.

Amador Perez Gabriela, Benemérita Universidad Autónoma de Puebla. Vicente Guerra Marcelino, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

En la actualidad el control es una estrategia clave para la mejora de la competitividad y optimización para ayudar a alcanzar objetivos de precisión, seguridad y dinamismo, el control no es solo una pieza clave para la automatización industrial o algún otro proceso que implique involucrarlo a la semántica de las líneas de producción. El control representa una metodología de diseño e implementación que requiere un proceso proactivo para mejorar y optimizar de manera constante. Y tiene distintas aplicaciones en el hogar, en instituciones y que puede tener aplicaciones didácticas, de aquí es de donde se parte la utilización del control para crear un robot didáctico que ayude a enseñar y que pueda interactuar con cualquier persona sin distinción de edad. Desde el punto de vista tecnológico, el control seguirá siendo una necesidad para poder mantener la innovación y la productividad, por ello es necesario mantener el mando del control lo más accesible, por lo que se propone un control por Bluetooth.



METODOLOGÍA

Se utilizó el Software libre proporcionado por Android® denominado Android Studio, para realizar las pruebas de conexión y de diseño de interfaz, el software utiliza lenguaje de programación Java, asi que previamente se realizó una investigación sobre la principal sintaxis y modelo del lenguaje para poder manejar adecuadamente el software y las diferentes herramientas que ofrece. Dentro del Software de Android Studio se utilizaron etiquetas XML, que no es un lenguaje de programación, pero es indispensable ya que en esta se declaran permisos, datos de inicio y paquetería para la futura  generación del APK; que es el instalador que se obtiene y que puede ser colocado en la tienda oficial de Android: Google Play; a través de dichas etiquetas se declara la versión para la cual estará disponible y que tipo de compilación requerirá el programa asi como se hace referencia a que el software pedirá permiso para hacer uso del Bluetooth del dispositivo en la que sea instalada la aplicación. Como primera parte del desarrollo se implementó un codigo que identificara una palabra de un máximo de 26 caracteres para el cual distinguiera letra por letra y le asignara un par de números coordenados para la identificación de la distribución en un plano previamente acordado.  De esta manera la aplicación recibe una cadena de caracteres, y le asigna una posición a cada letra, esto servirá para posteriormente mandar señales al robot de movimiento. Posteriormente fue realizado el código inicial del protocolo de comunicación que solicita Android Studio, esto es un código más complejo que la pagina de Android Developers proporciona, esto solo es solicitar permiso para activar/desactivar el Bluetooth del puerto que servirá como Servidor, asi como establecer la visibilidad del mismo dispositivo servidor, y proporciona el inicio de la detección de puertos disponibles. Estos códigos fueron implementados en diversas pruebas y con algunas modificaciones para poder comprender el funcionamiento. La siguiente parte de la investigación se ha centrado en establecer la comunicación vía Bluetooth, de manera que se pueda enviar datos al Robot.


CONCLUSIONES

Hasta el momento se adquirido un gran conocimiento en el manejo de la programación orientada objetos, a través del lenguaje Java, siendo este lenguaje muy versátil y accesible en el manejo de datos y clases, asi como de simplificación de código. Al ser este un trabajo que  ha requerido tiempo en la investigación de la comunicación para poder realizar el envío de datos a través de este software aún no se han realizado las pruebas con el Robot, solo proyecciones de interfaz con la aplicación que establece coordenadas, sin embargo como resultado de la búsqueda se ha encontrado que  existe una alternativa que implicaría facilidad en la comunicación Bluetooth y simplificación en él envió de datos, pero como contrapeso resultaría en una programación de coordenadas poco óptima esto seria realizar el desarrollo de la aplicación a través de  un software libre en linea conocido como App Inventor(Mit App Inventor2).
Vidal Mendoza Javier Alonso, Universidad Veracruzana
Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara

PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.


PROCESOS DE URBANIZACIóN Y RECIENTES TRANSFORMACIONES URBANAS: EL CASO DE LA COLONIA 5 DE DICIEMBRE EN PUERTO VALLARTA, JALISCO, MéXICO.

Ibarra Salcedo Alejandro, Universidad de Guadalajara. Romero Méndez Jesús Eduardo, Universidad Veracruzana. Vidal Mendoza Javier Alonso, Universidad Veracruzana. Asesor: Dr. Jorge Ignacio Chavoya Gama, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La zona turística del litoral del pacífico; la ciudad de Puerto Vallarta en el estado de Jalisco, se enfrenta al problema de crecimiento urbano desordenado,  zonas periurbanas que se han ido poblando y anexando al centro de Puerto Vallarta, además de ambiciosos proyectos inmobiliarios que han tenido cabida en dicha situación. De manera que se busca que los nuevos proyectos de transformación urbanas, puedan integrarse al centro y a las zonas turísticas de la ciudad. Además, las áreas periurbanas y colonias que quedan en un intersticio urbano,(tomando la colonia 5 de Diciembre como caso de estudio), se encuentran entre espacios de desarrollo, buscando su transformación, e integración a la zona metropolitana. El reto más importante para la región en el mediano plazo es cómo manejar el crecimiento de las ciudades sin poner en riesgo el medio ambiente, la economía, la gobernabilidad y la calidad de vida de quienes la habitan.  Ahora bien, en una zona de alto turismo internacional resulta más complicada la tarea de realizar una planeación urbana estratégica.



METODOLOGÍA

Cómo proceso metodológico, en primera instancia se partió de la base teórica previamente realizada, dónde los objetivos y palabras clave han sido muy bien acotados. Para fines de la investigación, se llevó a cabo la recolección de información mixta, a través de la obtención de datos de manera cualitativa y principalmente cuantitativa, ya que muchas variables exigían la delimitación de datos concretos. Cabe mencionar que al momento de moldear el instrumento para la prueba piloto, nos dimos cuenta de las exigencias de algunas preguntas del instrumento (encuesta), resultando que había información eminentemente cualitativa. La interpretación de estos incisos debía ser por medio de un análisis de toda la situación que representa la mayoría de opiniones, vivencias o resultados de las encuestas, pero sin descartar cuando existan individuos que expresen minorías en su forma de pensar. Por lo que al tener ya el instrumento de aplicación para la obtención de información, se procedió la primera parte que era el levantamiento de un Check list, donde se hacían anotaciones de la situación en la que se encontraba la colonia que representa el caso de estudio. Como parte de la metodología para recabar datos, se procedió a realizar trabajo de campo a través de la implementación de encuestas en la zona de estudio: Una referente a la percepción que tienen los habitantes de dicha zona de su potencial económico; del estado en el cual se encuentra y de las necesidades que presenta. La segunda encuesta en relación a los procesos de movilidad que existen dentro de la zona. Se tomó un orden en la aplicación; la primera de ellas en las vialidades con sentido paralelo al mar, hasta haber terminado con la mitad. La segunda parte de ellas, aplicada en las calles con sentido perpendicular a las primeras. Para la aplicación de la segunda encuesta, se seleccionaron puntos estratégicos, en el caso en el cual representaban aquellos con más flujo peatonal y vehicular, con el fin de recabar datos que representen información concreta principalmente sobre el uso de los medios de transporte y los puntos de traslado a través de la ciudad de Puerto Vallarta, con referente a la zona de estudio. De tal forma que para dicho estudio se recabaron datos, tales como los lugares de residencia de los encuestados; los tiempos de traslados que realizan cada uno de ellos y cuántos viajes al día realizan; así como el medio de transporte que utilizan y algunas consideraciones sobre éste último.


CONCLUSIONES

La primera etapa de investigación, a través del método de observación, nos permitió percibir las condiciones y algunos de los fenómenos que presenta la zona de estudio, dada la recolección de información sobre sus condiciones actuales.  Es así, que dicha zona se define puesto que presenta un alto movimiento tanto vehicular como peatonal, por lo cual se caracteriza como una zona con vitalidad. Si bien, en primera instancia se obtuvo información referente a las condiciones actuales, al realizar la segunda parte de ésta primera etapa, se logró complementar la información y así identificar los rasgos positivos y negativos, dado que al recorrer y analizar la zona es posible identificar los factores y sectores que representan potenciales o carencias, y al analizar los datos obtenidos de las encuestas realizadas a los residentes y habitantes de dicha zona, fue posible corroborar algunos aspectos que se identificaron a primera instancia a través de la observación.  En efecto, la colonia 5 de diciembre representa un punto importante dentro de la ciudad de Puerto Vallarta, dado que es un eje conector de la misma, sin embargo ha presentado cambios en su infraestructura, en su mayoría centrándose en las principales avenidas de ésta; Av. México, Perú y Colombia, las cuales fueron remodeladas en su totalidad (Banquetas nuevas, cableado subterráneo, sin baches y un alcantarillado correcto a simple vista genera un aspecto de colonia limpia). Éstas con el paso del tiempo han sido mejoradas debido a que la afluencia de automóviles ha ido en incremento año con año y el turismo de igual manera, sin embargo, el aumento en la cantidad de turistas y automóviles que pasan por la colonia genera un desabasto en los cajones de estacionamiento público y genera más tráfico.  Cabe resaltar que con relación a las actividades comerciales y turísticas en dicha colonia, la llegada de nuevos restaurantes, tiendas departamentales, hoteles y edificios de oficinas son aquellos que han generado un cambio significativo en la colonia ya que estas empresas privadas aumentan el desarrollo turístico. De tal forma que como resultado de dichas transformaciones urbanas, el microcomercio local resulta ser el más afectado, puesto que la principal demanda se concentra dada la cercanía al mar. Es así que el microcomercio solo se desarrolla en relación a los consumidores  locales, más no a los turistas, debido a que las estrategias de planeación urbana no se establecen equitativamente a lo largo de la colonia.
Vilchis Emily, Universidad Autónoma del Estado de México
Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León

ESTUDIO DE LOS PARÁMETROS ELECTROQUÍMICOS EN ESTUDIO DE ACEROS AL CARBONO/INOXIDABLES


ESTUDIO DE LOS PARÁMETROS ELECTROQUÍMICOS EN ESTUDIO DE ACEROS AL CARBONO/INOXIDABLES

Vilchis Emily, Universidad Autónoma del Estado de México. Asesor: Dr. Dr. Facundo Almeraya Calderon, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

Se hace un estudio para analizar los efectos de la corrosión en aceros inoxidables (AISI 1018) y aceros al carbono (SAE 304) con distintas variables electroquímicas, el rango de polarización, en caso de la técnica de polarización potenciodinámica, así como la adquisición de datos en la técnica de ruido electroquímico y el empleo de distintos electrodos auxiliares, en presencia de diferentes medios (electrolitos).



METODOLOGÍA

Los materiales en estudio son los aceros inoxidables AISI 1018 y al carbono SAE 304, los materiales fueron cortados con arco de sierra en partes de aproximadamente 1cm cada una. Posteriormente se obtuvieron 12 muestras a las cuales se les realizaron pequeños surcos para así montar un cable de cobre (aproximadamente 10 cm de largo), las muestras se llevaron a montaje en frio, para esto se utilizaron, por cada 100 ml de resina 40 gotas de catalizador. Las muestras fueron llevadas de la lija 80 a la 600 pasando por las lijas 180, 240, 320 previamente. Los electrolitos usados en los experimentos fueron dos, cloruro de sodio (NaCl) al 3.5%, (agua destilada con 35 gr de NaCl) y agua de la llave (H2O), en condiciones normales, a temperatura ambiente. Al finalizar con el proceso de desbaste, se emplearon las técnicas electroquímicas: ruido electroquímico, realizando lecturas de 1024 datos a 0.5, 0.7 y 1 segundo en los distintos medios, y con distintos electrodos de trabajo 2, variándolos entre electrodo idéntico, electrodo de grafito y electrodo de platino, utilizando un  potenciostato Gill  AC de ACM Instruments.


CONCLUSIONES

Se realizaron 36 pruebas de ruido electroquímico y 24 de curvas de polarización potencio dinámicas, centrándonos en ruido, se obtuvieron graficas de potencial contra corriente en distintos medios y en distintos tiempos, existieron variaciones como era de esperarse debido a la variación en los electrodos utilizados, en las muestras realizadas por electrodos idénticos, se obtuvieron índices de localización entre 0.1 y 1 los cuales nos reflejan un tipo de corrosión localizada en ambos materiales. Para el caso del electrodo de grafito, se tuvieron variaciones entre índices de localización, resultando en una corrosión mixta y localizada para ambos materiales, sin embargo, en el acero al carbono (SAE 304) se observa una mayor tendencia a corrosión localizada, y en el caso del acero inoxidable (AISI 1018) en una corrosión mixta. Esto también se repite en las pruebas obtenidas por el electrodo de platino, donde también prevalecen resultados similares, finalmente al realizar el análisis visual, se puede concluir que el acero SAE 304, tiende a corroerse de manera localizada, resultando esto en picaduras, mientras que el acero AISI 1018 es más susceptible a corrosión mixta.
Vilchis Marin Eduardo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV

DISEñO E IMPLEMENTACIóN DE UN ALGORITMO PARA OBTENER LA RUTA OPTIMA DE VISITAS A CLIENTES, INTERFAZ GRáFICA Y ESTADíSTICA.


DISEñO E IMPLEMENTACIóN DE UN ALGORITMO PARA OBTENER LA RUTA OPTIMA DE VISITAS A CLIENTES, INTERFAZ GRáFICA Y ESTADíSTICA.

Vilchis Marin Eduardo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV



PLANTEAMIENTO DEL PROBLEMA

Las empresas que ofrecen servicios o reparten productos se caracterizan por visitas frecuentes a sus clientes. Una problemática común es la optimización de las rutas, seguimiento constante, optimización de recursos como gasolina, ahorros en tiempo por trafico lo cual impacta no solo a los indicadores y recursos de la empresa, si no a la huella de carbono, temática que es critica para el desarrollo sustentable del país. Con la implementacion de un algoritmo el cual no permita optmizar tiempo y generar la mejor ruta posible, asi tambien, aprovechar lo mayor posible visitando a los demas clientes que se encuentren alrededor. Otro punto es reforazar la organizacion de clientes para facilitar el trabajo y el ahorro de tiempo.  



METODOLOGÍA

La aplicación consta de varias interfaces los cuales son los siguientes: Menú Principal. Registro de Empresa. Actualizar Empresa. Activar como Cliente. Activar como Contacto. Agendar Visita. Recomendar Reunión. Consulta de Información.   Menú Principal. La primera interfaz consta de un Menú de inicio para tener una mayor facilidad al momento de seleccionar las opciones con los que cuenta la aplicación, como el registro, actualización, activar empresa,  etc. Registro de empresa. En esta interfaz se ingresan los datos las cuales son: nombre de empresa, dirección, longitud, latitud y los servicios que la empresa ofrece al cliente. Una vez ingresados los campos requeridos se guardan en la base de datos mediante un ID que se le da a cada empresa, esto para poder identificarlas y facilitar al momento de hacer una consulta. Actualizar empresa. La interfaz nos sirve cuando se desea hacer algún cambio de una empresa ya guardada en la base de datos, para traer datos se ingresa el número de ID, después de eso se muestran los datos en cada campo, el nombre, dirección, latitud, longitud, servicios. El cual podemos medicar, guardamos cambios y se actualiza en la base de datos. Activar como Cliente. Esta opción nos permite registrar una empresa si ya es cliente o aun no lo es. Esto  mediante una consulta el cual nos muestra los datos de la empresa. Activar como contacto. En esta interfaz no permite ver si ya se tiene el contacto de la empresa o aun no, realiza el mismo principio de la interfaz de Activar como Cliente. Agendar Visita. La interfaz  nos ayuda a tener una mejor organización con las reuniones que se tiene con los clientes, Nosotros podemos agendar juntas ingresando fecha y hora, después de realizar esos pasos automáticamente se agenda la reunión con nuestra cuenta de google Calendar el cual nos muestra fecha, hora, nombre de la empresa y lugar en donde se va a realizar la junta. Recomendar Reunión. En esta interfaz se implementó un algoritmo basándonos en Travelling Salesman Problem el cual nos ayuda a generar una mejor ruta al momento de asistir a las reuniones y así realizar el menor tiempo posible y poder visitar a las demás empresas que se encuentra alrededor en la reunión que asistiremos. La interfaz consta de cinco tablas. La primera nos muestra las reuniones que ya tenemos programadas el cual nosotros  podremos seleccionar a una empresa. Una vez que la hayas seleccionado, nos muestra en la segunda tabla una lista de todas las empresas que se encuentran en nuestra base de datos, se genera condiciones por ejemplo, que no tengan reuniones programas, además que sean cercanos a la empresa que seleccionamos a un radio menor de 90KM, después de eso en la tabla dos se  muestra la probabilidad de cada empresa para ver cuáles de ellos tienen mayor porcentaje de que nos acepten para un reunión. Se genera mediante algunos criterios los cuales son: si son clientes, si tenemos contacto, y cuantas veces se han visitado anteriormente, con estos datos podemos obtener un porcentaje. De ahí podemos separar los de mayor probabilidad y mostrarlas en la tabla tres y los de menor probabilidad en la tabla 4. Además de eso el algoritmo recomienda a qué hora sería posible visitar a las demás empresa si afectar la reunión fija. Consulta de Información. Esta última interfaz nos ayuda  a traer los datos al momento de que  necesitemos información de un cliente. Esto resulta más fácil ya que solamente ingresando el número de ID se obtiene toda la información de la empresa. Además nos muestra en un mapa la localización de cada empresa que se encuentra en la base datos, se clasifica de la siguiente manera: si son clientes de color verde, si no son clientes rojo, si se tiene contacto per no son cliente amarillo, también cuenta con un semáforo de vistas, por ejemplo si se ha visitado frecuentemente se muestra en color verde, amarillo a los que se han visitado pocas veces y en rojo a los que tienen tiempo que no se han visitado.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos y habilidaes de programacion y tener una mejor lógica para poder aplicarlas en problemas que no enfrentemos dia a dia, con el fin de facilitar el trabajo y cubrir necesidades dentro de una empresa, en el transcurso de este verano no solo adquiri conocimiento si no tambienconvivir con personas nuevas de diferentes estados, ademas de darme una idea de como es en verdad el  trabaja dentro de una empresa,y asi poder prepararme para cuando llegue el  momento de estrar al mundo labora. 
Vilchis Martínez Daniela Michelle, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Hector Benitez Perez, Universidad Nacional Autónoma de México

INSTALACIóN BáSICA DE UN CLúSTER USANDO LINUX


INSTALACIóN BáSICA DE UN CLúSTER USANDO LINUX

Vilchis Martínez Daniela Michelle, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Hector Benitez Perez, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

Un clúster es un sistema de procesamiento paralelo y distribuido que está formado de computadoras, interconectadas entre sí, trabajando juntas como un solo recurso de cómputo intensivo. Los clúster en Linux para HPC (High Performance Computing) son muy populares, ya que su costo es bajo comparado con una  supercomputadora tradicional y se consideran como  una herramienta fundamental para el  desarrollo de la investigación. Se pueden utilizar prácticamente cualquier tipo de procesadores. Los procesadores de una PC accesible dan un rendimiento similar a los procesadores de una supercomputadora. Hoy en día, el procesamiento paralelo está siendo visto como el único método rentable para la solución rápida de problemas computacionalmente grandes y que requieren mucha información. La aparición de computadoras paralelas de bajo costo, como los multiprocesadores de escritorio y los clúster de servidores o de computadoras personales, ha hecho que tales métodos paralelos sean generalmente aplicables. Por lo anterior se plantea la instalación y configuración básica de un sistema de cómputo de alto rendimiento.



METODOLOGÍA

La instalación del sistema operativo Ubuntu server en el nodo maestro se realizó satisfactoriamente, ya que solo es necesario elegir las opciones adecuadas para la instalación  como lo es idioma, región etc., el particionamiento del disco se realizó de forma manual por tal motivo se realizaron 3 particiones para el área de intercambio, /home y la raíz, también fue necesario configurar la red del equipo para que tuviese acceso a internet, de esta manera se descargarían las actualizaciones, en el nodo maestro, se instaló gnome el cual es la parte gráfica del sistema. Mientras tanto en los nodos de cálculo (equipos llamados n1 y n2) se realizó el mismo proceso que en el modo maestro realizando algunos cambios en el particionamiento de discos los cuales fueron área de intercambio, raíz y /almac porque se compartiría el directorio /home del modo maestro en ambos nodos, la IP cambia en cada equipo, estas fueron asignadas según la tabla de configuración de red. En n1 y n2 no se instaló la parte gráfica. Se realizó la instalación de openssh-server para acceder a los equipos mediante SSH, posteriormente se instaló NFS, el cual la forma de instalación es diferente en el nodo maestro sin embargo es solo una sentencia al terminar el proceso fue necesario montar el directorio /home en n1 y n2. Instalación y configuración de ganglia fue un proceso complicado, ya que cambia la configuración respecto a la versión que se utiliza, sin embargo al estar todo funcionando de manera correcta, al acceder desde el navegador a ganglia se muestran las gráficas del rendimiento y espacio utilizado en cada uno de los nodos empezando por CPU, estado de la red, memoria, disco duro etc. Es necesario revisar los equipos para evitar fallos. En un clúster es necesario generar llaves SSH para acceder a los equipos sin teclear contraseñas por que al tener demasiados nodos resultaría un proceso complicado teclear la clave en cada uno, por tal motivo se recomienda la utilización de llaves, estas son fáciles de crear e implementar debido a que solo se necesita cambiar el nombre de la llave a authorized_keys. Este proceso se realizó para usuarios root y 2 usuarios locales de los 3 equipos. La instalación de MATLAB teniendo 2 partes del archivo de instalación mediante la terminal de Ubuntu. Probar el funcionamiento del Clúster mediante el software MATLAB hubo complicaciones respecto a la configuración debido a la versión que se utilizaba sin embargo al aplicar las configuraciones necesarias se realizó la prueba con los 12 procesadores es decir con todos los recursos que se contaban y al momento de ejecutar el programa este fue en menor tiempo, además se realizaron 2 pruebas más, con 4 y 8 los cuales al observar en la pantalla de admin center se visualizaban los ocupados y libres, al estar trabajando con 8 se ocupaban todos los recursos del nodo maestro y los de un nodo (n2), por tal motivo el tiempo de ejecución aumento, al usar solamente 4, éste realizaba el proceso solamente con el nodo maestro y el tiempo de ejecución fue aún más grande.


CONCLUSIONES

El clúster básicamente hace un grupo de equipos para reunir sus procesadores y a partir de éste aumentar el espacio mejorando el rendimiento al momento de ejecutar alguna aplicación lo que hace que sea aún más rápido, evitando los mínimos fallos posibles, de esta manera se ocupan todos los recursos y no se trabaja sólo con los mínimos, si no que se aprovecha todo el poder de los equipos ejecutando más tareas en el menor tiempo posible, es una excelente forma de administración y uso del equipo que se tiene. Como los clústers son requeridos y necesarios, en la actualidad estos equipos se mantienen encendidos las 24 horas del día sin apagarse en ningun instante, para lo cual es necesario mantenerlos en un lugar con buena ventilación y enfriamiento.  
Villa Gutiérrez Daniel, Instituto Tecnológico de Colima
Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara

MANUAL DE PRáCTICAS DE DRONES: DESDE EL SIMULADOR A LA VIDA REAL.


MANUAL DE PRáCTICAS DE DRONES: DESDE EL SIMULADOR A LA VIDA REAL.

Villa Gutiérrez Daniel, Instituto Tecnológico de Colima. Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara



PLANTEAMIENTO DEL PROBLEMA

La siguiente fase de la revolución industrial es una realidad y muchas empresas están integrando los conceptos de la industria 4.0 en sus procesos, por lo tanto, esto demanda mano de obra de personal capacitado en diferentes áreas como el internet de las cosas (IoT), la automatización de procesos, generación de datos en tiempo real entre otras. En el marco de Industria 4.0 surge la innovadora idea de incluir a los drones como parte del ecosistema de automatización, por ejemplo, al dotar a un dron de una cámara térmica este puede rastrear altos niveles de calor provenientes de un componente o área de una fábrica y activar de forma autónoma el sistema de rociadores o notificar a los servicios de emergencia. Además, pueden ser utilizados para reducir los costos en desplazamiento de material humano, optimizar las labores de inspección en lugares de difícil acceso, entre otras aplicaciones. Entender el funcionamiento de un dron se volverá una habilidad esencial en la industria 4.0 ya que como el uso de estos dispositivos estos requerirán operarios calificados que los configuren, programen, manipulen y les den mantenimiento; lo cual se puede lograr si se conoce a fondo los conceptos que permiten al dron volar y desplazarse por el aire, así como los softwares que utilizan. La demanda de personas con conocimientos en tecnología crecerá exponencialmente, sin embargo, los planes educativos no están adaptados para esta nueva fase. Esto propiciará el hecho de que al egresar de una carrera universitaria los nuevos ingenieros y licenciados tendrán que realizar un esfuerzo doble ante un mundo que ya los ha dejado atrás. Dentro de las aulas no existen programas de vuelo de drones educativos para introducir a los alumnos a esta área.



METODOLOGÍA

Se ha realizado una investigación aplicada para generar una propuesta solución a la problemática planteada. Para ello se llevó a cabo la lectura del artículo científico Metodología educativa basada en el aprendizaje activo para estudiantes de ingeniería mecatrónica: hacia la mecatrónica educativa1. Todo con el fin de entender el impacto que tendrá la industria 4.0 en las nuevas generaciones y que por lo tanto es necesario una nueva metodología educativa enfocada en la capacitación de los alumnos para obtener habilidades que los ayudarán a integrarse de una mejor manera al nuevo cambio tecnológico. El objetivo de la Mecatrónica Educativa es el de potencializar los conocimientos, habilidades y actitudes en robótica, mecatrónica, inteligencia artificial y sistemas ciber físicos de los nuevos ingenieros; quienes serán los encargados de generar los nuevos productos y servicios que impacten de manera directa en el desarrollo económico del País. Dicho lo anterior, esta investigación propone la creación de un manual de prácticas de drones que lleva al participante desde el vuelo de un dron en simulador, pasando por el vuelo en la vida real hasta llegar a realizar la conexión del dron con un computador personal (PC). Dicho manual contiene, en esta primera etapa, las siguientes cinco prácticas: -Primera práctica: Consiste en realizar un vuelo de dron en el simulador proporcionado por la aplicación DJI y con el uso del dron Phantom 4. Esta práctica ayudará al estudiante a conocer los comandos del control remoto para controlar el vuelo de un dron y podrá practicar maniobras básicas. -Segunda práctica: Consiste en llevar a la realidad lo aprendido en la práctica uno al realizar el vuelo real de un dron. En esta el estudiante realizará las maniobras básicas presentadas para adquirir la confianza necesaria para manipular estas aeronaves. Para esta práctica se hizo uso del dron Bebop 2. -Tercera práctica: Consiste en la conexión de una PC con el dron Bebop 2 a través de la implementación del uso de código desde la terminal de una computadora con sistema operativo Ubuntu. Se le expondrá al alumno los conceptos de los ángulos de Euler: pitch, yaw y roll; para que comprenda la aviónica del dron. Lo anterior se logra utilizando el manual de usuario del dron Bebop 2 y el SDK (por sus siglas en inglés, Software Development Kit) proporcionado por Parrot. Antes de conectar la PC con el dron real se realizarán simulaciones en Sphinx para que compruebe la validez de su código en un ambiente seguro. Una vez validado el código, el alumno podrá despegar el Bebop 2 en un vuelo real que involucra el despegue y aterrice usando los comandos proporcionados por Parrot. -Cuarta práctica: Consiste en mover hacia enfrente, atrás, izquierda y derecha el dron mientras está en hover o vuelo estacionario. Esta práctica da a conocer al estudiante la forma en la que se dirige un dron por medio de comandos. El nivel de manipulación del dron ahora es mayor.   -Quinta práctica: Se le mostrará al estudiante los ángulos de Euler según la orientación del dron. En esta práctica se podrá manipular al dron con las manos para así poder rotarlo de cualquier forma y visualizar los valores de pitch, yaw y roll en la terminal de la computadora. Cuando el alumno concluya estas prácticas obtendrá nuevos conocimientos que le serán de utilidad para introducirse al ambiente de la industria 4.0 y que por lo tanto serán beneficiosos para su vida futura.


CONCLUSIONES

El SDK de Parrot es muy útil para iniciar con el uso de drones, sin embargo, este no sigue una secuencia de aprendizaje adecuada por lo que se ha generado un manual de practicas de drones en el marco de la Mecatrónica Educativa, para establecer una metodología educativa que lleve al estudiante por un proceso de enseñanza-aprendizaje desde lo práctico a lo teórico para hacerlo más natural. Con el uso del manual se desea preparar mejor a los alumnos en el vuelo de drones para que adquiera los conocimientos necesarios en el uso de estos dispositivos que día a día están más presentes en la industria. Además, el alumno está siendo preparado para satisfacer las nuevas demandas de las empresas mediante una lúdica educativa. Consideramos clave difundir la mecatrónica educativa para coadyuvar a México en su transformación para convertirse en un actor relevante en la cuarta revolución industrial.
Villa Torres Daniel Enrique, Instituto Tecnológico de Sonora
Asesor: Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí

ANáLISIS DE LA RESPUESTA INERCIAL DE LA RED CON ALTA PENETRACIóN DE SISTEMAS FOTOVOLTAICOS CON ALMACENAMIENTO DE ENERGíA


ANáLISIS DE LA RESPUESTA INERCIAL DE LA RED CON ALTA PENETRACIóN DE SISTEMAS FOTOVOLTAICOS CON ALMACENAMIENTO DE ENERGíA

Chavez Pineda Carlos Gabriel, Universidad Michoacana de San Nicolás de Hidalgo. Villa Torres Daniel Enrique, Instituto Tecnológico de Sonora. Asesor: Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí



PLANTEAMIENTO DEL PROBLEMA

Esta investigación surge de la necesidad de conocer el impacto que tiene la alta penetración de fuentes renovables de energía, como lo son los paneles fotovoltaicos, en los Sistemas Eléctricos de Potencia.  El objetivo principal es analizar el comportamiento de la frecuencia cuando el sistema se encuentra sujeto a perturbaciones (fallas eléctricas), ante un crecimiento en la inyección de potencia por parte de un sistema de generación fotovoltaico. Adicionalmente, se pretende estudiar la mejora del comportamiento dinámico del sistema mediante el concepto de inercia virtual que pueden proveer las energías renovables en conjunto con sistemas de almacenamiento.



METODOLOGÍA

Se utilizó el software de Simulink para implementar un Sistema Eléctrico de Potencia con cuatro fuentes de energía convencional, representadas mediante generadores síncronos. De este sistema se realizó un estudio comparativo, en donde se obtuvo el comportamiento de la frecuencia al presentarse una falla trifásica en el sistema. Después se realizó otro modelo, con la misma estructura, pero en este caso sólo estuvieran conectados módulos fotovoltaicos para así realizar una comparación del comportamiento de la frecuencia. Durante el transcurso de los días se fueron cambiando las fuentes de energía convencional por módulos fotovoltaicos. Esto para simular un crecimiento en la penetración de los sistemas fotovoltaicos. Se simuló la misma perturbación descrita anteriormente para analizar los cambios en la frecuencia. Finalmente, se propuso el utilizar el concepto de inercia virtual para mejorar la respuesta de la frecuencia ante perturbaciones y en presencia de una alta penetración de energías renovables. Para esto se consideró agregar un banco de baterías conectado a un convertidor, capaz de emular una inercia virtual. Este banco de batería fue variando su valor durante diversas simulaciones de manera que nos acercará al valor y la respuesta deseada con el fin de demostrar el impacto que tiene el creciente aumento de la generación fotovoltaica en redes eléctricas y cómo puede solucionarse el problema utilizando el concepto de inercia virtual. Se espera que los resultados obtenidos sean reportados en un congreso de carácter internacional, para lo que después de haber obtenido los resultados buscados, se dispuso a realizar la redacción de un artículo científico basado en el formato IEEE ya que se enviará al comité respectivo de la asociación mencionada para su aprobación y su publicación. Para la realización del artículo se realizaron gráficas en MATLAB con el fin de exponer gráficamente los resultados, se buscaron los módulos adecuados (máquina síncrona, panel solar, batería) utilizados en nuestro modelo,  así como sus ecuaciones y estos fueron registrados en la redacción del artículo, debido a que es un artículo de nivel internacional, fue desarrollado en el idioma inglés y se tuvieron que consultar diversos artículos desarrollados al tema para así poder realizar citas textuales y tener una mayor base acerca de lo que presentamos.


CONCLUSIONES

Se cumplió el objetivo del trabajo, ya que analizamos y expresamos de manera gráfica tras varias simulaciones y modificaciones en los modelos el comportamiento de la frecuencia cuando se presenta una falla eléctrica en el sistema de prueba. También se simuló una inyección de potencia producido por un sistema de generación fotovoltaico, se comprueba que hay alteraciones en la frecuencia entre más módulos fotovoltaicos están conectados en la red, asimismo se comprueba que hay una mejoría al colocar los bancos de batería planteados al principio. Durante la estancia de verano se logró adquirir conocimientos teóricos del concepto de inercia virtual, así como en lo práctico se desarrolló un uso más completo y por lo tanto mejora en los conocimientos del programa MATLAB en específico el uso de Simulink, el cual nos sirve para simulaciones sobre algún modelo planteado, desde los circuitos más básicos hasta modelos más complejos. A pesar de haber logrado cumplir el objetivo y demostrar numéricamente como se ve afectada la frecuencia y la solución propuesta de mejoras, al ser un modelo convencional y básico aún quedan muchas variables para tomar en cuenta y poder concluir una solución más concreta al problema.
Villalobos Salazar Rodolfo de Jesus, Universidad de Colima
Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango

DISEñO DE UN ROBOT DE TIPO INDUSTRIAL PARA APLICACIONES ACADéMICAS.


DISEñO DE UN ROBOT DE TIPO INDUSTRIAL PARA APLICACIONES ACADéMICAS.

Villalobos Salazar Rodolfo de Jesus, Universidad de Colima. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango



PLANTEAMIENTO DEL PROBLEMA

En la creciente era digital y con todo el movimiento que implica la industria 4.0 es de suma importancia contar con un robot de tipo industrial para poner en práctica los conocimientos adquiridos, así como para realizar experimentación con diversos parámetros del control de este, por lo que resulta un gran apoyo al desarrollo académico del estudiante Muchas veces los precios de un robot industrial son muy elevados incluso en aquellos que están destinados al ámbito académico, es por eso que ahora con las tecnologías de fabricación digital se puede optar por construirlo uno mismo, como una alternativa para abaratar los costos abismalmente, también tenemos la ventaja de que al ser diseño propio se adapta completamente a las necesidades específicas del usuario.  Dentro de los aspectos más importantes que se buscan en robots de tipo académico se consideran que sea de transmisión directa, preferentemente que utilice motores DC paso a paso, adicionalmente en su construcción, dado los nuevos procesos de manufactura, se utilicen las tecnologías de fabricación digital tales como Impresión 3D y corte laser, además de que toda unión de piezas debe de realizarse utilizando tornillería para un fácil armado y debe de contar con los sensores adecuados para conocer la posición de los motores en todo momento.



METODOLOGÍA

Los robots industriales están diseñados para usos muy específicos por lo que existen diversas configuraciones que se adaptan a las exigencias de cada tarea, siendo las mas conocidas la cartesiana, SCARA y antropomórfica. Un robot de tipo cartesiano es aquel que realiza un movimiento lineal a lo largo de los ejes X, Y, Z la principal ventaja de esta configuración es la que produce movimientos mas precisos y por su construcción mecánica son los más fáciles de programar y visualizar, como desventaja cabe mencionar que les falta flexibilidad, limitado espacio de trabajo, y son incapaces de alcanzar los laterales de los objetos. El de tipo SCARA tiene como principal característica la rotación a lo largo de 2 ejes y un movimiento lineal en otro de estos, su principal aplicación es en tareas que requieren constante aceleración en movimientos circulares, la desventaja es que su software de control es más complicado por el hecho de que requiere de cinemática inversa. El ultimo mencionado es el robot antropomórfico, llamado así porque imita las articulaciones del brazo humano, específicamente las de cintura, hombro y codo, se caracteriza por su gran capacidad de maniobra a la hora de alcanzar objetos, por su construcción es capaz de superar obstáculos que se puedan encontrar en su trayectoria. Este tipo de robot cuenta con una amplia área de trabajo lo que lo convierte en el mas versátil, siendo su única desventaja la dificultad que presenta el control de este, aunque es de los más estudiados. Este tipo de robot fue el elegido para desarrollar a lo largo de este proyecto ya que es el que mas se adapta a las necesidades que se tienen. Existen varios aspectos que se deben de cuidar a la hora de diseñar un robot, precisión, repetibilidad, grados de libertad, alcance y área de trabajo, velocidad y capacidad de carga: La precisión es la diferencia de distancia entre las coordenadas dadas al robot y la posición real en la que este coloca su actuador final.   La repetibilidad es la capacidad de volver una y otra vez a la misma posición dada.   Los grados de libertad son el número mínimo de coordenadas generalizadas independientes necesarias para definir el estado cinemático de un mecanismo o sistema mecánico.   El área de trabajo es el volumen en el cual el robot es capaz de posicionarse, mientras que el alcance es la distancia máxima lineal a la cual puede llegar.   La velocidad y capacidad de carga vienen dadas por los motores a utilizar, en este caso se utilizarán motores DC de paso a paso modelo nema 17, los cuales tienen un torque de 3.2kg/cm. Tomando en cuenta todo lo anteriormente expuesto se procedió a realizar el diseño, esto apoyado en el software CAD SolidWorks. Buscando cumplir con las especificaciones antes mencionadas, se eligió realizar el diseño pensando en efectuar su construcción con el apoyo de una impresora 3D, ya que esta ofrece la capacidad de crear piezas complejas, que apoyan mejor al correcto funcionamiento del robot, lo único que se debe tener en cuenta es que se tiene un área máxima de impresión, en este caso 200x200x250mm, por lo que las piezas por sí mismas no deberán ser más grandes que eso, y si excedieran esa medida, tener la capacidad de ensamblarse de manera fácil. En este caso aún no se diseñó el actuador final, para que tuviera la capacidad de ser multitareas en función del efector final, por lo que se adaptó de tal forma que pueda ser intercambiable según las necesidades que existan al momento de realizar prácticas con el robot.


CONCLUSIONES

Durante la realización de la estancia de investigación he adquirido diversos conocimientos, el principal es el manejo de SolidWorks y que mejor manera de poner en práctica lo aprendido con un proyecto de diseño, mismo que me exigió utilizar todos los conocimientos que poseo al respecto. Considero que el único inconveniente es la falta de tiempo, ya que por lo mismo no se llego a realizar el prototipo y quedo solo como un diseño, pero se espera que a futuro se realice su construcción para que sea de apoyo en las actividades académicas del respectivo plantel.
Villalpando Quintero Karen, Universidad de La Salle Bajío
Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar

DESARROLLO DE UN SISTEMA DE TEMPERATURA PARA MICROCáMARA CONTROLADO MEDIANTE IOT


DESARROLLO DE UN SISTEMA DE TEMPERATURA PARA MICROCáMARA CONTROLADO MEDIANTE IOT

Villalpando Quintero Karen, Universidad de La Salle Bajío. Asesor: M.C. Julieta Karina Cruz Vázquez, Universidad del Mar



PLANTEAMIENTO DEL PROBLEMA

En la actualidad interactuamos con un sinfín de dispositivos electrónicos, la mayoría de las veces surge la necesidad de comunicarnos con ellos, es decir, compartir u obtener información y realizar actividades o funciones a distancia, esto anterior hace unos años era imposible, pero gracias al desarrollo y avance en tecnologías de información se puede lograr. Para que esta conexión sea exitosa es necesario el uso de una interfase entre estos dispositivos y la red de internet. El desarrollo de este proyecto se enfoca en destacar las distintas plataformas con las cuales es compatible la tarjeta ESP8266 NodeMCU, mediante la creación de un sistema de monitoreo y control de temperatura de un entorno biológico.



METODOLOGÍA

Una vez otorgado el proyecto y revisado los alcances de este, se procedió a revisar plataformas que fueran compatibles con el material brindado, en este caso se cuenta con la tarjeta NodeMCU ESP8266, la cual se programa con el software de Arduino IDE. Posteriormente se indagó sobre las distintas opciones de plataformas y aplicaciones con la finalidad de revisar la compatibilidad de estas con la tarjeta; posteriormente se realiza un filtrado según las características de las plataformas, con la finalidad de analizar y determinar cual se adecua a las necesidades que se desean satisfacer. Se seleccionó la plataforma Adafruit  y Thinger que trabajan en conjunto con el software de arduino, porque cuentan con indicadores y controles que se adaptan a los distintos sensores. El principal paramétro a medir fue la temperatura,  en ambas plataformas, haciendo uso de diversos sensores como el sensor de temperatura LM35, el sensor de temperatura sumergible DS18B20, y el sensor de temperatura y humedad SHT21 que trabaja bajo comunicación One Wire; los cuales fueron implementados en diferentes etapas del sistema de enfriamiento líquido que consiste en un radiador, un ventilador, una bomba que hará que el líquido se distribuya por todo el sistema. Para poder empezar a trabajar con la plataforma de adafruit es necesario crear una cuenta con el correo electrónico, una vez realizado esto se debe recordar datos como usuario y contraseña ya que estos serán de gran importancia a la hora de iniciar la programación en Arduino y así poder establecer la comunicación de la interfaz con la tarjeta. El objeto principal para iniciar la transferencia de datos con Adafruit es la utilización de los "feed" ya que de esto depende que exista un guardado de la información obtenida por la tarjeta ESP8266 en la interfaz. Por otra parte, la plataforma de Thinger cuenta con un límite de 2 dispositivos y al igual que con Adafruit es necesario recordar el nombre de usuario además de el nombre de los dispositivos y sus respectivas contraseñas, estas anteriores son generadas aleatoriamente por la plataforma, de estos objetos depende que exista una transmisión de datos exitosa.


CONCLUSIONES

El uso de internet de las cosas se está volviendo una herramienta muy importante para la comunicación máquina-máquina, ya que envía  información en tiempo real y evita pérdidas de tiempo, lo cual es necesario para el ritmo de vida de las grandes ciudades. Una vez realizada la programación de arduino se realizan pruebas de comunicación mediante "Monitor serie", esto para asegurar que el código elaborado en Arduino IDE funciona satisfactoriamente y así poder sensar la temperatura de los distintos puntos del sistema y sea mostrada directamente en las interfaces de cada plataforma. La interfaz de adafruit contiene indicadores que permiten mostrar un registro de las temperaturas sensadas, en la bomba de agua, en el radiador y en el contenedor, pero establece un límite de 60 datos recibidos, para poder recibir más de esta cantidad es necesario adquirir una versión premium la cual tiene un costo de 10 USD por mes. Mientras que Thinger se encuentra limitada por solo brindar la conexión de dos dispositivos cuando este proyecto consta de 3 diferentes sensores. Si realizamos una comparación entre ambas plataformas; Adafruit permite la emisión de notificaciones, puede mostrar como público o privado el proyecto y puede tener un número elevado de indicadores y controles, pero como se mencionó con anterioridad, se requiere elevar a un nivel premium para recibir más de 60 datos. Thinger es mucho más sencillo de usar ya que no requiere más que el nombre del dispositivo y su respectiva contraseña para poder realizar el envío de datos. Ambas plataformas necesitan de los datos de red para funcionar, es decir, usuario y contraseña. Como conclusión general, el monitoreo de la temperatura es un parámetro de gran importancia en el área de la ingeniería biomédica ya que de este depende la existencia de organismos biológicos; un claro ejemplo es la incubadora neonatal, aparato en el que se hace circular el aire y es necesario el sensado de este para mantener con vida a los recién nacidos.
Villegas Pulido Miguel Antonio, Universidad Autónoma de Sinaloa
Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)

ELABORACIóN DE PREFABRICADOS NO ESTRUCTURALES PARA ACABADOS DE USO DOMéSTICO A PARTIR DE RCD


ELABORACIóN DE PREFABRICADOS NO ESTRUCTURALES PARA ACABADOS DE USO DOMéSTICO A PARTIR DE RCD

Castro Salmerón María Fernanda, Universidad de Colima. Villegas Pulido Miguel Antonio, Universidad Autónoma de Sinaloa. Asesor: Lic. Hades Felipe Salazar Jiménez, Servicio Nacional de Aprendizaje SENA - Regional Caldas (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El sector de la construcción ha crecido de forma exponencial en las últimas décadas, y con él, la producción de residuos de construcción y demolición, los cuales, en muchos casos, han ido a parar al medio ambiente, afectándolo en muchos sentidos. Los residuos de construcción y demolición (RCDs) son materiales de desecho, generados en las actividades de construcción, demolición y reforma de edificaciones, obra civil y espacio público. Actualmente en algunas ciudades no se realiza el aprovechamiento de los residuos de construcción y demolición, lo único que se realiza es el almacenamiento de estos en una escombrera aumentando el impacto ambiental. Los RCD son potencialmente aprovechables para emplearlos como agregado para la elaboración de productos no estructurales, decorativos y funcionales en una vivienda, permitiendo reducir costos y reutilizando estos elementos.



METODOLOGÍA

El paso inicial es la trituración de RCD (de concreto hidráulico) en partículas aproximadamente de ¾ con ayuda de la trituradora de escombros 2 FTR, posteriormente se realizó el estudio granulométrico del agregado reciclado de acuerdo con la Norma Técnica Colombiana No. 174. Se propuso una serie de productos para elaborar con este tipo de material. Se fabricó una encuesta con una muestra poblacional de 230, conformada por diferentes apartados donde la población manizaleña determinaba si compraba o no el producto cuánto pagaría por él, las características que desearía que tuviera, entre otras cosas. Este estudio de mercado fue realizado de manera física y en línea. De acuerdo con los resultados se seleccionaron los 3 productos de mayor aceptación. Se llevó a cabo la obtención de los moldes, así como las pruebas necesarias para la caracterización del agregado se sometieron 3 muestras a las mencionadas, con los resultados se realizó el diseño de mezcla. El proceso de mezclado fue el mezclado en dos etapas y finalmente las pruebas resistencia a compresión de los elementos fabricados.


CONCLUSIONES

Los resultados obtenidos al momento los conforma el análisis granulométrico y la caracterización del agregado, así como el estudio de mercado. En el primero los datos sobresalientes son el tamaño máximo del agregado, con valor de ¾, dato importante para los diseños de mezcla. En cuanto a las propiedades físicas el dato que sobresale es el porcentaje de absorción, con un promedio de 6.83. El estudio de mercado es conformado por realizadas. Los productos que presentaron mayor demanda fueron la lámpara con una aceptación del 89%; el lavamanos con una aprobación del 83.3 %; ye le estante para libros con 82.6 % de agrado. Se concluye que el material reciclado cuenta con una granulometría fuera de rango, así como un porcentaje de absorción muy elevado, por lo que se aplicó un método de mezclado distinto al tradicional, llamado mezclado en dos etapas, ayudando al problema del aumento de masa por absorción de agua en el agregado. Con este proyecto esperamos obtener unos productos de calidad en todo sentido. Con valores de resistencia adecuados tomando en cuenta que el agregado grueso es producto de RCD.
Villegas Sánchez Alberto, Instituto Tecnológico de Toluca
Asesor: Dr. Ascension Zafra Cabeza, Universidad de Sevilla (España)

RECARGA DE COCHES ELéCTRICOS CON INCERTIDUMBRES


RECARGA DE COCHES ELéCTRICOS CON INCERTIDUMBRES

Villegas Sánchez Alberto, Instituto Tecnológico de Toluca. Asesor: Dr. Ascension Zafra Cabeza, Universidad de Sevilla (España)



PLANTEAMIENTO DEL PROBLEMA

La utilización de las fuentes de energía fósiles para el transporte público y privado está en un punto de decadencia debido a varios factores como son la contaminación ambiental con los gases de efecto invernadero, costos de producción y venta, entre otras cosas, lo cual ha provocado que la gente empiece a ver hacia otras opciones como son los coches eléctricos. Actualmente se está viviendo un momento de trascendencia en este ámbito generando muchas dudas al cambio de coches de combustión interna a coches eléctricos como son la diferencia de autonomía, el tiempo de recarga, gasto de recarga, vida útil de las baterías, como se va a poder recargar los coches, entre otras dudas. En esta investigación se trabajó a cerca de todas estas dudas que generan incertidumbre a la mayoría de la gente, enfocándose a temas como el control de recarga de coches híbridos recargables (PHEVs), control de recarga de coches eléctricos (PEV), suministración de energía en redes de carga, minimización de costo y perdida de energía en las redes e introducción de fuentes de energía renovables a las redes.



METODOLOGÍA

  1. A toolbox for design of diagnosis systems. Design of diagnosis systems is a complex task that involves many different steps. Full understanding of all different parts of the design procedure requires deep knowledge on theory from a wide variety of subjects. Thus, to encourage the use of results from diagnosis research it is highly desirable to have software support in the design process. This matter describes ongoing work for determining an architecture for such a toolbox. In industry as well as in universities, Matlab is probably the most widespread tool used by control engineers. 2. Opportunities and challenges of integrating renewable energy in smart grid. Smart grid technology is the key for an efficient use of distributed energy resources. Noting the climate change becomes an important issue the whole world is currently facing, the ever-increasing price of petroleum products and the reduction in cost of renewable energy power systems, opportunities for renewable energy systems to address electricity generation seems to be increasing. However, to achieve commercialization and widespread use, an efficient energy management strategy of system needs to be addressed. Recently, the concept of smart grid has been successfully applied to the electric power systems. This matter presents the study of integrating renewable energy in smart grid system. 3. Power system operation risk analysis considering charging load self-management of plug-in hybrid electric vehicles. The aggregated effect on power grid due to large-scale penetration of PHEVS needs to be analysed. Night-time charging which typically characterizes PHEVS is helpful in filling the nocturnal load valley, but random charging of large PHEV fleets at night may result in new load peaks and valleys. This matter proposes a power system operation risk analysis framework in which charging load self-management is used to control system operation risk. The charging load is managed with adjusting the state transition boundaries and without violating the users desired charging constraints the load curtailment caused by voltage or power flow violation after outages is determined by controlling charging power. At the same time, the system risk is maintained under an acceptable level through charging load self-management. 4. Optimal scheduling for vehicles-to-grid operation with stochastic connection of plug-in vehicles to smart grid. Within the scheme of V2G operation, PEVS are expected to serve as a novel distributed energy storage system (ESS) to help achieve the balance between supply and demand of power grid. One of the key difficulties concerning its practical implementation lies in that the availability of PEVS as ESS for grid remains highly uncertain due to their mobility as transportation tools. To address this issue, a novel event-triggered scheduling scheme for V2G operation based on the scenario of stochastic PEV connection to smart grid is proposed in this matter. Firstly, the mathematical model is formulated. Secondly, the preparation of input data for systematic evaluation is introduced and the case study is conducted. Finally, statistic analysis results demonstrate that our proposed V2G scheduling scheme can dramatically smooth out the fluctuation in power load profiles. 5. Multi-objective optimal charging of plug-in electric vehicles in unbalanced distribution networks. Existing power systems may face serious reliability and power quality problems in supplying emerging PEV charging loads unless the charging task is coordinated. In addition, in real world applications, most PEVS are single-phase loads supposed to be charged from residential or commercial outlets. In this matter a multi-objective optimization framework is proposed to optimally coordinate the charging of single-phase PEVS with dynamic behavior in unbalanced three-phase distribution systems employing smart grid facilities. Objective functions include total cost of purchasing energy in a multi-tariff pricing environment as well as grid total energy losses over charging span.


CONCLUSIONES

Al terminar de investigar y comprender todos los temas anteriormente explicados he tenido la conclusión que el humano esta en una carrera contra el tiempo, especialmente debido a la alta contaminación ambiental, como el mayor reto para poder implementar toda la teoría que se ha estado estudiando desde ya hace algunos años. Teóricamente se puede empezar a aplicar las estaciones de recarga y el uso de coches eléctricos con los conocimientos que actualmente se saben, el mayor problema que se ve para empezar a trabajar con estas tecnologías es que la gente en general, las industrias y los gobiernos ya empiecen a actuar para la implementación total de estos nuevos sistemas para el transporte público y privado.
Vivar Montoya Moisés, Instituto Politécnico Nacional
Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

RED NEURONAL CONVOLUCIONAL (CNN) PARA LA CLASIFICACIóN DE OBJETOS EN TIEMPO REAL CON EL USO DE LA INTEL NEURAL COMPUTE STICK 2.


RED NEURONAL CONVOLUCIONAL (CNN) PARA LA CLASIFICACIóN DE OBJETOS EN TIEMPO REAL CON EL USO DE LA INTEL NEURAL COMPUTE STICK 2.

Vivar Montoya Moisés, Instituto Politécnico Nacional. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El entrenamiento y desarrollo de aplicaciones de inteligencia artificial por medio de computación centralizada en la nube ha funcionado muy bien por años. Sin embargo, debido a que desarrolladores, data-scientists, e investigadores usan cada vez más servidores en tiempo real, esperar a un centro de datos remoto se ha convertido en un inconveniente. El tiempo de respuesta es importante tanto para sistemas de misión crítica, como lo son los carros autónomos, así como para servicios al consumidor como lo es el video chat. En la industria es muy costoso mover volúmenes grandes de datos en tiempo real a la nube para el desarrollo de aplicaciones de inteligencia artificial, ya sea de entrenamiento o toma de decisiones. Por lo anterior, un dispositivo capaz de realizar tareas de inteligencia artificial de manera local para necesidades especificas de una planta, permitiría realizar una más rápida toma de decisiones en tiempo real, además de que incrementaría la seguridad de los datos manteniéndolos localmente, sin tener que enviarlos a un tercero. En el Verano de Investigación científica, por lo tanto, se trabaja en el desarrollo de un clasificador de objetos por medio de una red neuronal convolucional, utilizando la Intel Neural Compute Stick 2, dispositivo dedicado a realizar tareas de manera local, con el objetivo de ahorrar recursos y aumentar la eficiencia y velocidad de respuesta de la aplicación.



METODOLOGÍA

Se comenzó por investigar la teoría de las redes neuronales convolucionales, así como su arquitectura. Las entradas de una red neuronal pueden ser cualquier cosa, coordenadas en el espacio euclidiano, imágenes, etc. Las entradas de una red neuronal convolucional son específicamente imágenes, ya que toman ventaja de su arquitectura para reducir considerablemente la cantidad de neuronas a utilizar, y, por ende, el número de parámetros de aprendizaje (weights and biases). La arquitectura de una red neuronal convolucional, al igual que en una red neuronal normal, se compone de capas, con la diferencia de que se tienen dos etapas. La primera etapa es la de la detección de características, en donde las capas internas de la red se caracterizan por ser un conjunto ordenado de neuronas distribuidas tridimensionalmente, las cuales reciben una imagen y es sometida a un filtro o kernel encargado de detectar características particulares en la imagen. Después de varias capas de detección, se pasa a la segunda etapa que es la etapa de clasificación, en donde la salida es un vector de K dimensiones, en donde K es el número de clases que la red debe de ser capaz de predecir. En dicho vector se encuentran valores numéricos que indican la probabilidad de una imagen de pertenecer a cada clase. Debido a que la programación de una red neuronal convolucional se debe optimizar, ya que se trata de operaciones matriciales de gran tamaño debido a la complejidad de la red y de la resolución de la imagen, se investigaron frameworks dedicados al Deep Learning que facilitaran el diseño de la red del proyecto planeado. Entre los frameworks que se investigaron fueron Tensorflow, Caffe, y el Deep Learning Toolbx de Matlab. Hasta este punto aun no era preciso el framework a utilizar debido a que su selección aun dependía de varios factores relacionados con la compatibilidad con la Intel Neural Compute Stick 2. Por consiguiente se profundizó en conocer más acerca de la memoria de desarrollo para Deep Learning de Intel. Se trata de un dispositivo destinado a realizar procesamiento de aplicaciones de inteligencia artificial. En otras palabras, realiza toma de decisiones en tiempo real, mas no realiza operaciones de entrenamiento, por lo que tener un modelo previamente entrenado es un requisito para trabajar con este dispositivo. Afortunadamente los tres frameworks investigados pueden ser exportados para su procesamiento en la memoria de desarrollo. Se hicieron dos programas prueba en cada framework, excluyendo Caffe, el primero era un clasificador de dígitos del cero al nueve escritos a mano y el segundo constaba de un clasificador de ropa. Se obtuvieron buenos resultados tanto en Tensorflow como en el Deep Learning Toolbox de Matlab, lo que hizo la diferencia fue la facilidad de exportación del modelo de Matlab, por lo que se decidió trabajar con dicho entorno. Definiendo una vez el entorno de trabajo se procedió a definir los objetos a clasificar y, por consiguiente, la base de datos necesaria para el entrenamiento de la red, de la cual también dependía la estructura de la red, ya que es de gran influencia la resolución de las imágenes en el número de capas de la red. Considerando en que el objetivo del proyecto era clasificar objetos leyendo la entrada de una cámara, la resolución de las imágenes de entrenamiento debía ser buena a comparación a los ejemplos hechos anteriormente en donde la resolución de las imágenes era de 28x28x1, es decir, imágenes en blanco y negro y de baja resolución. Para tratar esta situación, en lugar de diseñar la estructura de la red, lo que se complicó debido a la resolución de las imágenes y al tiempo de entrenamiento que se requería, se realizó una técnica llamada Transfer Learning aprovechando la red pre entrenada llamada AlexNet. Terminado el proceso de entrenamiento, finalmente se exportó el modelo para poder correrlo en la memoria de desarrollo, y se aprovechó un programa demo de la documentación de la memoria para poder vincular la cámara como entrada del modelo.


CONCLUSIONES

Durante la estancia en el Verano de Investigación Científica se conoció la técnica de reconocimiento de objetos por medio de redes neuronales convolucionales así como las aplicaciones y ventajas de utilizar un dispositivo capaz de realizar procesamiento en tiempo real de manera local como lo es la Intel Neural Compute Stick 2. Los resultados esperados, debido a que aún falta la prueba final con la cámara, es poder obtener un buen porcentaje de confiabilidad en la clasificación de 7 diferentes clases con un buen desempeño en el dispositivo de procesamiento.
Vizcarra Meraz Maricela, Universidad Politécnica del Mar y la Sierra
Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra

LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL


LECTURA DE TENSIóMETROS AGRíCOLAS POR MEDIO DE CóDIGOS QR A TRAVéS DE UNA APLICACIóN MóVIL

Arredondo Lopez Sonia Guadalupe, Universidad Politécnica del Mar y la Sierra. González Mena Sonia, Tecnológico de Estudios Superiores de Jocotitlán. Vizcarra Meraz Maricela, Universidad Politécnica del Mar y la Sierra. Asesor: M.C. Gilberto Carrillo Guevara, Universidad Politécnica del Mar y la Sierra



PLANTEAMIENTO DEL PROBLEMA

El abastecimiento de productos agrícolas al mercado somete a los productores a incertidumbre por el posible decremento en el suministro de los mismos para exportación al no cubrir la demanda de los mismos, lo que ha llevado a los agricultores a buscar alternativas que permitan mantener sus cosechas aseguradas lo que obliga a los productores a buscar técnicas para monitoreo de las áreas agrícolas de una manera automatizada evitando un desgaste en los recursos La problemática que se presenta es recuperar la lectura de los tensiómetros agrícolas en las áreas de cultivo y validar la recolección de los de los datos, por lo que durante la estancia del verano de la investigación científica y tecnológica se trabaja en la automatización del trabajo agrícola en la recolección de datos revelados por los tensiómetros agrícolas implicando la seguridad y fiabilidad de los mismos, para evitar desvío en la información provocando alteraciones en la producción agraria. Los tensiómetros agrícolas son ubicados estratégicamente en ciertos puntos del área de cultivo, dependiendo de análisis de especialistas del tema; la recolección de los valores  que se proyectan debe ser realizada de manera periódica, es decir se debe realizar un recorrido diario por los terrenos de cultivo para obtener los datos revelados.



METODOLOGÍA

La metodología que se lleva a cabo es de tipo exploratorio al desarrollar un sistema único en su tipo, se deduce que hasta el momento no se han encontrado sistemas similares con la funcionalidad requerida por lo que este se elabora  de manera propia con conocimientos del equipo de trabajo, implementando un método de prototipos el cual se basa en realizar el sistema de manera experimental para obtener un modelo preliminar con funcionalidad antes de llegar al sistema final. Sinaloa es uno de los principales estados productores de hortalizas que abastecen la demanda en el país, la administración de las hectáreas productivas se debe llevar de una manera organizada y precisa para un correcto proceso y llegar a un producto satisfactoria que cumplan con los estándares de calidad solicitados por el mercado, algunos productores de la región han adoptado una herramienta que permite recuperar datos sobre la humedad de las tierras de cultivo: tensiómetros agrícolas, instrumentos que funcionan como una raíz artificial que miden la cantidad de agua retenida por el mismo, arrojando estos valores en el vacuometro, parte del mismo instrumento con un rango de valor de 0 a 100, su unidad de medida son los centíbares el material de fabricación y el modelo que se aplica varia y son usados según la preferencia del productor. La recuperación de los valores proyectados por los tensiómetros se realizara de una manera más confiable que proporcione directamente los valores a una Base de Datos sin intervención de terceros, ya que esta información puede estar expuesta en cierta parte a alteraciones o desvió de la misma, por lo que es conveniente implementar un sistema que facilite la recuperación de los datos; para los productores es muy importante asegurarse que la información que se les proporcione sea verídica; los datos que se recuperan son analizados por asesores del productor que se especializan en la producción y si los datos que se les proporcionan no son en su totalidad verídicos estos se pueden enfrentar a situaciones. Elota municipio del Estado de Sinaloa cuenta con extensas áreas de producción agrícola, por lo que la UPMyS  se involucra en el  desarrollo del sistema destinado para uno de los principales productores agrícolas de la región. Se realiza un sistema con apoyo de las tecnologías que permita administrar y recuperar los valores que arrojan los tensiómetros, desarrollando así una aplicación móvil para el sistema operativo Android con una interfaz entendible para el usuario. La Aplicación que se desarrolla se conecta a una Base de Datos que contempla los tensiómetros agrícolas y su correspondiente identificar de cada uno, proporcionándole a este un código QR único para cada uno. El encargado de recuperar los datos de los tensiómetros realizará su recorrido de forma normal, con la aplicación ya terminada e implementada, ejecutará un escaneo de Código QR del tensiómetro y la interfaz le permite capturar el valor que se muestra en el vacúometro al finalizar con la confirmación de captura de los datos inmediatamente se enviará a la Base de Datos en la cual los especialistas en el análisis de los datos tomaran las decisiones más convenientes para los cultivos.


CONCLUSIONES

El sistema de la Aplicación Móvil ya cumple con la funcionalidad solicitada, cumpliendo con las primeras cinco etapas de desarrollo del software ,encontrando el proyecto en la etapa de implementación limitándose aun en la misma  ya que los las tierras de cultivo aún no están preparadas para la siembra y por consiguiente el funcionamiento de los tensiómetros agrícolas, actualmente la pausa que se realiza se destina para afinar la aplicación de algunos detalles respecto a la interfaz gráfica mejorada y más agradable para el usuario, cabe decir que aún se le pueden implementar más funcionalidades al sistema destinado a la aplicación agrícola siendo útil para los productores agrícolas que quieren mantenerse informados de sus cultivos.
Walters Meraz Aldo, Universidad de Sonora
Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora

EVALUACIóN DE UN SISTEMA PARA DESALINIZACIOòN DE AGUA DE MAR


EVALUACIóN DE UN SISTEMA PARA DESALINIZACIOòN DE AGUA DE MAR

Walters Meraz Aldo, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora



PLANTEAMIENTO DEL PROBLEMA

Existen varios tipos de desalinización de agua salada, en el presente proyecto se utilizara, por medio de un concentrador solar tipo Fresnel como fuente de energía, un proceso de desalinización por humidificacion-deshumificacion.



METODOLOGÍA

El sistema de humidificación-deshumidificación consiste en dos etapas principales, la primera consta de una cámara de humidificación en la cual por la parte superior entra agua salada caliente proveniente del colector solar, dicha agua cae distribuyéndose por medio de regaderas mojando un empaque de cartón aumentando su área de contacto con el aire que viene de abajo, este aire avanza a contracorriente con el agua, humidificándose y calentándose a la vez; el resultado de esta etapa es aire húmedo caliente y salmuera relativamente fría de rechazo. La siguiente etapa recibe ese aire húmedo por la partesuperior, entra y se pone en contacto con una serie de 3 radiadores de aire acondicionado de coche, estos radiadores están conectados en serie y dentro de estos fluye agua fría. Al entrar en contacto el aire húmedo caliente con los radiadores este se enfría bajando su punto de rocío haciendo que parte de la humedad que lleva consigo se condense, siendo esta agua con poco contenido de sales, por su parte el aire con menos cantidad de agua vuelve por la parte inferior al humidificador para repetir el proceso. Dentro de este sistema existe una turbina la cual facilita el flujo de aire dentro del equipo.


CONCLUSIONES

Por un estudio anterior realizado de este sistema se espera que la tasa de producción de destilado (D) se obtuvo que D=1.007118 kg/hr asique esperemos que el sistema ese en su estado optimo y esta tasa sea la correcta
Willys Duarte Guillermo, Universidad Autónoma de Baja California
Asesor: Dr. Ulises Mena Hernández, Instituto Nacional de Electricidad y Energías Limpias

ANáLISIS DE RIESGO POR INUNDACIóN EN LA ZONA URBANA DE TIJUANA


ANáLISIS DE RIESGO POR INUNDACIóN EN LA ZONA URBANA DE TIJUANA

Sanchez Valdivia Jeremy Ryan, Universidad Autónoma de Baja California. Willys Duarte Guillermo, Universidad Autónoma de Baja California. Asesor: Dr. Ulises Mena Hernández, Instituto Nacional de Electricidad y Energías Limpias



PLANTEAMIENTO DEL PROBLEMA

Históricamente, en la ciudad de Tijuana del estado de Baja California, se han desarrollado grandes precipitaciones pluviales que generan inundaciones en ciertas zonas de la ciudad, algunas fechas donde se han desarrollado esta problemática son en los años: 1916, 1937, 1969, y 1993. Estas lluvias, en general, se presentan en periodos de retorno de aproximadamente 25 y 50 años. La poca información documentada del ciclo hidrológico de la región provoca que cuando hay ausencia de lluvias por periodos largos de tiempo y esto implica que, muchas zonas despobladas pueden ser consideradas para el desarrollo o crecimiento urbano a través de asentamientos humanos que son construidos en zonas con alto potencial de inundarse tras un evento extraordinario. Ante esta situación, los tres niveles de gobierno deben actuar en consecuencia para evitar pérdidas económicas, materiales e incluso humanas con obras hidrológicas que eviten estos problemas de inundación en las ciudades, tal es el caso de la canalización del Río Tijuana en sus tres etapas y la reciente canalización del arroyo Alamar, dos de los principales escurrimientos de la ciudad. Desafortunadamente, los esfuerzos llevados a cabo en Tijuana, han reducido considerablemente la problemática, sin embargo, siguen sucediendo. Se centran los esfuerzos en generar un posible escenario de inundación en la zona urbana de Tijuana mediante un modelo hidrológico para conocer las zonas de mayor peligro, que nos describa el comportamiento de las canalizaciones ya existentes y sobre todo nos permita dimensionar las necesidades del actual sistema pluvial.



METODOLOGÍA

  Siendo el principal objetivo de estudio, la zona urbana de Tijuana, se debe analizar parte de la cuenca del río Tijuana, que corresponde específicamente a la zona en donde desembocan el río Tijuana alimentado por sus dos afluentes principales, arroyo Alamar y río El Carrizo. Para esta subcuenca, se generan las curvas de nivel a cada 20 metros. Así, con estas curvas mediante el método de Taylor y Schwarz, se obtienen las pendientes que lleva cada escurrimiento natural hasta llegar a la canalización del río Tijuana. Adicionalmente, se requiere hacer un análisis histórico de los registros de las precipitaciones históricas de las estaciones hidrometeorológicas ubicadas dentro la cuenca de estudio correspondiente, tanto en México como de Estados Unidos. Se consideran solo las precipitaciones mayores a 50 mm, debido a que estas precipitaciones son las que provocan mayor afectación por inundación en la zona de Tijuana. Ahora bien, se obtienen los gastos para cada periodo de retorno que dependerán de diferentes factores como son: el tiempo de concentración ,el coeficiente de escorrentía, el área de cada micro-cuenca y la intensidad de la lluvia.   Tras un análisis de la zona de estudio con Google Earth® y la plataforma SIATL del (INEGI), se determinó el área de principal interés que corresponde a la canalización del Río Tijuana primera etapa ya que esta se encuentra prácticamente al final de una red hidrográfica que inicia desde el norte en Barret y Morena (sur de California, E.U.) y desde el este en la presa Carrizo. Simultáneamente, mediante el software ArcMap® se trabaja con los modelos digitales de elevación de ambos países, generando un solo archivo con información suficiente para cubrir la totalidad de la Cuenca del río Tijuana. Con esta información, se obtienen las curvas de nivel cada 20 metros, las cuales nos permiten generar un archivo de triangulación de elevación con una mayor precisión. Una vez identificadas las principales zonas que contribuyen al gasto de la sección antes mencionada, y todos los datos de elevación necesarios, se trazan los cauces, que permitirán determinar la sub-cuenca dentro de la cual, a su vez, se crean micro-cuencas para cada escurrimiento y así poder tener de forma oportuna su área de captación, calculando así sus respectivos gastos con mayor precisión. Con diversas herramientas de ArcMap®, se realizan tareas como el diseño de los cauces de la red detallando las características requeridas por el software HEC-RAS para que puedan ser exportados posteriormente. Una vez que se cuenta con toda la geometría del río y los diversos parámetros se pueden añadir al programa HEC-RAS. Además, se deben de tazar y diseñar los perfiles de las secciones canalizadas del Río Tijuana 1ra, 2da y 3ra etapa y del arroyo Alamar para posteriormente, ejecutar el modelo de análisis de inundación. El resultado del modelo de HEC-RAS, debe de exportarse a un sistema de información geográfica por medio de su extensión HEC-GEO-RAS, la cual nos permite generar el área de inundación con un archivo TIFF de elevaciones, para verificar que los resultados concuerden con las imágenes satelitales se exporta a Google Earth para una mejor visualización.


CONCLUSIONES

El modelo digital de inundación que se obtuvo concuerda con las zonas potenciales a inundarse con base en la información histórica. Adicionalmente, el apoyo de los sistemas de información geográfica, nos permite tener una mejor idea de las zonas afectadas y de las áreas en donde el peligro por inundación en mayor. Con este modelo, se conocen los posibles escenarios de inundación para cada periodo de retorno. Este modelo, permitirá conocer las zonas reales de peligro por inundación en los alrededores de los cauces ya mencionados, y poder tomar las acciones correspondientes para evitar esta problemática. Los eventos extremos, como consecuencia del cambio climático, han hecho que la capacidad de captación de la zona urbana de Tijuana se vea rebasada de lo que era antes, adicionalmente, el crecimiento y la demanda la zona urbana hace que muchas zonas se proyecten y construyan a las márgenes de los ríos o en zonas bajas que son susceptibles a inundarse. La pregunta a responder es, si la ciudad de Tijuana está preparada para otro evento como el sucedido en 1993 y que escenarios se esperan con el crecimiento de la zona urbana que se tiene ahora en comparación de como esta en ese año.
Yepez Lopez Israel, Universidad de Colima
Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)

ESTIMADORES DE LAZO ABIERTO


ESTIMADORES DE LAZO ABIERTO

Yepez Lopez Israel, Universidad de Colima. Asesor: Dr. Alejandro Diaz Sanchez, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)



PLANTEAMIENTO DEL PROBLEMA

El planteamiento del problema se define como la imposibilidad de predecir cómo se comportará una señal eléctrica en el sistema eléctrico, excluyendo la posibilidad de ejecutar alguna acción de contorl para estabilizar la señal en sus valores nominales. La conclusión del trabajo desarrollado, responde a la siguiente pregunta de investigación: ¿Es posible estimar una señal lo suficientemente confiable con una cantidad pequeña de muestras a través de un modelo matemático con análisis de Fourier y descomponer su contenido armónico?



METODOLOGÍA

El funcionamiento del sistema, inicia principalmente en una señal de entrada. Debido al tipo de aplicación, el cual es la estimación del factor de potencia en sistemas eléctricos de potencia, esta señal será la de la red eléctrica y tendrá que ser sensada en todo momento. Se anticipa que la señal contendrá un nivel de distorsión armónica, sin embargo, no necesariamente debe contar con armónicos para realizar la estimación. El objetivo principal del estimador, es tratar de predecir las estimar las condiciones de la señal de entrada en un lapso de tiempo futuro extrayendo una cantidad muy pequeña de muestras a través del sensor, de tal modo que la estimación se realice incluso antes de la señal presente la perturbación. Las muestras de la señal serán recopiladas e introducidas al estimador numérico. El estimador numérico, es el algoritmo matemático que se encarga de calcular los coeficientes de Fourier de cada armónico característico de la señal de entrada. Todo este cálculo de desarrolla con métodos de diferenciación numérica en la plataforma de Matlab. Una vez que se determina los parámetros de los armónicos necesarios, se recrea la señal en el tiempo de cada armónico y se realiza la suma de estos, entregando al final la señal de salida estimada. Este estimador, finalmente puede ser utilizado para una gran cantidad aplicaciones, en este caso para estimar el factor de potencia en sistemas eléctricos de potencia y predecir posibles perturbaciones en la señal de la red eléctrica, que como ya se abordó, el tener previo conocimiento de cómo se comportará el sistema eléctrico, puede contribuir en ahorrar pérdidas económicas importantes. El objetivo de esta investigación se basa en la estimación, sin embargo, se puede extrapolar e incorporar a un controlador el cual, reciba los datos del estimador y que tome acción de control, incluso antes de que suceda la falla o perturbación en la señal de entrada. La metodología general se puede resumir de la siguiente manera: Revisión bibliográfica: revisión del estado del arte vigente del tema de investigación asignado; realizar indagación en libros, revistas y artículos de divulgación científica. Desarrollo de derivadas numéricas de sistemas de segundo orden: análisis y desarrollo del modelo matemático a través de las derivadas numéricas de segundo orden de las señales a evaluar, para hacer la descomposición armónica de las señales a evaluar. Solución de sistemas de ecuaciones y estimaciones de armónicas: desarrollar soluciones para la estimación de armónicas en la señal a evaluar. Simulación de estimadores propuestos en Matlab: desarrollar el software en la plataforma de Matlab para el cálculo de armónicas aplicado a los estimadores de lazo abierto. Pruebas de cálculo de factor de potencia de sistemas de segundo orden: experimentación y prueba del software para aplicaciones de cálculo del factor de potencia en sistemas eléctricos de potencia en con simuladores. Análisis de resultados: corroborar resultados obtenidos con respecto a los estimados, desarrollar posibles mejoras y verificar la eficiencia del programa. Escritura de reporte: escritura de reporte de resultados obtenidos.


CONCLUSIONES

Con este trabajo de investigación, se puede concluir que el método de estimación de señales funciona correctamente y que puede ser utilizado como base para trabajos futuros en el tema. Unos de los resultados favorables fue realizar la estimación de una señal sinusoidal pura y con contenido armónico, en ambos casos el sistema funcionó adecuadamente y la estimación fue muy acertada. El software desarrollado para la estimación del factor de potencia funcionó satisfactoriamente aún cuando las señales tenía distorisión armónica. A su vez, se puede afirmar que puede ser viable utilizarlo en sistemas eléctricos de potencia para la estimación de variables como el factor de potencia y para estimar predicciones de posibles fallas en el sistema eléctrico o en cualquier señal que pueda presentar alguna clase de perturbación. Cabe destacar que el desarrollo de este método numérico de estimación, no está completamente terminado, el software de programación necesita optimizarse y aplicar una recopilación y procesamiento general de datos para cualquier señal con una n de armónicos. Se recomienda que se optimice a su vez una técnica de eliminación de armónicos no deseados a procesar, con esto, se puede despreciar señales múltiplos que pudieran no contener información útil en la señal original. Si se logra optimizar el software, puediera ser extrapolado para su uso no sólo en sistemas eléctricos de potencia, sino en ámplio campo de procesamiento de señales. En general, el desarrollo de este trabajo fue bastante útil y concluye con una aportación relevante al análisis y procesamiento de señales cuya aplicación se puede extender ampliamente y beneficiar estas áreas de la ciencia e ingeniería.
Zabala Rodarte Jonsi Esmeralda, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas

GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.


GESTIóN SOSTENIBLE DE CENTROS TURíSTICOS COMUNITARIOS: EL CASO DE CASCADA VELO DE NOVIA.

Delgadillo Trinidad Andrea Amayrani, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Garcia Valente Osvaldo, Universidad Autónoma del Estado de México. Zabala Rodarte Jonsi Esmeralda, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Domingo Gómez López, Universidad Intercultural de Chiapas



PLANTEAMIENTO DEL PROBLEMA

En la actualidad sus mecanismos de promoción y difusión con las que cuentan no hace posible extender información a posibles visitantes, pues únicamente hacen publicidad mediante agencias de viaje en los cuales no es posible extender mucho el contenido. También se observó la ausencia de cocina tradicional, puesto que el restaurante ofrece exclusivamente platillos convencionales, dejando de lado aquellos que ayudarían a reforzar su identidad y hacer más genuina la experiencia de los visitantes. Asimismo, es importante mencionar que no existe mayor oferta de actividades, con la finalidad de que los visitantes que lleguen pasen más tiempo realizando diferentes actividades y que incluso tengan la necesidad de pernoctar en el lugar para continuar disfrutando de este.  



METODOLOGÍA

El proyecto busca generar una propuesta para el aprovechamiento racional de los recursos de la Cascada Velo de Novia en la comunidad anexo el Sabinal de Socoltenango, Chiapas; tomando en cuenta como referencia general sus potenciales naturales, culturales y su valor ancestral como destinos turístico de naturaleza. Para ello, se realizó una investigación de carácter cualitativo, la cual consistió en la realización de una entrevista al C. Orlando López Aguilar, uno de los encargados del centro ecoturístico Cascada Velo de Novia para conocer a profundidad la historia del proyecto, organización, y el contexto actual que ayudó a comprender y poder analizar los problemas a los cuales se enfrenta esta cooperativa. El trabajo de campo realizado en el sitio, se apoyó directamente de un instrumento de investigación conocido como guía de entrevista semiestructurado.  


CONCLUSIONES

El turismo es una actividad económica creciente en México y el estado de Chiapas es un destinos turístico del Mundo Maya con atractivos naturales para ser aprovechados turísticamente. Con una gestión responsable, esta actividad contribuye a la difusión de esta riqueza natural como lo es Cascada Velo de Novia y a la vez generar ingresos, beneficiando a la comunidad de Socoltenango. En este sentido, es necesario mejorar y planificar las estrategias de marketing para tener un mayor alcance en la difusión. También es importante la implementación de diversas actividades que logren que el turista permanezca más tiempo dentro del centro ecoturístico y que tenga la necesidad de pernoctar en el. Del mismo modo, es importante el cuidado de los recursos naturales y este puede ser más efectivo mediante la aplicación de un estudio de capacidad de carga, que fomentará la conservación del patrimonio natural. Los centros ecoturísticos son una alternativa altamente viable para las comunidades locales y una forma diferente de destinos para el turista, sin embargo, esta debe ser vigilada o supervisada para la aplicación de las normas de sustentabilidad de los destinos, en particular la NMX:133 requisitos y especificaciones de sustentabilidad para el ecoturismo, para que no se atente con el lugar por un abuso de uso.  
Zacarias Garcia Rodolfo, Instituto Tecnológico de Iguala
Asesor: Ing. Jorge Eduardo Ortega Lopez, Instituto Tecnológico de Iguala

DISEñO DE SEMáFOROS VIALES PARA EL MUNICIPIO DE IGUALA DE LA INDEPENDENCIA CON SERVICIOS WEB E IOT.


DISEñO DE SEMáFOROS VIALES PARA EL MUNICIPIO DE IGUALA DE LA INDEPENDENCIA CON SERVICIOS WEB E IOT.

Ocampo Pineda Carlos, Instituto Tecnológico de Iguala. Zacarias Garcia Rodolfo, Instituto Tecnológico de Iguala. Asesor: Ing. Jorge Eduardo Ortega Lopez, Instituto Tecnológico de Iguala



PLANTEAMIENTO DEL PROBLEMA

 Iguala de la independencia es una de las ciudades mas importantes del estado, y por ende una de mas mas visitadas y con mayor numero de poblacion y vehiculos. Diseñar e implementar semáforos viales para este municipio  implementando tecnologías de la Industria 4.0  representará un logro significativo en la afluencia de trafico de la ciudad pues permitirá tener un control y monitoreo en tiempo real de los mismo, y por supuesto, nos permitan tener una mejor salud vial en la ciudad. Para ello se trabajara con dispositivos que implementen tecnologias adecuadas para el buen funcionamiento y desarrollo del proyecto.



METODOLOGÍA

Metodología: Toyota-Kata Proyecto: Diseño de semáforos viales para el municipio de Iguala de la Independencia con servicios WEB e IoT que permitirá una mejor organización, control y monitoreo de los principales semáforos de la ciudad, ubicados en el anillo periférico de la ciudad. Iguala de la independencia cuenta con 10 semáforos en el anillo periférico el cual es la principal arteria de flujo de automóviles en la ciudad. Los semáforos son sin duda los principales moderadores del tráfico en esta arteria vehicular, sin embargo, frecuentemente varios de ellos presentan fallas o se encuentran totalmente inservibles trayendo consigo diferentes tipos de accidentes. Basados en las estadisticas oficiales del INEGI  al año 2017 en la ciudad de iguala de la independencia se tienen registrados un total de 58,645 vehiculos de motor. De los cuales : 41,616 son automoviles. 2,322 son camiones para pasajeros . 9,239 camiones y camionetas para carga. 5,468 son motocicletas. Estas cifras hablan apenas de los vehiculos que son registrados en la ciudad, se estima que un 12% podria ser una cantidad exacta estimando los registros de turismo y vehiculos foraneos. Pese a esto, la ciudad no cuenta aun con un servicio que pueda garantizar un control y cuidado optimo de los semaforos, debido a que estos no son directamente monitoreados por la direccion de transito municipal, o en muchas ocasiones, las fallas a estos dispositivos no son un problema prioritario para ellos.   Monitorear y controlar en tiempo real los semáforos de nuestra ciudad es posible y factible, con el apoyo y recursos necesarios este seria un proyecto que en pocos meses traería consigo resultados positivos en la ciudad, no solo con la disminución de los accidentes sino también con el flujo de transito óptimo de los vehículos que transitan por ahí. Los principales obstáculos se presentarían a partir de implementar el proyecto, puesto que intervienen varios factores que podrían entorpecer el desarrollo de este de forma normal. Algunos de estos obstáculos son: 1-. No contar con el apoyo de las autoridades municipales para desarrollar el proyecto y renovar el sistema de semáforos de la ciudad. 2-. No Contar con los recursos necesarios para el proyecto: Algunos de los mas importantes para el proyecto sería el sistema de puntos de acceso a internet en los diferentes semáforos, puesto que con ellos se realizará la conexión y comunicación de manera remota. Y sin duda, el aspecto de recurso económico será indispensable para todo lo anterior puesto que habrá que llevar a cabo trabajos de reparación y compra de material indispensable. 3-. La aceptación de los usuarios de esta arteria vehicular a los cambios que se realizaran, pues la gente muchas veces no acepta los cambios y se oponen a ellos cuando desconocen la situación.


CONCLUSIONES

Conclusiones: Implementar semáforos con tecnologías de la industria 4.0 y servicios WEB e IoT es posible, tras lograr realizar la conexión con entre módulos WI-FI de manera remota pudimos enviar y recibir datos en tiempo real a un servidor en la WEB, teniendo así una comunicación entre ellos. Esto nos permitirá adaptar esta tecnología a los semáforos y controlarlos desde un servidor o pagina web de manera remota, teniendo así un monitoreo mas completo y real de estos semáforos. Una vez logrado lo anterior lograremos también: Interrumpir periódicamente el tránsito en una corriente vehicular y/o peatonal para permitir el paso de otra corriente vehicular. Regular la velocidad de los vehículos para mantener la circulación continua a una velocidad constante. Controlar la circulación por carriles. Eliminar o reducir el número y gravedad de algunos tipos de accidentes, principalmente los que implican colisiones perpendiculares. Aspectos que sin duda son importantes para una buena salud vial en nuestra ciudad.
Zacarías Montejo Elizabeth, Instituto Tecnológico Superior de Los Ríos
Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos

ELABORACION DE COSMETICOS NATURAL Y ARTESANAL.


ELABORACION DE COSMETICOS NATURAL Y ARTESANAL.

Álvaro Deara Ezequiel, Instituto Tecnológico Superior de Los Ríos. Zacarías Montejo Elizabeth, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos



PLANTEAMIENTO DEL PROBLEMA

Planteamiento del problema La piel actúa como primera línea defensiva del organismo frente a bacterias y virus, de igual manera equilibra líquidos y regula la temperatura natural. La piel se compone de tres capas: epidermis, dermis y su cutis. (euserin 2017). Epidermis Es una capa más externa que vemos y tocamos, nos protege frente a toxinas, bacterias y perdidas de líquido. Dermis (o cutis verdadero) La dermis es la capa media de piel, gruesa, elástica pero firme; los principales componentes estructurales de la dermis son el colágeno y la elastina, tejidos conectivos que confieren fuerza y flexibilidad y son los componentes vitales de la piel sana, de aspecto juvenil. Subcutis (o hipodermis) La capa más interna de la piel, almacena energía mientras almohadilla y aísla el cuerpo. Se compone principalmente de células adiposas: agregadas entre sí en grupos de tipo almohadilla y de fibras colágenas especiales (llamadas septos tisulares): ablandan y esponjan los tejidos conectivos que mantienen juntas las células adiposas. El estilo de vida y factores como el sol y los cambios térmicos ejercen un impacto sobre el colágeno y la elastina y a medida que envejecemos, nuestra producción natural de colágeno y elastina inclina y disminuye la capacidad de la piel. La piel adquiere un aspecto menos tonificado. Se han encontrado diversos factores que afectan la piel como cualquier órgano que cada día sufre modificaciones y se deteriora con el paso del tiempo. Factores: Falta de sueño: el poco descanso o dormir mal hace que aparezcan arrugas, ojeras y bolsas debajo de los ojos. El descanso ayuda a la renovación de la piel. Estrés: cuando las hormonas se desestabilizan, la piel envejece antes de tiempo y puede llegar aparecer el acné, por eso es importante controlar las emociones y evitar el estrés. Mala alimentación: el exceso de azúcar, grasas saturadas y arinas favorecen a la aparición de acné, inflamaciones y arrugas. Es importante incluir en tu alimentación vitaminas y fibras. Vicios: el exceso de alcohol y cigarrillos hacen que tu piel luzca reseca, deshidratada y aceleran la aparición de arrugas. Sol: la exposición continua al sol sin la debida protección, provocan manchas en la piel, la dejan más sensible y deshidratada. Productos químicos: el exceso de jabón puede resecar e irritar la piel. Tomando este planteamiento se busca la oportunidad de creer una línea de productos cosméticos para el cuidado de la piel actuando en las diferentes capas y de ingredientes naturales y de forma artesanal.



METODOLOGÍA

La metodología se desarrollará en cuatro fases, diagnóstico, revisión, análisis de la información e informe: Diagnóstico del problema: problemática Revisión bibliográfica: recopilación de información sobre el tema. Análisis: análisis y revisión de la información recopilada. Informe: estudio de productos naturales y ecológicas.


CONCLUSIONES

Darle valor agregado a la biodiversidad nacional al transformar material vegetal en extractos estandarizados con eficacia en los cosméticos naturales. Crear, impulsar y emprender una empresa que se dedique a la elaboración de cosméticos naturales. Entregar productos de calidad.
Zacarías Notario Carlos Manuel, Instituto Tecnológico Superior de Los Ríos
Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas

BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.


BALANCEO DE LÍNEAS EN EL ÁREA DE PROCESOS DE HULE GRANULADO SIMULADO CON PROMODEL.

Álvarez Vega Alondra, Instituto Tecnológico de Zitácuaro. Jiménez López Miguel Francisco, Instituto Tecnológico Superior de Los Ríos. Zacarías Notario Carlos Manuel, Instituto Tecnológico Superior de Los Ríos. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas



PLANTEAMIENTO DEL PROBLEMA

La empresa Beneficiadora de Hule Fénix de S.A de C.V (BEHULFE), cuenta actualmente con maquinaria en cada una de las áreas para el proceso de producción. Al momento de la producción debido a las distintas capacidades de cada área de trabajo, lo que provoca que no haya un flujo continuo de entradas y salidas en cada estación de trabajo, algunas máquinas se aprovechan en su capacidad máxima y otras se quedan sin carga de trabajo, lo que provoca pérdidas monetarias debido a que no se está aprovechando el tiempo productivo en su totalidad y de tener tiempo ocioso en algunas de las estaciones de trabajo, además de que afecta directamente a la producción manteniéndola en bajos niveles al día. El área con una carga de trabajo a su máxima capacidad es la de deshidratado que cuenta con 3 hornos y 1 cámara de enfriamiento, y la de menor carga de trabajo es el área de triturado, generando de esta forma un cuello de botella en el área de deshidratado. ¿Es necesario un flujo continuo del proceso para mejorar el control de la producción?



METODOLOGÍA

Para el comienzo del análisis de la línea de producción de la Beneficiadora de Hule El Fénix (BEHULFE) fue fundamental una visita a la empresa para conocer la distribución de la planta identificar cada una de las áreas de producción y representarlo mediante un croquis entre las cuáles se identificaron un total de 12 zonas de trabajo entre las que se encuentran: el área de la materia prima, el área de corte de la materia prima, cinco áreas de lavado y triturado, el área de deshidratado, el área de cocimiento, el área de secado, el área de prensado y el almacén de producto terminado. Además, para conocer el funcionamiento de la línea se representó a través de un diagrama de flujo identificando un  inicio y un fin del proceso, se identificaron y nombraron cada una de las actividades fundamentales del proceso como la recepción de materia prima, el corte, lavado, triturado, deshidratado, cocimiento y secado del hule; y de entre estas, se identificaron dos tomas de decisiones que son: la recepción de la materia prima bajo ciertas condiciones, y por último según los resultados de la prueba de calidad realizado en el laboratorio interno de la empresa, se define el rumbo del producto terminado. Cabe mencionar, que la parte medular de esta investigación, se centra en la recolección de datos de capacidades y números de empleados en cada área de trabajo de la planta de producción, por lo que con base en un estudio de tiempos dentro de la empresa, lograron obtenerse los resultados por cada área de producción. Con base en los datos obtenidos anteriormente, se realizó un modelo de la línea de producción con ayuda del software de simulación ProModel, que al fingir el sistema nos permitió observar una réplica del proceso, aprender de él, e identificar las principales problemáticas a resolver en la línea de producción. Para el inicio de esta simulación es primordial identificar las entidades involucradas que en este caso son cuatro, las locaciones de las cuáles se identificaron 20, los arribos que generalmente es uno, y los procesos que son 18. Ya realizada la simulación del estado actual de la empresa, se identificaron 3 áreas de oportunidad de mejora continua que son el Área L2 está por debajo en aproximadamente un tercio de la capacidad mínima de entre 1000 y 1333 kg. Y las áreas HD y E, que se encuentran por debajo en un cuarto de la capacidad de entre 1000 y 1333 kg. Bajo ese método de análisis, se considera una solución más viable el aumento de la capacidad en ellas, ya que, de las 20 locaciones definidas, estas representan un 15% de la planta, por lo que se considera que es mejor realizar un aumento de ellas a reducir la capacidad en las demás áreas. Con la implementación de una mejora de este tipo podría cuadriplicarse la producción actual, ya que el flujo de entradas y salidas en cada estación de trabajo resultan similares entre sí lo que evitaría los tiempos muertos o improductivos en la planta que se traduce a ganancias económicas.


CONCLUSIONES

El presente proyecto de investigación define un rumbo posible para la mejora de la empresa BEHULFE, ya que la herramienta de simulación empleada nos permitió un análisis previo a una implementación con mayor precisión y sin interrupción del sistema real, se conoció la relación entre sus variables y se evitaron grandes costos. Por lo tanto, la hipótesis de la investigación se acepta al conseguir un aumento del flujo continuo en el área de producción, lo que se convertirá en tiempo productivo y se reflejará en ganancias económicas para la empresa justificando la inversión de un incremento de capacidad.
Zamora Martínez Susana Fabiola, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa

INVESTIGACIóN SOBRE EL DISEñO DE ESTRATEGIAS PARA EL CONTROL DE INGESTA DE MEDICAMENTOS EN PERSONAS DE LA TERCERA EDAD.


INVESTIGACIóN SOBRE EL DISEñO DE ESTRATEGIAS PARA EL CONTROL DE INGESTA DE MEDICAMENTOS EN PERSONAS DE LA TERCERA EDAD.

Zamora Martínez Susana Fabiola, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa



PLANTEAMIENTO DEL PROBLEMA

Las enfermedades crónicas son las principales causas de mortalidad en el mundo, siendo el responsable del 63% de las muertes, de las cuales la mitad son del sexo femenino. Se predice que para el 2020 las enfermedades crónicas serán responsables del 75% de las muertes en el mundo.  Por lo anterior, la presente investigación Diseño de estrategias para el control de ingesta de medicamentos en personas de la tercera edad tiene como objetivo identificar el porcentaje de personas que están dispuestas a apoyarse en una aplicación móvil para administrar y controlar sus medicamentos, de la cual se espera excelente valoración por los mismos, les sea de gran utilidad y por supuesto que dismunuya el porcentaje de mortalidad en los próximos años.



METODOLOGÍA

La investigación utilizó la metodología cuantitativa siendo las herramientas tecnológicas y de conteo fundamentales para hacer el extracto y la metodología cualitativa como parte de investigación de cómo incentivar el uso de la aplicación para las personas mayores y que esto sea un éxito en la ayuda de su tratamiento médico. Tomando en cuenta la problemática y el enfoque de la investigación se expuso cada parte que ta construye. Como primer parte fue el cálculo de la muestra probabilistica donde: N: Tamaño de la muestra e: Límite aceptable de la muestra (0.001% - 1% a  0.09 - 9%) P: Variación positiva (Cuando no se conoce se da el valor de 0.5) Q: Variación negativa z: Nivel de confianza La segunda parte fue a investigación sobre la historia del Captcha la cuál retroalimentó el conocimiento enfcado a la segurdad de la aplicación.  Como tercera parte fue la Escala de Lickert aplicada en el desarrollo del instrumento, ésta es una escala psicométrica que asume que la fuerza e intensidad de la experiencia del mercado a quien va dirigida tal aplicaión, es lineal, por lo tanto va de un totalmente de acuerdo a un totamente desacuerdo y asume que las actitudes pueden ser medidas.  Teniendo estas tres primeras partes, junto con el planteamiento del problema, la hipótesis y la justificación se procedio a realizar el desarrollo de la aplicación  en el entorno de Android Studio.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos sobre Investigación Aplicada, Temas selectos de redes y Sistemas integrales de información y ponerlos en práctca en el análisis de investigación, sin embargo el desarrollo de la aplicación es de extenso trabajo por lo que no ah llegado a manos de nuestra población meta y no se pueden mostrar los resultados obtendos. Se espera la excelente valoración de la aplicación como gran ayuda para el tratamiento médico de las personas.
Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan
Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara

OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES


OPORTUNIDADES DE DIGITALIZACIóN DE MIPYMES

Hernández Ramírez María Goretti, Universidad de Guadalajara. Lopez Mercado Lizbeth Guadalupe, Instituto Tecnológico Superior de Uruapan. Rangel Barriga Hugo, Instituto Tecnológico Superior de Uruapan. Solis Gayosso Diego Isidro, Instituto Tecnológico Superior de Huauchinango. Zamora Zambrano Karla Jacqueline, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Luis Antonio Delgadillo Gutierrez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, las micro, pequeñas y medianas empresas en México se enfrentan a un proceso de cambio a la cuarta revolución industrial tecnológica, también conocida como Industria 4.0, considerándose un gran reto debido a la falta de conocimiento, aplicación y difusión del tema. En consecuencia, las empresas deben adoptar nuevos conceptos que engloban una gran variedad de tecnologías que digitalicen los procesos. La digitalización ocurre cada vez más rápido, por lo tanto las empresas cambian la forma de hacer negocios y modifican procesos, aquel que no reinventa o innova, es dejado atrás por los competidores y el mercado, considerándose éste el problema. Es por la rápida digitalización que la resolución a nuestra problemática se enfoca en elaborar un instrumento para estimar el grado de madurez tecnológica que tiene una empresa y así saber cuáles son las áreas de oportunidad en las que se pueden implementar nuevas técnicas que aumenten la eficiencia, mejoren la calidad e impulsen la innovación hacia la industria 4.0, además de usar diferentes herramientas correspondientes al Estudio de Métodos con el fin de conocer los procesos para establecer formas de hacerlo mejor.



METODOLOGÍA

La investigación fue la parte fundamental para llevar a cabo este proyecto, realizada en las primeras semanas del programa con el propósito de obtener fundamentos sobre diferentes teorías que serían aplicadas más adelante. A fin de comenzar con el tema de la investigación, se incursionó sobre las revoluciones industriales que anteceden a la cuarta, comprendiendo gracias a las causas de cada revolución que para poder avanzar hacia i4.0, las empresas deben contar con procesos eficientes en su producción, de manera que estos lleguen a producir más con menos. Para lograr lo anterior, utilizamos como apoyo diferentes herramientas de gestión comenzando por el análisis de planta a través de la construcción de un layout, diagramas de proceso, de flujo, de recorrido, de hilo, de relación de actividades y la aplicación de 5’s; además de investigar sobre distintos conceptos como función de la producción, la teoría de las restricciones, teoría de los recursos y las capacidades, la frontera de posibilidades de producción, gestión del conocimiento, entre otros más, con el fin de saber cómo sería la empresa modelo. Teniendo el conocimiento de las distintas teorías mencionadas, comenzamos a elaborar el diagnóstico, como se requería saber el nivel de digitalización y sus áreas de oportunidad, analizamos todos los aspectos posibles en los que se podía preguntar para que los resultados a los reactivos nos arrojaran información precisa y concreta donde existían posibilidades de mejora. Las dimensiones seleccionadas para la herramienta diagnóstico son: administrativo, capital humano, operativo, de control, estrategia y de tecnología y digitalización. El diagnóstico y las diversas metodologías utilizadas fueron las herramientas de trabajo ideales para la investigación con el objetivo de visualizar la trayectoria a seguir por cada empresa en la fusión de la tecnología física con el mundo digital, hablando a futuro, debido a que como primer paso se considera la mejora en la distribución de planta y en sus procesos con el propósito de elevar la productividad, conseguir una mayor producción y al mismo tiempo nos reflejó el estado actual de la empresa y sus áreas de oportunidad.  La digitalización es un gran paso para las empresas y con ayuda de este diagnóstico se espera que se obtengan los resultados que nos indiquen cuales son las carencias de la empresa, para que se pueda actuar y resolverlas, con el objetivo de se tenga una trayectoria a seguir hacia la digitalización, para ofrecer producto de mayor calidad, tener clientes satisfechos y que se siga innovando para estar al día con las tecnologías o necesidades de los clientes.


CONCLUSIONES

Durante la estancia de investigación logramos adquirir nuevos conocimientos respecto a Industria 4.0 y todo lo que conlleva cumplir con los estándares necesarios que ésta requiere para poder alcanzar la digitalización en MiPyMes. Dentro del proyecto se consiguió visitar una pequeña empresa local en la ciudad de Guadalajara, Jalisco, con el fin de analizar y poder aplicar los conocimientos que se obtuvieron en la metodología, aunque al momento sólo se pudieron aplicar las herramientas de Estudio de Métodos, se espera también aplicar el cuestionario. Con ayuda de las herramientas de Estudio de Métodos se analizó el proceso de una empresa dedicada a la producción de válvulas para inyectores diesel; dentro del proceso intervienen distintas máquinas para obtener el producto final; el layout nos brindó información sobre si la distribución de la planta es adecuada; los diagramas se hicieron con el objetivo de mostrarnos si el recorrido del producto desde la llegada al sistema como materia prima hasta la salida en producto terminado es el óptimo, en cuanto a distancias recorridas; se aplicaron 5’s de acuerdo a las condiciones en las que se encontraba la empresa y de acuerdo a lo que nos arrojó el estudio de sus procesos, se considera que no se tiene una buena organización y limpieza del área de trabajo. Obteniendo resultados del análisis previo, se utilizará el cuestionario para lograr analizar las oportunidades, debilidades, fortalezas y amenazas a las que están susceptibles la empresa y se espera generar un nuevo modelo industrial en el que la innovación sea colaborativa, los medios productivos estén conectados y sean completamente flexibles así como que las cadenas de suministro estén integradas. Una vez adquiriendo los resultados de las dimensiones y siendo éstas calificadas conforme a la escala Likert, se vaciaron las respuestas en un formato de Excel hecho sólo con el fin de evaluar cada dimensión y arrojando el nivel o porcentaje de avance que se tiene en la empresa respecto a esa área, para finalmente analizar o determinar cuál es la dimensión en la que más existe un área de oportunidad y avance, pero sobre todo enfocado hacia la i4.0.
Zapata Herazo William Gustavo, Universidad de la Costa (Colombia)
Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit

EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT


EDUCACIÓN AMBIENTAL ENFOCADO A LOS RESIDUOS SÓLIDOS URBANOS PARA EL DESARROLLO SUSTENTABLE EN TEPIC, NAYARIT

Duran Castiblanco Marielena, Universidad de la Costa (Colombia). Farfán Michaca Ulises, Instituto Tecnológico de Cuautla. Zapata Herazo William Gustavo, Universidad de la Costa (Colombia). Asesor: Dr. Claudia Estela Saldaña Durán, Universidad Autónoma de Nayarit



PLANTEAMIENTO DEL PROBLEMA

Los residuos sólidos urbanos (RSU) son todos aquellos que provienen de las actividades diarias ya sea del hogar o de la industria como resultado de descartar materiales que se utilizan en dichas labores o los que provienen también de otras actividades tales como resultantes de la limpieza de las vías públicas. (DOF, 2003). Es decir, los RSU son todos aquellos desechos que proceden de actividades humanas que son normalmente sólidos y que se desechan como inútiles o indeseados como por ejemplo los productos de consumo, envases, embalajes, etc. La problemática ambiental se manifiesta con la escasez de los recursos naturales por la presión a estos para satisfacer las necesidades. El crecimiento de las ciudades causado por el desarrollo económico y el ritmo de vida actual con el que las personas viven ha prohijado un constante y desmedido aumento en la producción de RSU. Estas formas de consumo, son cuestionadas no solo por el manejo de los residuos sólidos urbanos, si no por los impactos ambientales, sociales, culturales, económicos y políticos que se derivan. Se habla de que la cantidad de RSU por cada mexicano es de 2.5 kg por día; estudios como el de SMA, D. F (2010) constatan que realizando una buena clasificación, tratamiento y reutilización se reduce en un 80% la generación de residuos. La ciudad de Tepic, Nayarit es una de las tantas capitales en el país de México que presenta problemas a la hora de disponer debidamente sus RSU. Presenta deficiencias desde el momento de su separación en la fuente hasta su tratamiento (el cual es nulo) en el Relleno Sanitario El Iztete debido a que no cuentan con la infraestructura adecuada, es decir, una planta de tratamiento y aprovechamiento de residuos sólidos, además de que este ya rebaso sus límites de capacidad. En tal sentido es conveniente preguntarse ¿Es factible realizar programas de educación ambiental continuos sobre el manejo de los RSU para el desarrollo sustentable en Tepic, Nayarit?



METODOLOGÍA

La metodología utilizada es la investigación participación y acción, debido a que se tiene en cuenta con la colaboración de agentes en busca de un mismo fin para intervenir en problemas sociales con el objetivo de una transformación social; igualmente es perceptual y cualitativa, debido a que implica la recopilación de datos a través de encuestas, además presenta en forma secuencial, organizada y clara los diferentes pasos efectuados para el desarrollo del proyecto, asimismo de la observación de las distintas muestras obtenidas. Para el presente se realizó una investigación sobre las problemáticas que causan los residuos sólidos urbanos, los efectos e impactos que estos generan al ambiente, economía, sociedad, cultura y política, con el fin de generar capacitaciones para el personal administrativo de la Universidad Autónoma de Nayarit (UAN) y a colonias aledañas a ella, y con ello hacer entender la importancia de la recolección, clasificación, reutilización y valorización de los residuos sólidos; asimismo se generó un taller de compras con el fin de crear conciencia sobre como mercar con responsabilidad los productos de subsistencia para así disminuir la generación de residuos sólidos urbanos en la ciudad de Tepic, Nayarit. Asimismo, se desarrolló un programa de actividades con el personal administrativo de la UAN y la colonia Indeco, el programa consistió de tres etapas desarrolladas a lo largo de seis semanas, el objetivo fue sensibilizar, concientizar y capacitar al personal administrativo de la UAN y a la colonia Indeco de la ciudad de Tepic, Nayarit sobre el cuidado del medio ambiente; para la sensibilización se definió el problema central e identificaron las causas y efectos de los diferentes impactos ambientales negativos que pueden ser atribuidos a la mala gestión de los RSU, además se notificó a los presentes sobre la situación actual del manejo de los RSU en la ciudad y las condiciones del relleno sanitario Iztete, para ello fue presentado un video en el cual se mostraba el entorno real del planeta; se trabajó la parte de concientización en el cual se analizaron las causas que propician la excesiva generación de residuos y alternativas para su reducción, se determinaron las acciones cotidianas en las cuales se consumen con exceso productos envasados en materiales inorgánicos como el plástico; se llevó a cabo la capacitación de los asistentes con ayuda de un taller de compras para estimular a la reflexión y análisis sobre la problemática ambiental y de tomar parte en el correcto manejo de los RSU, además de proporcionar información sobre cómo obtener compostaje con los residuos orgánicos, como ayudan y que se puede hacer con estos. De la misma forma, se tuvo en cuenta la aplicación del método Delphi el cual consiste en obtener una información que permite obtener la opinión de un grupo de expertos a través de la consulta reiterada. En base al puntaje de cada evaluador se puede inferir en el consolidado que componente es el de mayor importancia para el proyecto. Igualmente; se realizara una investigación considerando la problemática ambiental para identificar el lugar más perjudicado por esta, con el propósito de determinar el área de aplicación del proyecto, considerando las zonas de trabajo, influencia directa e indirecta, por último se ejecutara una matriz de importancia con ayuda de la metodología descrita por Conesa, en la cual se establece los criterios y puntajes que se deben tener en cuenta para su realización como lo son: su naturaleza, intensidad, extensión, momento, persistencia, reversibilidad, sinergia, acumulación, efecto, periodicidad, recuperabilidad, importancia; con el fin de especificar su identificación, es decir, si son impactos irrelevantes, moderados, severos o críticos


CONCLUSIONES

Durante la estancia se aplicó la metodología DELPHI con la cual se determinó que el suelo es el que más se está afectando por la problemática de los RSU, en segundo lugar, se encuentra la matriz agua por los daños que los lixiviados le pueden causar a ríos cercanos al relleno sanitario El Iztete y en último lugar se encuentra el componente aire por las emisiones de gases de efecto invernadero provenientes de los residuos. Al tratarse de una investigación que requiere de la participación y colaboración del personal administrativo de la UAN aún no se han demostrado los resultados de las capacitaciones en el campus de la universidad ya que se encuentran en periodo de vacaciones, por otro lado, la capacitación realizada en las poblaciones aledañas si han mostrado buenos resultados, debido a que separan correctamente los residuos aprovechables de aquellos que no lo son, lo mismo se espera para el área administrativa de la UAN.
Zarate López Miryam Joselyn, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor: Dr. Juan Serrano Arellano, Instituto Tecnológico Superior Huichapan

INFORME TéCNICO DE LA ESTANCIA DE INVESTIGACIóN


INFORME TéCNICO DE LA ESTANCIA DE INVESTIGACIóN

Ramírez Ocampo Jesús Emerith, Tecnológico de Estudios Superiores de Valle de Bravo. Zarate López Miryam Joselyn, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Juan Serrano Arellano, Instituto Tecnológico Superior Huichapan



PLANTEAMIENTO DEL PROBLEMA

Durante el periodo de la estancia de investigación se pretende dar solución a problemas de ingeniería a través de herramientas computacionales como son los software OpenFoam, Energy plus y Open Studio, dichos programas permiten el estudio de dinámica de fluidos computacionales, bioclimática y la eficiencia energética de una construcción. Se analizaron diferentes casos de estudio uno de ellos basado en una construcción de dos pisos con garaje, se pretende realizar modificaciones a la vivienda con el fin de observar los resultados en la eficiencia energética, así como los datos sobre las temperaturas obtenidas con la simulación. Para el caso de estudio en OpenFoam se analiza los ficheros necesarios para realizar una simulación del movimiento de un fluido encerrado en una cavidad con una superficie deslizante.



METODOLOGÍA

Para el desarrollo de los problemas planteados se usaron dos metodologías cada una explicada a continuación. Una vez elegido el procedimiento de trabajo con SketchUp y Open Studio el proyecto se organiza en tres etapas según el programa que se ha utilizado en cada momento. Se comenzó con el software de diseño gráfico SketchUp con el que se construyeron todos los elementos geométricos. A continuación, se empleó el programa Open Studio con el que se añadieron las características de los objetos interiores al diseño ya construido, dejando el modelo preparado para ser simulado. Finalmente se recurrió al programa Energy Plus para que actuara como último corrector del modelo y motor de cálculo para obtener los resultados. La metodología utilizada para el software OpenFoam, fue la metodología para el análisis de sistemas, ya que se examinó la estructura de las carpetas y los archivos necesarios para generar una simulación en el software, entre estos archivos se establecen los valores de presión, velocidad, temperatura, viscosidad del fluido, estructura por la cual pasará el fluido, entre otros.


CONCLUSIONES

Finalmente, después de realizar las modificaciones correspondientes en los casos de estudio, se logro obtener variaciones en la temperatura en el interior de las construcciones. La instalación del software genero problemáticas pues el proceso de compatibilidad fue muy amplio, sin embargo, al dar solución a ellas permitió generar los resultados requeridos para las simulaciones. Como ya se ha mencionado, OpenFoam es un software de código abierto que estudia el comportamiento de los fluidos. Tiene múltiples aplicaciones para resolver problemas relacionados con la dinámica de fluidos, como reacciones químicas, turbulencias, transferencias de calor o electromagnetismos. Después de haber analizado los componentes básicos para la generación de una simulación, se realizó un manual detallando el nombre y ubicación de dichos ficheros para su futura implementación en la solución de diferentes problemas.
Zendejas López Alfonso, Instituto Tecnológico Superior de Apatzingán
Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)

DEVOPS COMO METODOLOGíA PARA INTERNET DE LAS COSAS E INDUSTRIA 4.0


DEVOPS COMO METODOLOGíA PARA INTERNET DE LAS COSAS E INDUSTRIA 4.0

de León Pérez Omar Eduardo, Instituto Tecnológico de Toluca. Zendejas López Alfonso, Instituto Tecnológico Superior de Apatzingán. Asesor: Dr. Paul Adolfo Sanmartin Mendoza, Universidad Simón Bolivar (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El internet de las cosas (IoT, por sus siglas en inglés) es un sistema de dispositivos de computación interrelacionados, máquinas mecánicas y digitales, objetos, animales o personas que tienen identificadores únicos y la capacidad de transferir datos a través de una red, sin requerir de interacciones humano a humano o humano a computadora. Una cosa, en el internet de las cosas, puede ser una persona con un implante de monitor de corazón, un animal de granja con un transpondedor de biochip, un automóvil que tiene sensores incorporados para alertar al conductor cuando la presión de los neumáticos es baja, o cualquier otro objeto natural o artificial al que se puede asignar una dirección IP y darle la capacidad de transferir datos a través de una red. Debido a que conectar diversos dispositivos a internet, esto tiene como limitante la conexión de las áreas porque el Internet de las cosas es una combinación de todas las áreas, lo cual puede presentarse como el fracaso del proyecto. Se busca probar la metodología de DevOps para determinar sus beneficios y ventajas ante otras opciones. Además de determinar las mejores herramientas para el desarrollo de ésta.



METODOLOGÍA

La metodología utilizada en este proyecto es DevOps pues en esto se basa la investigación completa. DevOps se trata de procesos de desarrollo y aprovisionamiento de negocios rápidos y flexibles. Integra de manera eficiente el desarrollo, la entrega y las operaciones, lo que facilita una conexión fluida y magra de estos silos tradicionalmente separados.  DevOps prioriza el trabajo como una sola entidad en lugar de trabajarlo por áreas separadas, de tal manera que todas las funciones estén trabajando entrelazadas como un cambio organizativo de información. Se puede definir directamente como una colaboración entre desarrollo, control de calidad y las operaciones. Así configuran solo la entrega continua de pequeñas actualizaciones Así, esta metodología propone los principios necesarios para integrar las distintas áreas que están cerca de la Industria 4.0. Se ha hecho una investigación sobre los principios básicos de esta metodología. Se ha realizado una investigación sobre las herramientas existentes que puedan apoyar a esta metodología, además de descubrir sus etapas y sus diferencias. Posteriormente se generaron pruebas de Docker y Kubernetes en sistema operativo MacOS para comprender mejor el uso de las herramientas utilizadas.


CONCLUSIONES

No existe una herramienta que sea en definitiva la mejor para el trabajo. La decisión sobre la mejor opción recae en las necesidades del equipo de trabajo.  Después de detenernos a revisar las herramientas existentes y lo que un ingeniero de nuestra área deberá realizar hemos llegado a la conclusión de que Jenkins y Docker son la mejor opción, no sólo porque ya está el soporte para estas dos plataformas, sino porque se llevan a la perfección juntas, además, grandes proyectos y empresas las utilizan porque son de las mejores opciones de código abierto. Existe la opción de kubernetes, sin embargo, para llevar a cabo kubernetes se necesita comprender una arquitectura más completa, pues este contenedor se basa en la implementación y aunque no debes pensar en cómo albergarla, sí se debe establecer completamente antes de trabajarla, así que deberíamos adecuarlo al proyecto. Al usar Docker ya se adapta directamente a Jenkins y también queda perfecto para los microservicios. Y con estas dos herramientas se llevan a cabo la mayor parte de las tareas del revólver del modelo trabajo de DevOps. Precisamente uno de los aspectos que se debe buscar a la hora de trabajar con herramientas de DevOps, es la integración entre ellas porque eso permitirá que el ambiente de trabajo sea más eficiente y óptimo para el desarrollo de software y la entrega e integración continua de las aplicaciones.
Zepeda Andraca Jose Alberto, Universidad Autónoma de Guerrero
Asesor: Dr. Anabel López Ortiz, Universidad Nacional Autónoma de México

ANáLISIS DE LA TRANSFERENCIA DE MASA Y CALOR DURANTE LOS PROCESOS DE SECADO


ANáLISIS DE LA TRANSFERENCIA DE MASA Y CALOR DURANTE LOS PROCESOS DE SECADO

Zepeda Andraca Jose Alberto, Universidad Autónoma de Guerrero. Asesor: Dr. Anabel López Ortiz, Universidad Nacional Autónoma de México



PLANTEAMIENTO DEL PROBLEMA

En el Instituto de Energías Renovables de la Universidad Nacional Autónoma de México, ubicada en Temixco, estado de Morelos, México, (18 ° 51'N latitud, 99 ° 14'W longitud). Se implementó GHD que permite el secado de semillas, frutas y verduras. Con una estructura de Tipo cúpula y se adaptaron sensores de temperatura y humedad colocados en diferentes lugares como paredes, mesas y en la entrada del de aire caliente a interior de la cámara y a la salida del mismo. Los sensores fueron conectados a un adquisidor de datos, para ver los registros, cambios y comportamiento del flujo de aire en paralelo a las mesas de que se adaptaron para el proceso de secado de las hojas de albahaca (Ocinum basilicum).   El secado en la actualidad ya es una operación importante utilizada en el proceso conservación de alimentos. A través de la transferencia de energía y masa se calienta el interior de una cámara la cual fomenta la producción de vapor de agua. Al interior se produce un efecto invernadero en un sistema semi y controlado el cual tiene expulsar el exceso de humedad y energía excedente dependiendo del tipo de secador que emplea para este proceso. El secado es altamente consumidor de energía que es proporcionada por combustibles fósiles o materia prima no renovable o en su caso utilizando la energía  limpia como la solar. Existen diferentes tipos de secadores activos acoplados a un sistema de calentamiento de aire solar que han sido probados (Azaizia et al., 2017). Sin embargo, el tiempo de secado y la calidad tiene que ser mejoradas (Diamante y Munro, 1993; Sonmete et al. 2017). Además, es necesario calcular los coeficientes de transferencia de calor y masa para poder modelar considerando el tiempo y la temperatura de este tipo de secado de efecto invernadero (GHD)



METODOLOGÍA

Se plantea un diseño experimental en la estructura de un invernadero tipo capilla,  conectado a un sistema térmico solar con tres colectores planos de placa plana para el calentamiento del aire y un ventilador para introducir y distribuir de manera uniforme el aire en  la cámara de secado.  La cual  tiene dos entradas y dos salidas, colocados a la altura de 1 metro,  también cuenta con un total de 16 sensores distribuidos de la siguiente manera; 2 en las entradas y 2 en las salida del aire caliente y humedad relativa, 2 distribuidos proporcionalmente en cada mesa siendo dos mesas de 4 metros de largo teniendo una separación de 0.70 metros de la pared , 2 en la pared frontal  a una altura de 2 metros y en la pared trasera a 2 metros de altura y 4 suspendidos  sobre los sensores ubicados en las mesas. Para el análisis  de transferencia de calor y masa, en un secador de efecto invernadero convectivo, (GHD) el cual utiliza la irradiancia solar para calentar el aire directamente. También se utilizaron números adimensionales (Nu, SH, Sc, Re, B). Tomando en cuenta el balance energético de la tasa de acumulación de energía térmica en el producto que es igual a la tasa de energía térmica transferida por convección (q_do) entre el aire caliente circundante y la superficie solida + la velocidad de la energía térmica transferida por incidencia de la irradiancia solar sobre el sólido (q_r)  + la tasa de la energía térmica transferida entre el producto y el entorno debido a la radiación del solido (q_r2)  + la tasa de perdida de energía del producto debido al calor latente (q_v) más la perdida de calor debido a la conducción en el producto (q_k) más las perdidas circundantes (φ). Se tomaron las siguientes características: El efecto de contracción durante el secado. La temperatura y contenido de humedad al principio del secado. Coeficientes de Transferencia de masa y calor. La masa conectiva (h_m), calor (h_H) y Coeficientes para flujo extremo se estimaron para las placas planas sumergidos en un flujo (aire) de acuerdo a las relaciones empíricas. Donde los números adimensionales de Prandtl (Pr), Reynolds (Re) y Schmidt (Sc) de acuerdo con las ecuaciones. Las correlaciones empíricas que fueron utilizadas para el caculo de la conductividad, viscosidad y difusividad molecular para el aire, agua y el aire húmedo. Coeficientes de transferencia de calor por radiación. Este coeficiente  de transferencia de radiación entre el producto y el material de recubrimiento (hr) se calcularon de acuerdo con Duffie y Beckham 2013. La admisibilidad de  la albahaca utilizada para los cálculos fue de 0.96 (Duda, y otros 2017).La absortencia fue de 0.84 (tatami y otros 2014). Los datos recabados demuestran la dependencia a la incidencia solar y el incremento en la temperatura, el cual hace más largo el tiempo de secado en este proceso. Los datos fueron recabados en el adquisidor y promediados de una forma manual en hojas de cálculo de Excel con un intervalo de 20 minutos hasta el final de la prueba. Teniendo un valor inicial de albahaca de 7.021± 0.001kgw/kg en el tiempo secado en el GHD fue de 330 minutos con una humedad del 15%.   Las formulas  del modelado  y resultados obtenidos sirvieron para  hacer el  análisis y  se comparó con la plataforma de Wolfram Mathematica 12, en el cual se programaron las mismas formulas y se importaron los datos iniciales promediados del archivo de Excel a esta plataforma, siendo mínimas las diferencias entre ambos resultados.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos teóricos. Y así poder determinar con los coeficientes de transferencia de calor con una mayor precisión y aumentar su eficiencia de secado  teniendo en cuenta la cantidad de energía generada dentro del sistema y siendo transportado al interior de la cámara obteniendo la cantidad real demandada para este fin.
Zepeda Garcia Yajaira, Universidad de Guadalajara
Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)

ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING


ANÁLISIS DE POTENCIALES RELACIONADOS A EVENTOS (PRES) Y RASTREO DE MIRADA EN ETIQUETAS DE CREMA DE RON: UN ESTUDIO DE NEUROMARKETING

Chávez Sánchez Manuel, Universidad de Guadalajara. García López Rogelio Guillermo, Universidad de Guadalajara. Zepeda Garcia Yajaira, Universidad de Guadalajara. Asesor: M.C. Laura Rocío Giraldo Torres, Universidad Autónoma de Manizales (Colombia)



PLANTEAMIENTO DEL PROBLEMA

En el ámbito social y comercial, se sabe que el mercadeo es una parte fundamental en el comercio, en cualquiera de los entornos comerciales en los que nos desenvolvemos. Desde automóviles, marcas telefónicas, entretenimiento deportivo, ropa, etc.; en cada ámbito comercial existió previamente una investigación en la que las grandes compañías analizan el objetivo de su producto, las ventajas que ofrece, las novedades que trae y sobretodo, se analiza la forma en que se ofrece dicho producto a los consumidores. En este estudio, hablaremos de un concepto relativamente nuevo, que ha ido apareciendo en la mercadotecnia gracias a la tecnología, el Neuromarketing aproximadamente desde los años 1971. Esta rama, que combina la ciencia biomédica con la mercadotecnia, trata de analizar los distintos potenciales bioelétricos, al reaccionar a diversos estímulos utilizados en la mercadotecnia, por ejemplo: colores, anuncios, melodías, empaques, y muchas otras herramientas utilizadas en la comercialización de un producto específico.  En este contexto científico, colocamos la siguiente investigación, enfocada a la obtención de potenciales relacionados a eventos y rastreo de mirada, en este caso en colaboración con una Compañía Licorera Nacional, para la elección de etiqueta de uno de sus productos, la crema de ron.   OBJETIVO GENERAL Obtener y caracterizar las señales de Rastreo de mirada y Potenciales Relacionados a Eventos en un protocolo de Neuromarketing para la elección de una etiqueta de Crema de Ron.



METODOLOGÍA

El proyecto desarrollado se dividió en 3 fases: Para la fase 1 se hizo uso del software Spyder® para realizar la presentación aleatoria de 6 estímulos correspondientes a 3 etiquetas diseñadas por el productor de la crema de ron. La fase 2 consistió en la adquisición de las señales de 12 personas divididas en dos grupos de edad: de 20-30 y de 30-40 años, para lo cual se diseñó un protocolo que incluía el consentimiento informado, la encuesta, la conexión de 22 electrodos superficiales en el cuero cabelludo para la toma del EEG y la conexión del dispositivo Eye Tribe para registrar los puntos de mirada. Las señales del sujeto se obtuvieron antes y después de la degustación del producto. En la fase 3 del proyecto, se desarrolló una interfaz en el programa Matlab® la cual permitió caracterizar las señales de los sujetos.


CONCLUSIONES

El proyecto desarrollado permitió demostrar la eficacia del relacionamiento de las técnicas de Electroencefalografía, Eye Tracking y su complemento con instrumentos como encuestas, para los análisis del comportamiento de las personas en la persuasión a través del neuromarketing; lo cual es congruente con estudios previos encontrados en la literatura. Este tipo de estudios de neuromarketing pretenden convertirse en una herramienta primordial en las industrias comerciales, a través del estudio de la influencia cognitiva de las imágenes. De igual manera al reunir todos los datos capturados en esta investigación se espera tener una mayor certeza respecto cuál sería la mejor opción de etiqueta para la botella de la crema de ron estudiada. RESULTADOS Entre los resultados de las actividades de investigación realizadas en la pasantía, se obtuvo el desarrollo de 2 herramientas computacionales, la primera que permite la estimulación de los sujetos al presentar cada estímulo 30 veces de manera aleatoria, la segunda, correspondiente a la interfaz de usuario que permite el análisis de las señales a través de la obtención, filtrado y promediado de los datos de cada imagen. Los análisis que permite realizar la segunda herramienta computacional desarrollada, incluyen la discriminación de las diferentes frecuencias cerebrales (asociadas a actividades cognitivas específicas) y de los canales de los cuales se captura la información, además de sincronizar los datos de Potenciales Relacionados a Eventos con los datos de Rastreo de Mirada, de forma que presente al profesional de mercadeo los puntos de interés de las etiquetas que diseñaron.  
Zerpa Gonzalez Aranza, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: C. Luz Marina Flórez Pardo, Universidad Autónoma de Occidente (Colombia)

DETERMINACIóN DE LA CONCENTRACIóN óPTIMA DE PANELA COMO FUENTE DE AZúCAR EN MEDIO DE CULTIVO PARA EL CRECIMIENTO DE LEVADURAS


DETERMINACIóN DE LA CONCENTRACIóN óPTIMA DE PANELA COMO FUENTE DE AZúCAR EN MEDIO DE CULTIVO PARA EL CRECIMIENTO DE LEVADURAS

Esquivel Barriga Flor Alexia, Universidad Michoacana de San Nicolás de Hidalgo. Zerpa Gonzalez Aranza, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: C. Luz Marina Flórez Pardo, Universidad Autónoma de Occidente (Colombia)



PLANTEAMIENTO DEL PROBLEMA

El mucílago del café representa alrededor del 14,85% del peso del fruto fresco (López, 2017). En Colombia, por cada millón de sacos de 60 kg de café almendra que se producen, se generan aproximadamente 55.500 toneladas de mucílago fresco por año y de esta producción se vierten aproximadamente 788,000 toneladas de residuos en toda Colombia, lo cual afecta directamente a diversas corrientes hídricas. Lo mencionado anteriormente, genera una alta Demanda Bioquímica de Oxigeno (DBO) (21.41 ton DBO/día) y de Total de Sólidos en Suspensión (11.24 ton SST/día), esto equivale al 12% de la carga de DBO y al 9% de la carga de SST que impactan negativamente en el río Cauca en su paso por el departamento del Valle del Cauca (CONPES, 2009). La panela es un producto artesanal obtenido por la deshidratación de jugos de caña de azúcar. Es comúnmente clasificado como azúcar de caña no-centrifugado por la Organización de las Naciones Unidas para la Agricultura y Alimentación  y el origen de esta clasificación se basa en que, a diferencia del azúcar refinado, la panela no incluye la etapa de centrifugación en donde se retiran compuestos fenólicos, minerales, vitaminas y micronutrientes, los cuales permanecen en ella confiriéndole ventajas nutricionales (Jaffé, 2012).



METODOLOGÍA

Se prepararon los medios de cultivo (10% y 15% de concentración de panela, respectivamente, ajustados a un pH de 4.2) para posteriormente esterilizarse junto con la cristalería en autoclave. Una vez atemperado el medio se inocularon 0.05 gr de levadura liofilizada por cada 100 ml de agua destilada y se llevan a incubar a una temperatura de 30° C durante 24 horas, en agitación constante de 130 RPM. Se realizaron dos repeticiones por cada medio de cultivo. Se tomaron muestras de 2ml cada hora, las cuales fueron analizadas por los siguientes métodos:  •Espectrofotometría UV: Para este método se utilizó 1.5 ml de muestra y se midió la absorbancia a una longitud de onda de 640nm, utilizando como blanco el medio de panela sin inocular al 10% y 15% dependiendo a que concentración pertenecía la muestra. •Conteo en cámara de Neubauer: Para este método se mezclaron 50µL de muestra con 50µL de una solución de azul de metileno que permite distinguir células viables de células muertas. Se descargaron 20µL de la mezcla en la cámara y se observo al microscopio a 40X. Se realizo el conteo en 5 cuadrantes.


CONCLUSIONES

1.-  El valor mayor de número de células viables más alto, se encontró en el medio de panela al 10%, existiendo una diferencia de 225 mil células entre los dos tratamientos. 2.- Se observó un mayor acoplamiento de la levadura en el medio con 10%, al mantener una concentración celular constante durante 7 horas. 3.- Se encontró que mediante espectrofotometría la variación de absorbancia del tiempo cero al tiempo final es mayor en el medio de 15% de panela, lo cual indica una mayor densidad celular, sin embargo, no está relacionado con una mayor viabilidad celular. 4.- El coeficiente de determinación de la curva de calibración de panela al 10% es más cercano a 1, por lo tanto, predice extrapolaciones más confiables, sin embargo solo puede ser aplicada a muestras problema que presenten una absorbancia de 0.410 a 0.500.
Zinzun Acuña Karla Guadalupe, Instituto Tecnológico Superior Purépecha
Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán

DISEñO DE UN MODELO DE CONTROL DE INVENTARIOS PARA MINIMIZAR LOS COSTOS DE ALMACENAJE EN UNA EMPRESA FARMACéUTICA


DISEñO DE UN MODELO DE CONTROL DE INVENTARIOS PARA MINIMIZAR LOS COSTOS DE ALMACENAJE EN UNA EMPRESA FARMACéUTICA

Zinzun Acuña Karla Guadalupe, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán



PLANTEAMIENTO DEL PROBLEMA

La falta de una buena logística puede afectar a la empresa, ya que esta tiene como principal objetivo  la planificación y gestión de todas las operaciones que están directamente relacionadas con el flujo de materias primas, productos semielaborados y productos terminados, desde su origen hasta el consumidor final, de la misma manera la logística desempeña un papel fundamental en la gestión de las actividades de almacenaje y transporte, ya que estos sirven de enlace entre los centros productivos y los mercados que están separados por el tiempo y la distancia. Dentro de la cadena de suministro, la logística sirve para la planificación, gestión y control del almacenamiento de bienes, así como los servicios necesarios y el flujo de información generada, que va desde el punto de origen del producto hasta el punto de consumo, y cuyo objetivo es cubrir la demanda de los consumidores. Durante la estancia de verano en el Tecnológico de Estudios Superiores de Jocotitlán, en el Estado de México se estudia una empresa Farmacéutica con una problemática de rotación en su inventario, y de la misma manera esta empresa  necesita una redistribución de sus  materias primas para  minimizar el tiempo de despacho y así optimizar el tiempo ciclo dentro del almacén. Al no contar con una buena rotación en su inventario esto hace que se genere en ocasiones pérdidas de tiempo y dinero.



METODOLOGÍA

Primeramente se necesita estudiar los conocimientos teóricos del estado del arte de la administración de inventarios, y poder conocer los diversos inventarios que existen.  Se debe leer y analizar la NOM-059, ya que esta norma trata de las buenas prácticas de fabricación de medicamentos y del área de elaboración de los mismos. Una vez conocido el estado del arte de la administración de inventarios y la NOM-059 se visitara la empresa farmacéutica, para posteriormente documentar la situación en la que se encuentra la antes mencionada. Se le solicitara a la empresa proporcionar información confidencial para analizar la situación de los inventarios más afondo y no solo quedarse con lo visual. Finalmente se documentaran las propuestas para el buen funcionamiento del inventario, para ello es necesario tener una reunión con los dueños de la empresa y darles a conocer las propuestas de mejora que se tienen para que se determine la decisión más adecuada respecto a su implementación.


CONCLUSIONES

Durante la estancia de verano se logró adquirir conocimientos tanto teóricos como prácticos respecto al conocimiento de logística y cadena de suministros. Me gustó mucho el poder ser parte de este proyecto, ya que enriqueció mis conocimientos y me hizo crecer aún más como persona. Este proyecto me hizo tener un conocimiento más amplio respecto a las situaciones que viven día a día las empresas, y el cómo es que se tiene que enfrentar un ingeniero industrial a estos problemas con los que cuentan dichas empresas  y el poder tener la capacidad de resolverlos. Los resultados que se esperan obtener es mejorar la rotación del inventario de la empresa farmacéutica y redistribuir las materias primas  para así minimizar y agilizar el tiempo de despacho para posteriormente el tiempo ciclo dentro de almacén sea mínimo y no se generen pérdidas de tiempo ni dinero.
Zuñiga Rivera Yafte Ricardo, Instituto Tecnológico de Lázaro Cárdenas
Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla

OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN


OBTENCIóN DE BIOETANOL A PARTIR DE BIOMASA DE SEGUNDA GENERACIóN PARA SUSTITUIR LA PILA DE UN DRON EN LA AGRICULTURA DE PRECISIóN

Cano Valdivieso Samara Michell, Universidad Veracruzana. Orozco Ramirez Oscar Francisco, Instituto Tecnológico de Lázaro Cárdenas. Zuñiga Rivera Yafte Ricardo, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Hoy en día el uso de drones ha tenido un gran impacto en la agricultura de precisión, donde se requieren métodos más eficientes para sembrar y no desperdiciar las semillas garantizando un ahorro al productor y una sustentabilidad en el suelo.  Sin embargo el uso de combustibles fósiles en sus baterías genera una gran cantidad de emisiones de gases de efecto invernadero  hacia la atmosfera, además de producir óxidos como resultado de la combustión por lo que con este trabajo se busca hacer uso de bio-etanol como combustible aplicado a una celda que trabaja a partir de hidróxido de potasio como electrodo para así obtener un voltaje que sea capaz de mover o alimentar dicho drone.



METODOLOGÍA

Para esta investigación se estuvo trabajando primeramente en las destilaciones de diferentes alcoholes obtenidos de procesos de fermentación con deshechos frutales altos en azúcar, como son: plátano, manzana, uva, tamarindo, mango y naranja. Así mismo, de estos alcoholes se determinaban mediante pruebas físicas la conductividad que producian, para así trabajar con el mejor bio-etanol posible. También se realizaban mediciones del pH que estos arrojaban. Posteriormente se realizaron pruebas en la celda de combustible que se tenía presente en el laboratorio. Durante las primeras pruebas se tuvo un electrodo compuesto de áloe vera - bicarbonato y otro compuesto solamente de bicarbonato. Dando indicaciones de que se requería seguir trabajando en el proyecto. En las siguientes pruebas se realizo un cambio de electrodos, usando la misma celda, ahora dichos  electrodos estaban compuestos unicamente de carbón activado y áloe vera. Dando unos resultados mejores a los anteriores. En las últimas pruebas se realizó un cambio nuevamente en los electrodos, siendo estos compuestos por hidroxidos fuertes, ya que estos tardaban más en realizar la reacción que produce el voltaje, teniendo así un voltaje constante por más tiempo.


CONCLUSIONES

Como resultados durante la estancia de verano se pueden destacar el diseño de un boceto o principio de un sistema de pequeñas dimensiones que reemplace a la batería convencional que actualmente los VAN usan como lo son las baterías tipo Li-Po, obteniendo de manera teórica un voltaje y corriente que este tipo de baterías proveen. Y claro también los resultados de voltaje que pueden llegar a dar cierta cantidad de bio-alcohol a cierta pureza.
Zurita Romero Eduardo de Jesús, Benemérita Universidad Autónoma de Puebla
Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo

ANáLISIS Y PROCESAMIENTO DE DATOS SINTéTICOS DE REGISTRO DE POZO Y PROPIEDADES PETROFíSICAS PARA LA PREDICCIóN DE ELECTROFACIES EN UN YACIMIENTO CARBONATADO USANDO LA HERRAMIENTA IMP-PREDICT.


ANáLISIS Y PROCESAMIENTO DE DATOS SINTéTICOS DE REGISTRO DE POZO Y PROPIEDADES PETROFíSICAS PARA LA PREDICCIóN DE ELECTROFACIES EN UN YACIMIENTO CARBONATADO USANDO LA HERRAMIENTA IMP-PREDICT.

Zurita Romero Eduardo de Jesús, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Manuel Romero Salcedo, Instituto Mexicano del Petróleo



PLANTEAMIENTO DEL PROBLEMA

El presente trabajo de investigación centra su interés en el uso de la herramienta IMP-Predict, la cual permite construir modelos de predicción, basados en aprendizaje máquina (ML), para determinar litofacies a partir de un conjunto de parámetros, utilizados como variables predictoras (ej. registros geofísicos de pozos, propiedades petrofísicas). IMP-Predict está fundamentada en una metodología que abarca la exploración de los datos, y su  acondicionamiento que es soportado por un método de aprendizaje supervisado, llamado máquina de soporte vectorial o SVM (Support Vector Machine), el cual se alimenta con datos para realizar un proceso de entrenamiento y que aprende de la estructura y relaciones que existen entre los datos de entrada (vector de soporte) y de los valores de salida que se determinarán (clases). Una vez obtenido el clasificador SVM se determinan las facies para un vector característico del conjunto de datos que no se le ha dado a conocer al clasificador, durante la etapa de entrenamiento, permitiendo así validar el modelo y quedando listo para realizar la predicción de cualquier número de pozos cuyas facies sean desconocidas. El objetivo principal de este trabajo es mostrar, analizar y definir  un método para obtener una clasificación de electrofacies en un yacimiento carbonatado utilizando inteligencia artificial a partir de registros geofísicos convencionales y  parámetros petrofísicos  que permitan  acrecentar la precisión en las predicciones de electro facies; así mismo optimizar los parámetros SVM (C y Gamma), necesarios para la creación  de un modelo de predicción óptimo.    



METODOLOGÍA

Para el desarrollo de la investigación,  tuve acceso a datos sintéticos de un yacimiento carbonatado. A partir de este punto, establecí la siguiente metodología: Estimar  electrofacies con la información física de las rocas (Matriz de porosidad, concentración de dolomitas, concentración de vúgulos, concentración de fracturas, distribución de vúgulos y concentración de lutita), por medio de estos parámetros se determinaran los porcentajes que den mayor importancia, para generar una caracterización del  subsuelo. Estimar electrofacies con la información de registro de pozos y petrofísica de los datos, utilizando un algoritmo de vecindad cercana (KNN), para obtener una clasificación diferente dado un primer punto. Presentar los resultados dados en el punto 1 y 2 a un experto en la materia, para aprobar las electrofacies generadas. Adaptar los datos en un documento de Excel con la información correcta de registros de pozo y microestructura con sus respectivas facies. Desarrollar un reporte en el cual se detallaran las pruebas que se generaran a partir de la información dada en los apartados anteriores. Realizar la diversas pruebas con la herramienta IMP-Predict V 2.0, de los diferentes arreglos propuestos en el punto 5, con el fin de obtener un modelo de predicción de electrofacies y un análisis de los parámetros C y Gamma que se utilizan para la predicción óptima. Interpretar  y  presentar los resultados de las pruebas generadas al asesor.   En el proceso me encuentro en el punto 5, desarrollando la metodología de los 3 tipos de prueba que utilizaré para entrenar en la aplicación, cuidando todos los aspectos del procesamiento de datos para la creación de los modelos de predicción. De igual manera estoy siendo asesorado por expertos en la materia que me van guiando como establecer los criterios de entrenamiento. Indudablemente estoy empleando todos los conocimientos obtenidos a lo largo de mi formación escolar y al mismo tiempo estoy adquiriendo muchos conocimientos durante mi actual estancia en el programa Delfín.


CONCLUSIONES

Obtener por medio de inteligencia artificial (Algoritmos de Clustering) la clasificación correcta  de  facies con los parámetros físicos del pozo. Definir los porcentajes correctos de los parámetros de petrofísicos para generar las facies correctas. Observar e interpretar los modelos de  prediccion dados por la herramienta (IMP-Predict), mediante el manejo de datos sintéticos del yacimiento carbonatado.